Ajustes de Curvas e Interpolacion
Ajustes de Curvas e Interpolacion
Ajustes de Curvas e Interpolacion
El ajuste de curvas consiste en encontrar una curva que contenga una serie de puntos y
que posiblemente cumpla una serie de restricciones adicionales. Esta sección es una
introducción tanto al ajuste de curvas/análisis de regresión (cuando se permite una
aproximación) e interpolación (cuando se espera un ajuste exacto a determinadas
restricciones).
Existen dos métodos generales para el ajuste de curvas que se distinguen entre sí al
considerar la cantidad de error asociado con los datos.
Primero, si los datos exhiben un grado significativo de error o “ruido”, la estrategia será
obtener una sola curva que represente la tendencia general de los datos. Como cualquier
dato individual puede ser incorrecto, no se busca intersecar todos los puntos. En lugar
de esto, se construye una curva que siga la tendencia de los puntos tomados como un
grupo. Un procedimiento de este tipo se llama regresión por mínimos cuadrados (figura
a).
Segundo, si se sabe que los datos son muy precisos, el procedimiento básico será
colocar una curva o una serie de curvas que pasen por cada uno de los puntos en forma
directa. Usualmente tales datos provienen de tablas. Como ejemplos se tienen los
valores de la densidad del agua o la capacidad calorífica de los gases en función de la
temperatura. La estimación de valores entre puntos discretos bien conocidos se llama
interpolación (figuras b y c)
1
4.1 Interpolación: lineal y cuadrática
Interpolación lineal:
Sean dos puntos (x0, y0), (x1, y1), la interpolación lineal consiste en hallar una estimación
del valor y, para un valor x, tal que x0<x< x1. Teniendo en cuanta que la ecuación de la
recta que pasa por esos dos puntos, obtenemos:
2
Un polinomio de interpolación es una función polinomial que además de interpolar los
datos, es el de menor grado posible.
Interpolación cuadrática:
Cuando se tiene más de dos puntos:
Caso 3: tenemos los datos (x0, y0), (x1, y1), (x2, y2). Para este caso, el polinomio de
interpolación va a ser un polinomio de grado 2, el polinomio de interpolación será como
sigue.
Cuando el polinomio que conviene es de 2º grado la interpolación recibe el nombre de
cuadrática. El polinomio interpolador es único, luego como se encuentre da igual., sin
embargo, a veces los cálculos son muy laboriosos y es preferible utilizar un método que
otro. A la vista de los datos se decide.
3
En el ejemplo 1 se da el método de resolver el sistema para encontrar los valores que
determinan a la función cuadrática (a, b y c) También podemos utilizar la expresión del
polinomio interpolador así:
Con frecuencia se tienen que estimar valores intermedios entre valores conocidos.
Para n + 1 puntos, existe uno y sólo un polinomio de n-ésimo orden o menor que pasa a
través de todos los puntos. Por ejemplo, hay sólo una línea recta (es decir un polinomio
de primer orden) que conecta dos puntos. El polinomio de interpolación consiste en
determinar el único polinomio de n-ésimo orden que se ajusta a los n + 1 puntos dados.
Este polinomio proporciona una fórmula para calcular los valores intermedios.
Aunque existe uno y sólo un polinomio de n-ésimo orden que se ajusta a los n + 1 puntos,
existen una gran variedad de fórmulas matemáticas mediante las cuales se puede
expresar este polinomio. En esta unidad se estudian dos técnicas alternativas que están
bien condicionadas para implementarse en una computadora. Estos son los polinomios
de Newton y de Lagrange.
4
4.2 Polinomios de interpolación diferencias divididas de Newton y
Lagrange
Como se hizo antes con las interpolaciones lineales y cuadráticas, los puntos asociados
con datos se utilizan para evaluar los coeficientes b 0, b1,…, bn. Para un polinomio de n-
ésimo grado se requieren n + 1 puntos: [x0, f(x0)], [x1, f(x1)] ,…, [xn, f(xn)].
Usamos estos datos y las siguientes ecuaciones para evaluar los coeficientes:
La segunda diferencia dividida finita, que representa la diferencia de las dos primeras
diferencias divididas, se expresa en forma general como:
5
En forma similar, la n-ésima diferencia dividida finita es:
Estas diferencias sirven para evaluar los coeficientes en las ecuaciones (18.8) a
(18.11), los cuales se sustituirán en la ecuación (18.7) para obtener el polinomio de
interpolación:
Debe observarse que no se requiere que los datos utilizados en la ecuación (18.15) estén
igualmente espaciados o que los valores de la abscisa estén en orden ascendente, como
se ilustra en el siguiente ejemplo. También, advierta cómo las ecuaciones (18.12) a
(18.14) son recursivas (es decir, las diferencias de orden superior se calculan tomando
diferencias de orden inferior (figura 18.5). Tal propiedad se aprovechará cuando
desarrollemos un programa computacional eficiente en la sección 18.1.5 para
implementar el método.
6
Donde:
La ecuación (18.20) se obtiene de manera directa del polinomio de Newton (cuadro 18.1).
Sin embargo, el razonamiento detrás de la formulación de Lagrange se comprende
directamente al darse cuenta de que cada término Li(x) será 1 en x = xi y 0 en todos los
otros puntos (figura 18.10). De esta forma, cada producto Li(x) f(xi) toma el valor de f(xi)
en el punto xi. En consecuencia, la sumatoria de todos los productos en la ecuación
(18.20) es el único polinomio de n-ésimo grado que pasa exactamente a través de todos
los n + 1 puntos, que se tienen como datos.
7
4.3 Regresión por mínimos cuadrados: lineal y cuadrática
La dependencia entre dos (o más) variables puede ser tal que se base en una relación
funcional (matemática) exacta, como la existente entre la velocidad y la distancia
recorrida por un móvil; o puede ser estadística. La dependencia estadística es un tipo de
relación entre variables tal que conocidos los valores de la (las) variable (variables)
independiente(s) no puede determinarse con exactitud el valor de la variable
dependiente, aunque si se puede llegar a determinar un cierto comportamiento (global)
de la misma. (Ej. La relación existente entre el peso y la estatura de los individuos de
una población es una relación estadística).
• El estudio del grado de dependencia existente entre las variables que queda
recogido en la teoría de la correlación.
Surge de modo natural la pregunta: ¿cuál es la relación analítica que mejor se ajusta a
nuestros datos? El método de cuadrados mínimos es un procedimiento general que nos
permite responder esta pregunta. Cuando la relación entre las variables X e Yes lineal,
8
el método de ajuste por cuadrados mínimos se denomina también método de regresión
lineal.
Observamos o suponemos una tendencia lineal entre las variables y nos preguntamos
sobre cuál es la mejor recta:
y(x) = a x + b
Que es una medida de la desviación total de los valores observados yi respecto de los
predichos por el modelo lineal a x + b. Los mejores valores de la pendiente a y la
ordenada al origen b son aquellos que minimizan esta desviación total, o sea, son los
valores que remplazados en la Ec.(1) minimizan la función 2. Ec.(2). Los
parámetros a y b pueden obtenerse usando técnicas matemáticas que hacen uso del
cálculo diferencial. Aplicando estas técnicas, el problema de minimización se reduce al
de resolver el par de ecuaciones:
9
Gráfico de datos asociados a un modelo lineal. La cantidad yi – y(xi) representa la
desviación de cada observación de yi respecto del valor predicho por el modelo y(x).
Regresión mínimo-cuadrática
Puede probarse que es equivalente ajustar por mínimos cuadrados la totalidad de las
observaciones (toda la nube de puntos) que realizar el ajuste de los puntos obtenidos
por la regresión de la media; de forma que la regresión mínimo-cuadrática viene ser, en
cierto modo, la consecución de una expresión analítica operativa para la regresión en
sentido estricto.
Coeficientes de regresión.
10
El signo de ambos coincidirá con el de la covarianza, indicándonos la tendencia (directa
o inversa a la covariación). Es interesante hacer notar que b.b’= r2
Por bondad del ajuste hay que entender el grado de acoplamiento que existe entre los
datos originales y los valores teóricos que se obtienen de la regresión. Obviamente
cuanto mejor sea el ajuste, más útil será la regresión a la pretensión de obtener los
valores de la variable regresando a partir de la información sobre la variable regresora .
Obtener indicadores de esta bondad de ajuste es fundamental a la hora de optar por una
regresión de un determinado tipo u otro.
Puesto que la media de los residuos se anula, el primer indicador de la bondad del ajuste
(no puede ser el error medio) será el error cuadrático medio, o varianza del residuo,
o varianza residual:
Que será una cantidad mayor o igual que cero.De forma que cuanto más baja sea mejor
será el grado de ajuste. Si la varianza residual vale cero el ajuste será perfecto (ya que
no existirá ningún error).
Del hecho de que yi=y*i+ei ,y de que las variables y* ý e están correlacionadas se tiene
que:
11
Igualdad fundamental anterior de la que se deduce que la varianza total de la variable y
puede descomponerse en dos partes una parte explicada por la regresión (la varianza
de la regresión) y otra parte no explicada (la varianza residual).
Considerando que la varianza nos mide la dispersión de los datos este hecho hay que
entenderlo como que la dispersión total inicial queda, en parte explicada por la regresión
y en parte no. Cuanto mayor sea la proporción de varianza explicada (y menor la no
explicada) tanto mejor será el ajuste y tanto más útil la regresión.
Es sencillo probar que en el caso lineal que nos ocupa el coeficiente de determinación
coincide con el cuadrado del coeficiente de correlación:
R2 = r2
12
4.4 Aplicaciones
Para el ajuste de curvas, los splines se utilizan para aproximar formas complicadas. La
simplicidad de la representación y la facilidad de cómputo de los splines los hacen
populares para la representación de curvas en informática, particularmente en el terreno
de los gráficos por ordenado.
Este es el caso más sencillo. En él, vamos a interpolar una función f(x) de la que se nos
dan un número N de pares (x,f(x)) por los que tendrá que pasar nuestra función
polinómica P(x). Esta serie de funciones nuestras van a ser lineales, esto es, con grado
1: de la forma P(x) = ax + b.
Definiremos una de estas funciones por cada par de puntos adyacentes, hasta un total
de (N-1) funciones, haciéndolas pasar obligatoriamente por los puntos que van a
determinarlas, es decir, la función P(x) será el conjunto de segmentos que unen nodos
consecutivos; es por ello que nuestra función será continua en dichos puntos, pero no
derivable en general.
En este caso, los polinomios P(x) a través de los que construimos el Spline tienen grado
2. Esto quiere decir, que va a tener la forma P(x) = ax² + bx + c
13
La interpolación cuadrática nos va a asegurar que la función que nosotros generemos a
trozos con los distintos P(x) va a ser continua, ya que para sacar las condiciones que
ajusten el polinomio, vamos a determinar cómo condiciones:
• Que las partes de la función a trozos P(x) pasen por ese punto. Es decir, que las
dos Pn(x) que rodean al f(x) que queremos aproximar, sean igual a f(x) en cada
uno de estos puntos.
Esto sin embargo no es suficiente, y necesitamos una condición más. ¿Por qué?
Tenemos 3 incógnitas por cada P(x). En un caso sencillo con f(x) definida en tres puntos
y dos ecuaciones P(x) para aproximarla, vamos a tener seis incógnitas en total. Para
resolver esto necesitaríamos seis ecuaciones, pero vamos a tener tan sólo cinco: cuatro
que igualan el P(x) con el valor de f(x) en ese punto (dos por cada intervalo), y la quinta
al igualar la derivada en el punto común a las dos P(x).
Se necesita una sexta ecuación. Esto suele hacerse con el valor de la derivada en algún
punto, al que se fuerza uno de los P(x).
Referencias
S. C. Chapra, R. P. Canale. Métodos numéricos para ingenieros 5ta ed. Mc Graw Hill
https://sites.google.com/site/mecanalisis/home/unidad-iv-ajuste-de-curvas-e-
interpolacion
http://mesmer115.blogspot.com/2015/05/unidad-4ajuste-de-curvas-e.html
https://sites.google.com/site/numerictron/unidad-4/4-3-regresion-por-minimos-
cuadrados-lineal-y-cuadratica
14