Ajustes de Curvas e Interpolacion

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 15

INDICE

4. Ajustes de curvas e interpolación............................................................ 1


4.1 Interpolación: lineal y cuadrática ........................................................... 2
4.2 Polinomios de interpolación diferencias divididas de Newton y
Lagrange .................................................................................................... 5
4.3 Regresión por mínimos cuadrados: lineal y cuadrática ......................... 8
4.4 Aplicaciones........................................................................................ 13
Referencias .............................................................................................. 14
4. Ajustes de curvas e interpolación

El ajuste de curvas consiste en encontrar una curva que contenga una serie de puntos y
que posiblemente cumpla una serie de restricciones adicionales. Esta sección es una
introducción tanto al ajuste de curvas/análisis de regresión (cuando se permite una
aproximación) e interpolación (cuando se espera un ajuste exacto a determinadas
restricciones).

Estas dos aplicaciones se conocen como ajuste de curvas.

Existen dos métodos generales para el ajuste de curvas que se distinguen entre sí al
considerar la cantidad de error asociado con los datos.

Primero, si los datos exhiben un grado significativo de error o “ruido”, la estrategia será
obtener una sola curva que represente la tendencia general de los datos. Como cualquier
dato individual puede ser incorrecto, no se busca intersecar todos los puntos. En lugar
de esto, se construye una curva que siga la tendencia de los puntos tomados como un
grupo. Un procedimiento de este tipo se llama regresión por mínimos cuadrados (figura
a).

Segundo, si se sabe que los datos son muy precisos, el procedimiento básico será
colocar una curva o una serie de curvas que pasen por cada uno de los puntos en forma
directa. Usualmente tales datos provienen de tablas. Como ejemplos se tienen los
valores de la densidad del agua o la capacidad calorífica de los gases en función de la
temperatura. La estimación de valores entre puntos discretos bien conocidos se llama
interpolación (figuras b y c)

1
4.1 Interpolación: lineal y cuadrática

La interpolación lineal es un caso particular de la Interpolación general de Newton. Con


el polinomio de interpolación de Newton se logra aproximar un valor de la función f(x) en
un valor desconocido de x. El caso particular, para que una interpolación sea lineal es en
el que se utiliza un polinomio de interpolación de grado 1, y se denota de la siguiente
manera:

En general la interpolación consiste en hallar un dato dentro de un intervalo en el que


conocemos los valores en los extremos. Se presenta cuando nos dan una función de la
cual sólo conocemos una serie de puntos de la misma:

Y si se pide hallar el valor de un punto x (intermedio de x0 y xn) de esta función. Se les


llama polinomio interpolador a estos puntos, los valores obtenidos son sólo estimaciones
aproximadas. La interpolación se llama lineal cuando sólo se toman dos puntos y
cuadrática cuando se tomen tres.

Interpolación lineal:
Sean dos puntos (x0, y0), (x1, y1), la interpolación lineal consiste en hallar una estimación
del valor y, para un valor x, tal que x0<x< x1. Teniendo en cuanta que la ecuación de la
recta que pasa por esos dos puntos, obtenemos:

2
Un polinomio de interpolación es una función polinomial que además de interpolar los
datos, es el de menor grado posible.

Caso 1: En este caso tenemos que f (x) = y0 (polinomio constante) es el polinomio de


menor grado tal que f (x0) = y0, por lo tanto, es el polinomio de interpolación: (x0, y0)
Caso 2: Tenemos los datos: (x0, y0), (x1, y1) en este caso el polinomio de interpolación
es la función lineal que une a los dos puntos dados. Por lo tanto, tenemos que:
Es el polinomio de interpolación:

Interpolación cuadrática:
Cuando se tiene más de dos puntos:
Caso 3: tenemos los datos (x0, y0), (x1, y1), (x2, y2). Para este caso, el polinomio de
interpolación va a ser un polinomio de grado 2, el polinomio de interpolación será como
sigue.
Cuando el polinomio que conviene es de 2º grado la interpolación recibe el nombre de
cuadrática. El polinomio interpolador es único, luego como se encuentre da igual., sin
embargo, a veces los cálculos son muy laboriosos y es preferible utilizar un método que
otro. A la vista de los datos se decide.

3
En el ejemplo 1 se da el método de resolver el sistema para encontrar los valores que
determinan a la función cuadrática (a, b y c) También podemos utilizar la expresión del
polinomio interpolador así:

Con lo que la búsqueda de los coeficientes es muy sencilla.

Lagrange (1736-1813) dio una manera simplificada de calcular los polinomios


interpoladores de grado n Para el caso de un polinomio de 2º grado que pasa por los
puntos (x0, y0), (x1, y1), (x2, y2):

Que es la fórmula de Lagrange para n=2.

Con frecuencia se tienen que estimar valores intermedios entre valores conocidos.

El método más común empleado para este propósito es la interpolación polinomial.


Recuérdese que la fórmula general de un polinomio de n-ésimo orden es:

Para n + 1 puntos, existe uno y sólo un polinomio de n-ésimo orden o menor que pasa a
través de todos los puntos. Por ejemplo, hay sólo una línea recta (es decir un polinomio
de primer orden) que conecta dos puntos. El polinomio de interpolación consiste en
determinar el único polinomio de n-ésimo orden que se ajusta a los n + 1 puntos dados.
Este polinomio proporciona una fórmula para calcular los valores intermedios.

Aunque existe uno y sólo un polinomio de n-ésimo orden que se ajusta a los n + 1 puntos,
existen una gran variedad de fórmulas matemáticas mediante las cuales se puede
expresar este polinomio. En esta unidad se estudian dos técnicas alternativas que están
bien condicionadas para implementarse en una computadora. Estos son los polinomios
de Newton y de Lagrange.

4
4.2 Polinomios de interpolación diferencias divididas de Newton y
Lagrange

Forma general de los polinomios de interpolación de Newton:


El análisis anterior puede generalizarse para ajustar un polinomio de n-ésimo grado a n
+ 1 datos. El polinomio de n-ésimo grado es:

Como se hizo antes con las interpolaciones lineales y cuadráticas, los puntos asociados
con datos se utilizan para evaluar los coeficientes b 0, b1,…, bn. Para un polinomio de n-
ésimo grado se requieren n + 1 puntos: [x0, f(x0)], [x1, f(x1)] ,…, [xn, f(xn)].

Usamos estos datos y las siguientes ecuaciones para evaluar los coeficientes:

Donde las evaluaciones de la función colocadas entre paréntesis son diferencias


divididas finitas. Por ejemplo, la primera diferencia dividida finita en forma general se
representa como:

La segunda diferencia dividida finita, que representa la diferencia de las dos primeras
diferencias divididas, se expresa en forma general como:

5
En forma similar, la n-ésima diferencia dividida finita es:

Estas diferencias sirven para evaluar los coeficientes en las ecuaciones (18.8) a
(18.11), los cuales se sustituirán en la ecuación (18.7) para obtener el polinomio de
interpolación:

que se conoce como polinomio de interpolación de Newton en diferencias divididas.

Debe observarse que no se requiere que los datos utilizados en la ecuación (18.15) estén
igualmente espaciados o que los valores de la abscisa estén en orden ascendente, como
se ilustra en el siguiente ejemplo. También, advierta cómo las ecuaciones (18.12) a
(18.14) son recursivas (es decir, las diferencias de orden superior se calculan tomando
diferencias de orden inferior (figura 18.5). Tal propiedad se aprovechará cuando
desarrollemos un programa computacional eficiente en la sección 18.1.5 para
implementar el método.

Polinomios de interpolación de Lagrange


El polinomio de interpolación de Lagrange es simplemente una reformulación del
polinomio de Newton que evita el cálculo de las diferencias divididas, y se representa
de manera concisa como:

6
Donde:

Donde Π designa el “producto de”. Por ejemplo, la versión lineal (n = 1) es:

Y la versión de segundo grado es:

La ecuación (18.20) se obtiene de manera directa del polinomio de Newton (cuadro 18.1).
Sin embargo, el razonamiento detrás de la formulación de Lagrange se comprende
directamente al darse cuenta de que cada término Li(x) será 1 en x = xi y 0 en todos los
otros puntos (figura 18.10). De esta forma, cada producto Li(x) f(xi) toma el valor de f(xi)
en el punto xi. En consecuencia, la sumatoria de todos los productos en la ecuación
(18.20) es el único polinomio de n-ésimo grado que pasa exactamente a través de todos
los n + 1 puntos, que se tienen como datos.

7
4.3 Regresión por mínimos cuadrados: lineal y cuadrática

En el marco del análisis estadístico multidimensional interesa, en gran medida, descubrir


la interdependencia o la relación existente entre dos o más de las características
analizadas.

La dependencia entre dos (o más) variables puede ser tal que se base en una relación
funcional (matemática) exacta, como la existente entre la velocidad y la distancia
recorrida por un móvil; o puede ser estadística. La dependencia estadística es un tipo de
relación entre variables tal que conocidos los valores de la (las) variable (variables)
independiente(s) no puede determinarse con exactitud el valor de la variable
dependiente, aunque si se puede llegar a determinar un cierto comportamiento (global)
de la misma. (Ej. La relación existente entre el peso y la estatura de los individuos de
una población es una relación estadística).

Pues bien, el análisis de la dependencia estadística admite dos planteamientos (aunque


íntimamente relacionados):

• El estudio del grado de dependencia existente entre las variables que queda
recogido en la teoría de la correlación.

• La determinación de la estructura de dependencia que mejor exprese la relación,


lo que es analizado a través de la regresión.

Método De Cuadrados Mínimos – Regresión Lineal

Hemos enfatizado sobre la importancia de las representaciones gráficas y hemos visto


la utilidad de las versiones linealidades de los gráficos (X, Y) junto a las distintas maneras
de llevar a cabo la liberalización. A menudo nos confrontamos con situaciones en las que
existe o suponemos que existe una relación lineal entre las variables Xe Y.

Surge de modo natural la pregunta: ¿cuál es la relación analítica que mejor se ajusta a
nuestros datos? El método de cuadrados mínimos es un procedimiento general que nos
permite responder esta pregunta. Cuando la relación entre las variables X e Yes lineal,
8
el método de ajuste por cuadrados mínimos se denomina también método de regresión
lineal.

Observamos o suponemos una tendencia lineal entre las variables y nos preguntamos
sobre cuál es la mejor recta:
y(x) = a x + b

Que representa este caso de interés. Es útil definir la función:

Que es una medida de la desviación total de los valores observados yi respecto de los
predichos por el modelo lineal a x + b. Los mejores valores de la pendiente a y la
ordenada al origen b son aquellos que minimizan esta desviación total, o sea, son los
valores que remplazados en la Ec.(1) minimizan la función 2. Ec.(2). Los
parámetros a y b pueden obtenerse usando técnicas matemáticas que hacen uso del
cálculo diferencial. Aplicando estas técnicas, el problema de minimización se reduce al
de resolver el par de ecuaciones:

Actualmente, la mayoría de los programas de análisis de datos y planillas de cálculo,


realizan el proceso de minimización en forma automática y dan los resultados de los
mejores valores de a y b, o sea los valores indicados por las ecuaciones.

9
Gráfico de datos asociados a un modelo lineal. La cantidad yi – y(xi) representa la
desviación de cada observación de yi respecto del valor predicho por el modelo y(x).

Regresión mínimo-cuadrática

Consiste en explicar una de las variables en función de la otra a través de un determinado


tipo de función (lineal, parabólica, exponencial, etc.), de forma que la función de regresión
se obtiene ajustando las observaciones a la función elegida, mediante el método de
Mínimos-Cuadrados (M.C.O.).

Elegido el tipo de función de regresión concreta se obtendrá minimizando la expresión:

(yj – (xi ) ) 2. Nij en el caso de la regresión de Y/X


(xi – (yj ) ) 2. Nij en el caso de la regresión de X/Y

Puede probarse que es equivalente ajustar por mínimos cuadrados la totalidad de las
observaciones (toda la nube de puntos) que realizar el ajuste de los puntos obtenidos
por la regresión de la media; de forma que la regresión mínimo-cuadrática viene ser, en
cierto modo, la consecución de una expresión analítica operativa para la regresión en
sentido estricto.

Coeficientes de regresión.

Se llama coeficiente de regresión a la pendiente de la recta de regresión:

en la regresión Y/X : b = Sxy / Sx2

en la regresión X/Y b’ = Sxy / Sy2

10
El signo de ambos coincidirá con el de la covarianza, indicándonos la tendencia (directa
o inversa a la covariación). Es interesante hacer notar que b.b’= r2

Bondad del ajuste (Varianza Residual, Varianza De La Regresión Y Coeficiente De


Determinación)

Por bondad del ajuste hay que entender el grado de acoplamiento que existe entre los
datos originales y los valores teóricos que se obtienen de la regresión. Obviamente
cuanto mejor sea el ajuste, más útil será la regresión a la pretensión de obtener los
valores de la variable regresando a partir de la información sobre la variable regresora .

Obtener indicadores de esta bondad de ajuste es fundamental a la hora de optar por una
regresión de un determinado tipo u otro.

Puesto que la media de los residuos se anula, el primer indicador de la bondad del ajuste
(no puede ser el error medio) será el error cuadrático medio, o varianza del residuo,
o varianza residual:

Considerando la regresión Y/X:

Que será una cantidad mayor o igual que cero.De forma que cuanto más baja sea mejor
será el grado de ajuste. Si la varianza residual vale cero el ajuste será perfecto (ya que
no existirá ningún error).

Del hecho de que yi=y*i+ei ,y de que las variables y* ý e están correlacionadas se tiene
que:

Donde S2y* es la llamada varianza de la regresión y supone la varianza de la variable regresión:

11
Igualdad fundamental anterior de la que se deduce que la varianza total de la variable y
puede descomponerse en dos partes una parte explicada por la regresión (la varianza
de la regresión) y otra parte no explicada (la varianza residual).

Considerando que la varianza nos mide la dispersión de los datos este hecho hay que
entenderlo como que la dispersión total inicial queda, en parte explicada por la regresión
y en parte no. Cuanto mayor sea la proporción de varianza explicada (y menor la no
explicada) tanto mejor será el ajuste y tanto más útil la regresión.

A la proporción de varianza explicada por la regresión se le llama coeficiente de


determinación (en nuestro caso lineal):

Que evidentemente estará siempre comprendido entre 0 y 1 y, en consecuencia, da


cuenta del tanto por uno explicado por la regresión.

Una consecuencia importante en la práctica es que la varianza residual será obviamente:

Es sencillo probar que en el caso lineal que nos ocupa el coeficiente de determinación
coincide con el cuadrado del coeficiente de correlación:

R2 = r2

Con lo cual la varianza residual y la varianza debida a la regresión pueden calcularse a


partir del coeficiente de correlación:

12
4.4 Aplicaciones

En el subcampo matemático del análisis numérico, un spline es una curva diferenciable


definida en porciones mediante polinomios.

En los problemas de interpolación, se utiliza a menudo la interpolación mediante splines


porque da lugar a resultados similares requiriendo solamente el uso de polinomios de
bajo grado, evitando así las oscilaciones, indeseables en la mayoría de las aplicaciones,
encontradas al interpolar mediante polinomios de grado elevado.

Para el ajuste de curvas, los splines se utilizan para aproximar formas complicadas. La
simplicidad de la representación y la facilidad de cómputo de los splines los hacen
populares para la representación de curvas en informática, particularmente en el terreno
de los gráficos por ordenado.

Interpolación Segmentaria Lineal

Este es el caso más sencillo. En él, vamos a interpolar una función f(x) de la que se nos
dan un número N de pares (x,f(x)) por los que tendrá que pasar nuestra función
polinómica P(x). Esta serie de funciones nuestras van a ser lineales, esto es, con grado
1: de la forma P(x) = ax + b.

Definiremos una de estas funciones por cada par de puntos adyacentes, hasta un total
de (N-1) funciones, haciéndolas pasar obligatoriamente por los puntos que van a
determinarlas, es decir, la función P(x) será el conjunto de segmentos que unen nodos
consecutivos; es por ello que nuestra función será continua en dichos puntos, pero no
derivable en general.

Interpolación Segmentaria Cuadrática

En este caso, los polinomios P(x) a través de los que construimos el Spline tienen grado
2. Esto quiere decir, que va a tener la forma P(x) = ax² + bx + c

Como en la interpolación segmentaria lineal, vamos a tener N-1 ecuaciones (donde N


son los puntos sobre los que se define la función).

13
La interpolación cuadrática nos va a asegurar que la función que nosotros generemos a
trozos con los distintos P(x) va a ser continua, ya que para sacar las condiciones que
ajusten el polinomio, vamos a determinar cómo condiciones:

• Que las partes de la función a trozos P(x) pasen por ese punto. Es decir, que las
dos Pn(x) que rodean al f(x) que queremos aproximar, sean igual a f(x) en cada
uno de estos puntos.

• Que la derivada en un punto siempre coincida para ambos "lados" de la función


definida a trozos que pasa por tal punto común.

Esto sin embargo no es suficiente, y necesitamos una condición más. ¿Por qué?
Tenemos 3 incógnitas por cada P(x). En un caso sencillo con f(x) definida en tres puntos
y dos ecuaciones P(x) para aproximarla, vamos a tener seis incógnitas en total. Para
resolver esto necesitaríamos seis ecuaciones, pero vamos a tener tan sólo cinco: cuatro
que igualan el P(x) con el valor de f(x) en ese punto (dos por cada intervalo), y la quinta
al igualar la derivada en el punto común a las dos P(x).

Se necesita una sexta ecuación. Esto suele hacerse con el valor de la derivada en algún
punto, al que se fuerza uno de los P(x).

Referencias

S. C. Chapra, R. P. Canale. Métodos numéricos para ingenieros 5ta ed. Mc Graw Hill

https://sites.google.com/site/mecanalisis/home/unidad-iv-ajuste-de-curvas-e-
interpolacion

http://mesmer115.blogspot.com/2015/05/unidad-4ajuste-de-curvas-e.html

https://sites.google.com/site/numerictron/unidad-4/4-3-regresion-por-minimos-
cuadrados-lineal-y-cuadratica

14

También podría gustarte