Aproximación Lineal Por Mínimos Cuadrados

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 2

Aproximación lineal por mínimos cuadrados

La aproximación lineal por mínimos cuadrados comenzó cuando el astrónomo italiano Giuseppe


Piazzi descubrió el planeta enano Ceres, él fue capaz de seguir su órbita durante 40 días. Gauss fue
quien logro intentar su trayectoria con su método de mínimos cuadrados el cual fue publicado
hasta 1809, y apareció en el segundo volumen de su trabajo sobre mecánica celeste. El
francés Adrien-Marie Legendre desarrolló el mismo método de forma independiente en 1805. En
1829, Gauss fue capaz de establecer la razón del éxito maravilloso de este procedimiento:
simplemente, el método de mínimos cuadrados es óptimo en muchos aspectos. El argumento
concreto se conoce como teorema de Gauss-Márkov.

Los mínimos cuadrados es una técnica de análisis numérico dentro de la optimización matemática,
en la que, dados un conjunto de pares ordenados y variables independientes, o variables
dependientes y una familia de funciones, se intenta encontrar la función continua, dentro de dicha
familia, el cual tenga de cierta forma el mejor ajuste de datos, esto se logra a partir del criterio de
mínimo error cuadrático.

En su forma más simple, intenta minimizar la suma de cuadrados de las diferencias en las


ordenadas, los cuales son llamados residuos generalmente, entre los puntos generados por la
función elegida y los correspondientes valores en los datos

La recta de mínimos cuadrados que aproxima el conjunto de puntos (X1, Y1), (X2, Y2), . . ., (XN, YN)
tiene la ecuación Y = a0 + a1X donde las constantes a0 y a1 se determinan resolviendo las
ecuaciones simultáneas a las que se les denomina ecuaciones normales de la recta de mínimos
cuadrados. Las constantes a0 y a1 de las ecuaciones pueden hallarse empleando fórmulas. La recta
de mínimos cuadrados pasa por el punto (x, y), al que se le llama el centroide o centro de
gravedad de los datos. Si se considera que la variable X es la variable dependiente en lugar de la
variable independiente, la ecuación se escribe X = b0 + b1 Y. Las fórmulas que se utilizan también
son válidas cuando se intercambian X y Y, y a0 y a1 se sustituyen por b0 y b1, respectivamente

Regresión lineal múltiple

El término regresión fue introducido por Francis Galton en su libro Natural inheritance (1889) y fue
confirmada por su amigo Karl Pearson. Su trabajo se centró en la descripción de los rasgos físicos
de los descendientes variable A partir de los de sus padres variable B. Estudiando la altura de
padres e hijos a partir de más de mil registros de grupos familiares, se llegó a la conclusión de que
los padres muy altos tenían una tendencia a tener hijos que heredaban parte de esta altura, pero
que revelaban también una tendencia a regresar a la media. Galton generalizó esta tendencia bajo
la "ley de la regresión universal": Cada peculiaridad en un hombre es compartida por sus
descendientes, pero en media, en un grado menor.

Para esta técnica se utilizan mínimos cuadrados promedio (LMS) cuando el número de datos
medidos es 1 y se usa el método de descenso por gradiente para minimizar el residuo cuadrado.
Una extensión natural del modelo de regresión lineal simple consiste en considerar más de una
variable explicativa.
Los modelos de regresión múltiple estudian la relación entre una variable de interés y (variable
respuesta o dependiente) y un conjunto de variables explicativas o regresoras x 1 , x 2 , … , x p .

La regresión múltiple también nos puede servir para entender la relación funcional entre la
variable dependiente y las variables independientes, así como estudiar cuáles pueden ser las
causas de la variación de Y. Una extensión útil de la regresión lineal es el caso en el que y es una
función lineal de dos o más variables independientes. Por ejemplo, y podría ser una función lineal
de x 1y x 2, como en

y=a0 +ai x i+ e

a 0: es la ordenada en el origen, el valor de la variable dependiente y cuando todos los predictores


son cero.

a i: es el efecto promedio que tiene el incremento en una unidad de la variable predictora x i sobre
la variable dependiente y , manteniéndose constantes el resto de las variables. Se conocen como
coeficientes parciales de regresión.

𝑒: es el residuo o error, la diferencia entre el valor observado y el estimado por el modelo.

La ecuación anterior es útil cuando se ajustan datos experimentales donde la variable sujeta a
estudio es una función de otras dos variables. En este caso bidimensional, la “línea” de regresión
se convierte en un “plano”

Se obtienen unas ecuaciones y estas se derivan y a partir de estas Los coeficientes de que dan la
suma mínima de los cuadrados de los residuos se obtienen al igualar a cero las derivadas parciales
y expresando el resultado en forma matricial.

También podría gustarte