Regresión Lineal
Regresión Lineal
3EV1
Introducción
La primera forma de regresión lineal documentada fue el método de los mínimos
cuadrados que fue publicada por Legendre en 1805, Gauss publicó un trabajo en donde
desarrollaba de manera más profunda el método de los mínimos cuadrados y en donde
se incluía una versión del teorema de Gauss-Márkov. En el enfoque de este tema
supone que una variable aleatoria dependa de los valores tomados por una o más
variables diferentes llamadas variables independientes o de
regresión y como se toman valores diferentes para cada variable
condicional se trata de valores cambian el resultado esperado según los valores con esto
cuenta se desea desarrollar una ecuación de predicción se estima a partir y si se grafica
un línea recta de x e y decimos que es una regresión lineal y se denomina: con variables
reales cuando se preselecciona para esto se dice que esta controlado y se deciden
mediante un procedimiento aleatorio
Desarrollo
X y Y determinan si están están relacionadas de esta manera significa que, una vez
conocido el valor de x, el valor de y queda completamente especificado. Entonces el
objetivo de la regresión lineal es reducir la distancia entre los datos y la línea es un
ajuste de los datos como puntos con la curva. Una de las técnicas más eficiente es la
técnica de mínimos cuadrado que intenta reducir la suma de los errores al cuadrado,
buscando el mejor valor posible de los coeficientes de regresión. Los mínimos cuadrados
no es la única técnica para usar en Regresión Lineal, pero se ocupa debido:
Utiliza un error cuadrado por lo que es más fácil diferenciar y calcular el descenso
del gradiente.
Es fácil de analizar y computacionalmente más rápido, es decir, puede aplicarse
rápidamente a conjuntos de datos que tienen miles de características.
La interpretación es mucho más fácil que otras técnicas de regresión.
Si tus datos no siguen las suposiciones, sus resultados pueden ser incorrectos y
engañosos entonces las suposiciones básicas son necesarias posteriormente se
mencionarán de forma resumida lo importante de estas:
Existe una linealidad entre los datos eso significa que una variable dependiente en un
cambio de unida de la variable independiente se vuelve constante por lo tanto
suponemos que la regresión lineal asume que su entrada y salida estén correlacionadas
(coeficiente de correlación)
Si las dos variables no están determinadas en forma de relacionarlas, entonces con un
valor fijo de x, el valor de la segunda variable es aleatorio.
Regresión Simple: Pero para que quede mas resumido y detallado mencionaremos que
la regresión lineal simple utiliza una solo variable y como se ha mencionado el caso mas
sencillo es de la línea recta entonces con esto en mente podemos decir los pares de
valores (x,y) son representados en la línea a ese tipo de grafico se le conoce como nube
de puntos o diagrama de dispersión.
Como se ve en la figura en
a) Se presenta la independencia como falta de puntos concurrentes,
b) Varían de asociación, pero es positiva
c) Varían de asociación, pero es negativa
d) No lineal pero curva que se ajusta
Puntos Importantes para tomar en cuenta de la regresión lineal:
Al error aleatorio que constituye Alos factores no controlados lo llamaremos
perturbación
La distribución y para un x fijo es normal con varianza sigma al cuadrado y varia
linealmente con x.
La variable es lo que llamamos como erro de predicción
Entonces con la formula se obtiene una estimación para la relación
de una población a partir de valores observados en una muestra
pero es necesario que se cumplan las siguientes estadísticas.
Homocedasticidad: Las
Linealidad: Establece que el Varianzas son iguales a todo
valor esperado o media se lo largo de la recta de
encuentra sobre la recta de regresión esto reside en la
regresión Y sobre X vendrá ventaja de utilizar el único
determinada por los valores valor recorrido x en
medios de Y para cada valor de estimación a Y.
X