0% encontró este documento útil (0 votos)
33 vistas

EPS Python - Módulo 13

Este documento presenta el contenido del Módulo 13 de un curso de especialización en análisis de datos con Python. El módulo cubre métodos de aprendizaje supervisado como regresión lineal simple, regresión lineal múltiple, y regresiones penalizadas como Ridge, Lasso y elastic net. También discute conceptos como multicolinealidad, evaluación de modelos, y supuestos de los métodos de regresión.

Cargado por

diego
Derechos de autor
© © All Rights Reserved
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
33 vistas

EPS Python - Módulo 13

Este documento presenta el contenido del Módulo 13 de un curso de especialización en análisis de datos con Python. El módulo cubre métodos de aprendizaje supervisado como regresión lineal simple, regresión lineal múltiple, y regresiones penalizadas como Ridge, Lasso y elastic net. También discute conceptos como multicolinealidad, evaluación de modelos, y supuestos de los métodos de regresión.

Cargado por

diego
Derechos de autor
© © All Rights Reserved
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 38

Especialización enAnalytics con

Python

Módulo XIII

Docente: Arnaldo Eduardo Alvarado Vallejos


Reglas de Juego
Se requiere puntualidad para un mejor desarrollo del curso.

Para una mayor concentración mantener silenciado el micrófono durante la


sesión.

Las preguntas se realizarán a través del chat y en caso de que lo requieran


podrán activar el micrófono.

Realizar las actividades y/o tareas encomendadas en los plazos determinados.

Identificarse en la sala Zoom con el primer nombre y primer apellido.


Contenido – Módulo 13

• Entendiendo los métodos supervisados


• Regresión lineal simple. Suposiciones del modelo. Multicolinealidad.
• Regresión lineal múltiple. Multicolinealidad.
• Introducción a las regresiones penalizadas (Ridge, Lasso, elastic net)
• Comparación entre modelos. Evaluación de Desempeño.
Entendiendo los métodos supervisados
Aprendizaje supervisado: Regresión
Aprendizaje supervisado: Clasificación
Aprendizaje supervisado: Términos
Metodología de desarrollo de algoritmos supervisados
Validación técnica y de negocio mediante un piloto
Implementación de la solución analítica supervisada
Regresión Lineal: Empecemos con un ejemplo
Regresión Lineal Simple
Regresión Lineal Simple
Regresión Lineal Simple: eligiendo la mejor recta
Regresión Lineal Simple: interpretación del modelo
Regresión Lineal Simple: interpretación del modelo
Componentes de la variación en la regresión lineal
Contraste de significación global (ANOVA)
Contraste de significación global (ANOVA)
Contraste de significación global (ANOVA)
Métricas de evaluación para la regresión lineal
Supuestos paramétricos para la regresión lineal
Supuestos paramétricos para la regresión lineal
Homocedasticidad

NO DEBE SER
Regresión Lineal Múltiple
Regresión Lineal Múltiple: multicolinealidad
Posibles soluciones para la multicolinealidad
Regresión Lineal Múltiple: variables cualitativas
Regresión Espúrea
La relación espúrea da la impresión de la existencia de un vínculo apreciable entre dos grupos que es inválido cuando se
examina objetivamente. Es una relación en la cual dos acontecimientos no tienen conexión lógica, aunque se puede implicar
que la tienen debido a un tercer factor no considerado aún (llamado "factor de confusión" o "variable escondida").

Ejemplo: examinando las ventas de helados de una ciudad. Estas son más altas cuando la tasa de sofocamientos es mayor.
Sostener que la venta de helados causa los sofocamientos sería implicar una relación espuria entre las dos. En realidad, una
ola de calor puede haber causado ambas. La ola de calor es un ejemplo de variable escondida.

Problemas de la regresiónespúrea:

1) Los estimadores son estadísticamente significativos, presentando estadísticos t y F elevados, que rechazan la hipótesis nula.
2) El valor de la R2 es muy cercano al valor de 1, indicando que el modelo es adecuado
3) El estadístico DW tiende a cero. Una regla para determinarsi la regresión es falsa DW << R2
Algunos problemas con los modelos de regresión
Modelo de regresión penalizada: Ridge

➢ Es útil cuando existe colinearidad entre las variables utilizadas para el entrenamiento.
➢ El factor 𝜆(lambda) sirve para controlar la intensidad de la regularización. Se utiliza la
norma de regularización L2.
➢ La elección de este parámetro involucra un balance entre los componentes de sesgoy
varianza del error cuadrático medio al estimar 
Modelo de regresión penalizada: Lasso

➢ Permite reducir a valores cercanos a cero los coeficientes de las variables menosrelevantes.
➢ Se utiliza para la reducción de la dimensionalidad.
➢ El factor 𝜆(lambda) controla el nivel de regularización.
➢ Lasso es una técnica de regresión lineal regularizada, como Ridge,con la leve diferencia en la
penalización. (Norma L1 en lugar de L2)
Modelo de regresión penalizada: Lasso
Modelo de regresión penalizada: elastic net
Es una combinación de Ridge y Lasso. Se decide, que peso se le da a cada método de penalización
y se implementa la regresión.
❑ Arnaldo Eduardo Alvarado Vallejos
[email protected]
951611996
https://www.linkedin.com/in/arnaldoalvaradovallejos/

También podría gustarte