Clase 15 Atributos
Clase 15 Atributos
Clase 15 Atributos
de atributos
Felipe Bravo
Basado ligeramente en slides previas de
Benjamín Bustos
Selección y Reducción de Atributos
2
Selección de Atributos
3
Selección de Atributos
Por ejemplo, agregar un atributo aleatorio (por ende irrelevante)
afecta a los árboles de decisión.
5
Selección de Atributos
9
Scheme-independent attribute selection
10
Subconjuntos de atributos para el
weather dataset
11
Buscando en el espacio de atributos
12
Buscando en el espacio de atributos
14
Selección Scheme-specific ó Wrapper
(Envoltura)
15
Reducción de la dimensión
● Métodos a estudiar:
○ Análisis de Componentes Principales (PCA)
○ Multidimensional Scaling (MDS)
Conceptos matemáticos
● Varianza
Conceptos matemáticos
● Covarianza
● Covarianza es conmutativa
● Signo de la covarianza:
○ +: ambas dimensiones se incrementan juntas
○ - : si una se incrementa, la otra se decrementa
Conceptos matemáticos
● Matriz de covarianza
○ Para vectores n-dimensionales
Para una matriz X de m vectores donde todos los vectores tienen media cero,
se tiene que donde es la matriz de covarianza.
Conceptos matemáticos
23
Motivación
● Otro ejemplos: Tenemos una encuesta hecha a pilotos de helicóptero.
● X1 corresponde a qué tan habilidoso es el piloto y X2 corresponde a
cuánto disfruta la actividad.
● Cómo ser un buen piloto requiere mucha dedicación es común que los
buenos pilotos disfruten mucho de la actividad.
24
Motivación
● X1 y X2 están fuertemente correlacionados.
● De hecho uno podría plantear que los datos están sobre un eje
diagonal (la dirección del vector u1) que capturan el “karma” intrínseco
del piloto
● Luego u2 proyecta el ruido.
● ¿Cómo podemos calcular la dirección de u1 automáticamente?
● Antes de explicar PCA tenemos que normalizar los datos para que
tengan media nula y varianza unitaria:
25
PCA
26
PCA
27
PCA
28
PCA
● Nuestro objetivo es encontrar automáticamente la dirección u que
proyecta los datos a una máxima varianza.
● Sea u un vector unitario y otro vector v.
● Por el álgebra lineal sabemos que
● Esto se puede reordenar como:
29
PCA
● Como u es vector unitario => ||u|| = 1
30
PCA
● Entonces, sea u un vector unitario y x un ejemplo de nuestro dataset
● Por lo visto anteriormente sabemos que la proyección de x sobre u se
puede calcular como xTu.
● Entonces para maximizar la varianza de la proyección tenemos que
encontrar un vector unitario u que maximice la siguiente ecuación:
Donde
es la matriz de covarianza asumiendo que los datos tiene media nula.
31
PCA
32
PCA
33
PCA
● Algoritmo:
3. Calcular valores y vectores propios (normalizados) de la matriz de
covarianza
4. Elegir componentes principales
■ Ordenar valores propios en orden descendente
● Primer componente principal: vector propio asociado al valor
propio mayor
● Segundo componente principal: vector propio asociado al
segundo valor propio mayor
● Etc.
PCA
● Algoritmo:
4. Transformada lineal:
● Valores propios:
● Transformar datos
Reducción de dimensión
Fuente:
https://machinelearningmastery.com/calculate-principal-component-analysis-scratch-python/
Comentarios
47
Otras técnicas
● Autoencoders
○ Red neuronal que reconstruye los datos. Se usa la capa intermedia como una
representación.
● t-Distributed Stochastic Neighbor Embedding (TSNE).
○ Modela cada objeto de alta dimensión por un punto de dos o tres dimensiones
de tal manera que los objetos similares son modelados por puntos cercanos y
los objetos diferentes son modelados por puntos distantes con alta
probabilidad.
○ ¡Técnica muy buena para la visualización!
○ Explicado en este video: https://www.youtube.com/watch?v=NEaUSP4YerM
● ICA (Independent Component Analysis)
● UMAP: Uniform Manifold Approximation and Projection for
Dimension Reduction.
○ Basado geometría de Riemann y topología algebraica:
https://www.youtube.com/watch?v=nq6iPZVUxZU
48