Arboles de Deciones

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 5

ARBOLES DE DECIONES

INTRODUCCION
Un árbol de decisión es un algoritmo de aprendizaje supervisado no paramétrico, que se
utiliza tanto para tareas de clasificación como de regresión. Tiene una estructura de árbol
jerárquica, que consta de un nodo raíz, ramas, nodos internos y nodos hoja.
El aprendizaje del árbol de decisiones emplea una estrategia de divide y vencerás mediante
la realización de una búsqueda codiciosa para identificar los puntos de división óptimos
dentro de un árbol. Este proceso de división se repite de forma recursiva de arriba hacia
abajo hasta que todos o la mayoría de los registros se hayan clasificado bajo etiquetas de
clase específicas. Que todos los puntos de datos se clasifiquen o no como conjuntos
homogéneos depende en gran medida de la complejidad del árbol de decisión. Los árboles
más pequeños son más fáciles de obtener nodos hoja puros, es decir, puntos de datos en una
sola clase. Sin embargo, a medida que un árbol crece en tamaño, se vuelve cada vez más
difícil mantener esta pureza y, por lo general, da como resultado que haya muy pocos datos
dentro de un subárbol determinado. Cuando esto ocurre, se conoce como fragmentación de
datos y, a menudo, puede resultar en sobreajustes.

INDICE
CONTENIDO

El algoritmo de Hunt, que se desarrolló en la década de 1960 para modelar el aprendizaje


humano en Psicología, forma la base de muchos algoritmos de árboles de decisión
populares, como los siguientes:

 ID3: A Ross Quinlan se le atribuye el desarrollo de ID3, que es la abreviatura de


"Iterative Dichotomiser 3". Este algoritmo aprovecha la entropía y la ganancia de
información como métricas para evaluar las divisiones de candidatos.
 C4.5: Este algoritmo se considera una iteración posterior de ID3, que también fue
desarrollado por Quinlan. Puede utilizar la ganancia de información o las
proporciones de ganancia para evaluar los puntos de división dentro de los árboles
de decisión.
 CART: El término CART es una abreviatura de "árboles de clasificación y
regresión" (“classification and regression trees”) y fue introducido por Leo
Breiman. Este algoritmo generalmente utiliza la impureza de Gini para identificar el
atributo ideal para la división.
Elementos
Los árboles de decisión están formados por nodos, vectores de números, flechas y etiquetas.

 Cada nodo se puede definir como el momento en el que se ha de tomar una


decisión de entre varias posibles, lo que va haciendo que a medida que aumenta
el número de nodos aumente el número de posibles finales a los que puede
llegar el individuo. Esto hace que un árbol con muchos nodos sea complicado
de dibujar a mano y de analizar debido a la existencia de numerosos caminos
que se pueden seguir.
 Los vectores de números serían la solución final a la que se llega en función de
las diversas posibilidades que se tienen, dan las utilidades en esa solución.
 Las flechas son las uniones entre un nodo y otro y representan cada acción
distinta.
 Las etiquetas se encuentran en cada nodo y cada flecha y dan nombre a cada
acción.

Cuando tratemos en el desarrollo de árboles utilizaremos frecuentemente estos conceptos:

 Costo. Se refiere a dos conceptos diferentes: el costo de medición para


determinar el valor de una determinada propiedad (atributo) exhibida por el
objeto y el costo de clasificación errónea al decidir que el objeto pertenece a la
clase X cuando su clase real es Y.
 Sobreajuste (Overfitting). Se produce cuando los datos de entrenamiento son
pocos o contienen incoherencias. Al tomar un espacio de hipótesis H, se dice
que una hipótesis h ∈ H sobreajusta un conjunto de entrenamiento C si existe
alguna hipótesis alternativa h' ∈ H tal que h clasifica mejor que h' los elementos
del conjunto de entrenamiento, pero h' clasifica mejor que h el conjunto
completo de posibles instancias.
 Poda (Prunning). La poda consiste en eliminar una rama de un nodo
transformándolo en una hoja (terminal), asignándole la clasificación más común
de los ejemplos de entrenamiento considerados en ese nodo.
 La validación cruzada. Es el proceso de construir un árbol con la mayoría de los
datos y luego usar la parte restante de los datos para probar la precisión del
árbol.
CONCLUCION
En los árboles de decisión se tiene que cumplir una serie de reglas.

1. Al comienzo del juego se da un nodo inicial que no es apuntado por ninguna


flecha, es el único del juego con esta característica.
2. El resto de los nodos del juego son apuntados por una única flecha.
3. De esto se deduce que hay un único camino para llegar del nodo inicial a
cada uno de los nodos del juego. No hay varias formas de llegar a la misma
solución final, las decisiones son excluyentes.
En los árboles de decisiones las decisiones que se eligen son lineales, a medida que vas
seleccionando entre varias opciones se van cerrando otras, lo que implica normalmente que
no hay marcha atrás. En general se podría decir que las normas siguen una forma
condicional: Opción 1->opción 2->opción 3->Resultado Final X Estas reglas suelen ir
implícitas en el conjunto de datos a raíz del cual se construye el árbol de decisión.

Ejemplo:

En este árbol de decisión podemos observar como hay cuatro posibles soluciones finales.
En él se cumplen las normas antes descritas (nodo inicial, una única flecha por nodo y un
único camino para llegar a cada nodo final) y tiene todos los elementos antes descritos
(nodos, vectores de números, flechas y etiquetas). La imagen representa un árbol de
decisión conformado por dos jugadores, en él se pueden observar las opciones que El juego
cuenta con dos jugadoras. La primera decisión la ha de tomar la jugadora 1, quien debe
decidir entre O1 y O2, en este punto será la jugadora 2 quien decida. Si la Jugadora 1 ha
elegido O1, tendrá que decidir entre A1 y R1, A1 le producirá una utilidad de 2, y R1 de 0,
a su vez A1 le reportará una utilidad de 8 a la jugadora 1 y R1 de 0. En cambio, si la
jugadora 1 elige O2, la jugadora 2 deberá elegir entre A2 y R2, la primera opción le
reportará una utilidad de 5 a ella y a la otra jugadora, R2 reportará una utilidad de 0 a las
dos. En el diseño de aplicaciones informáticas, un árbol de decisión indica las acciones a
realizar en función del valor de una o varias variables. Es una representación en forma de
árbol cuyas ramas se bifurcan en función de los valores tomados por las variables y que
terminan en una acción concreta. Se suele utilizar cuando el número de condiciones no es
muy grande (en tal caso, es mejor utilizar una tabla de decisión).

árbol de decisión
De forma más concreta, refiriéndonos al ámbito empresarial, podemos decir que los árboles
de decisión son diagramas de decisiones secuenciales nos muestran sus posibles resultados.
Estos ayudan a las empresas a determinar cuales son sus opciones al mostrarles las distintas
decisiones y sus resultados. La opción que evita una pérdida o produce un beneficio extra
tiene un valor. La habilidad de crear una opción, por lo tanto, tiene un valor que puede ser
comprado o vendido.

BIBLIOGRAFIA:
https://www.ibm.com/mx-es/topics/decision-trees
https://es.wikipedia.org/wiki/%C3%81rbol_de_decisi%C3%B3n

También podría gustarte