Redes Neuronales - IA

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 20

Universidad Nacional Toribio Rodríguez de Mendoza

Facultad de Ingeniería de Sistemas y Mecánica Eléctrica

Tema: Redes Neuronales

Curso: Inteligencia Artificial

Docente: Pérez Londoño, Gustavo Adolfo

Alumnos:

 Magallan Culqui, Cristhian Jefrye


 Marines Quincho, Rony
 Martínez Trigoso, Juan José
 Ramos López, Mijael Fernando
 Molocho Aguilar, Luis Alfonso

Ciclo: VII

Año: 2024
Contenido
1. CONCEPTUALIZACIÓN DE REDES NEURONALES................................................3
1.1. ¿Qué es una red neuronal?............................................................................................3
1.2. ¿Para qué sirven las redes neuronales?.........................................................................3
1.3. Modelo de redes Neuronales........................................................................................4
1.4. Entrenamiento de las redes neuronales.........................................................................4
2. METODOS DE APRENDIZAJE SUPERVISADO:.......................................................5
2.1. Aprendizaje supervisado...............................................................................................5
2.2. Categorías.....................................................................................................................5
2.3. Principales algoritmos..................................................................................................6
3. ¿Qué es el aprendizaje no supervisado?...........................................................................8
3.1. Agrupación en clústeres................................................................................................8
3.2. Reglas de asociación...................................................................................................12
3.3. Reducción de dimensionalidad...................................................................................13
3.4. Aplicaciones...............................................................................................................14
4. MÁQUINAS DE VECTORES DE SOPORTE..............................................................15
4.1. Conceptos Clave.........................................................................................................15
4.2. Funcionamiento de SVM............................................................................................16
4.3. Ventajas y Desventajas...............................................................................................16
4.4. Aplicaciones...............................................................................................................17
Referencias.................................................................................................................................18

2
Inteligencia Artificial - VII ciclo
1. CONCEPTUALIZACIÓN DE REDES NEURONALES

1.1. ¿Qué es una red neuronal?


Una red neuronal es un método de la
inteligencia artificial que enseña a las
computadoras a procesar datos de una manera
que está inspirada en la forma en que lo hace el
cerebro humano. (AWS, s. f.). Está formada por
nodos interconectados llamados neuronas,
Ilustración 1 (A2 Capacitación: Excel, 2022)
organizados en capas. (Fonseca & Fonseca, 2024).

Toda red neuronal consta de capas de nodos o neuronas artificiales: una capa de entrada,
una o varias capas ocultas y una capa de salida. Cada nodo se conecta a los demás y
tiene su propia ponderación y umbral asociados. (¿Qué Es una Red Neuronal? | IBM,
s. f.)

Las redes neuronales se basan en datos de entrenamiento para aprender y mejorar su


precisión con el tiempo. Una perfeccionadas, se convierten en potentes herramientas en
informática e inteligencia artificial, que nos permiten clasificar y agrupar datos a gran
velocidad. Las tareas de reconocimiento de voz o de imágenes pueden llevar minutos
frente a horas si se comparan con la identificación manual por parte de expertos
humanos. Uno de los ejemplos más conocidos de red neuronal es el algoritmo de
búsqueda de Google. (¿Qué Es una Red Neuronal? | IBM, s. f.).

1.2. ¿Para qué sirven las redes neuronales?

Se destaca en la resolución de problemas en áreas como el reconocimiento de imágenes,


procesamiento de lenguaje natural y toma de decisiones. Su arquitectura interconectada
de nodos, o neuronas, permite aprender y adaptarse a través del ajuste de pesos en las
conexiones durante el entrenamiento. Esto posibilita que la red capture patrones sutiles
y relaciones en los datos, permitiendo su aplicación en una amplia gama de campos,
como en el caso de reconocimiento de rostros, de matrículas u objetos en sistemas de

3
Inteligencia Artificial - VII ciclo
seguridad usando redes neuronales especializadas en visión artificial. (Fonseca &
Fonseca, 2024).

1.3. Modelo de redes Neuronales

Las unidades de procesamiento se organizan en capas. Hay tres partes normalmente en


una red neuronal: una capa de entrada, con unidades que representan los campos de
entrada, una o varias capas ocultas, y una capa de salida. (SPSS Modeler Subscription,
s. f.).

Las redes reciben una serie de valores de entrada y cada una de estas entradas llega a un
nodo llamado neurona. Las neuronas de la red están a su vez agrupadas en capas que
forman la red neuronal. Cada una de las neuronas de la red posee a su vez un peso, un
valor numérico, con el que modifica la entrada recibida. Los nuevos valores obtenidos
salen de las neuronas y continúan su camino por la red. Este funcionamiento puede
observarse de forma esquemática:

Ilustración 2(Martínez, 2024)

1.4. Entrenamiento de las redes neuronales

Para conseguir que una red neuronal realice las funciones deseadas, es necesario
entrenarla. El entrenamiento de una red neuronal se realiza modificando los pesos de sus
neuronas para que consiga extraer los resultados deseados. Para ello lo que se hace es
introducir datos de entrenamiento en la red, en función del resultado que se obtenga, se
modifican los pesos de las neuronas según el error obtenido y en función de cuanto haya
contribuido cada neurona a dicho resultado. Este método es conocido como

4
Inteligencia Artificial - VII ciclo
Backpropagation o propagación hacia atrás. Con este método se consigue que la red
aprenda, consiguiendo un modelo capaz de obtener resultados muy acertados incluso
con datos muy diferentes a los que han sido utilizados durante su entrenamiento.
(Martínez, 2024).

Conceptos extra:

El deep learning, o aprendizaje profundo, es como el machine learning para, a partir de


una gran cantidad de datos y tras numerosas capas de procesamiento con algoritmos,
conseguir que un ordenador termine aprendiendo por cuenta propia y realizando tareas
similares a las de los seres humanos, como la identificación de imágenes, el
reconocimiento del habla o la realización de predicciones, de forma progresiva.

2. METODOS DE APRENDIZAJE SUPERVISADO:

2.1. Aprendizaje supervisado

El aprendizaje supervisado utiliza un conjunto de entrenamiento para enseñar a los


modelos a producir el resultado deseado. Este conjunto de datos de entrenamiento
incluye entradas y salidas correctas, lo que permite que el modelo aprenda con el
tiempo. El algoritmo mide su precisión a través de la función de pérdida, ajustando
hasta que el error se haya minimizado lo suficiente. (¿Qué es el aprendizaje
supervisado? | IBM, s.f.).)

2.2. Categorías

Los algoritmos de aprendizaje supervisado se sub categorizan en dos grupos:


Clasificación y Regresión. La diferencia entre ellos está en el tipo de resultado que
queremos que produzca:

 En la clasificación, el objetivo es identificar a qué categoría pertenece una


determinada muestra del problema, entre un número limitado de categorías

 En la regresión, la idea es predecir un valor numérico; o en otros términos:


identificar una categoría en una escala continua. En este caso, el algoritmo

5
Inteligencia Artificial - VII ciclo
aprende de los datos y los modela en una función para hacer predicciones.
(Aprendizaje supervisado | Algoritmos, ejemplos - Datarmony, s.f.)

Ilustración 3(Datarmony, 2023)

2.3. Principales algoritmos

Ilustración 4(Datarmony, 2023)

6
Inteligencia Artificial - VII ciclo
 Naive bayes: Es un enfoque que adopta el principio de independencia
condicional de clases del Teorema de Bayes. Esto significa que la presencia de
una característica no influye en la presencia de otra en la probabilidad de un
resultado. (¿Qué es el aprendizaje supervisado? | IBM, s.f.).)

 Máquinas de Soporte Vectorial (SVM): Son métodos que buscan encontrar el


hiperplano que mejor separe las diferentes clases en el espacio de características.
Pueden utilizarse para problemas de clasificación y regresión. (Aprendizaje
supervisado y no supervisado | Blog UE, s.f.)

 Regresión logística: Utilizada para problemas de clasificación binaria (donde la


salida es una de dos clases posibles). A diferencia de la regresión lineal, la
regresión logística utiliza una función logística para limitar la salida a un rango
de 0 a 1. (¿Qué es el aprendizaje supervisado? | IBM, s.f.).)

 Arboles de decisión: Divide iterativamente el conjunto de datos en


subconjuntos más pequeños, utilizando una característica específica en cada
paso. El objetivo es que cada subconjunto resultante sea lo más puro posible, es
decir, que contenga elementos que pertenezcan a la misma clase o tengan
valores similares. (Aprendizaje supervisado | Algoritmos, ejemplos - Datarmony,
s.f.)

 Bosques aleatorios: conjunto de árboles de decisión entrenados sobre diferentes


subconjuntos del conjunto de datos que luego se fusionan para reducir la
varianza y crear predicciones de datos más precisas. (¿Qué es el aprendizaje
supervisado? | IBM, s.f.).)

 Redes neuronales: Son capaces de capturar patrones complejos en los datos y


son la base de modelos más avanzados como las redes neuronales profundas.
(Aprendizaje supervisado y no supervisado | Blog UE, s.f.)

 Regresión lineal: la regresión lineal se utiliza para identificar la relación entre


una variable dependiente y una o más variables independientes, y suele

7
Inteligencia Artificial - VII ciclo
aprovecharse para hacer predicciones sobre resultados futuros. (¿Qué es el
aprendizaje supervisado? | IBM, s.f.).)

3. ¿Qué es el aprendizaje no supervisado?

El aprendizaje no supervisado, también conocido como machine learning no


supervisado, emplea algoritmos de machine learning para analizar y agrupar conjuntos
de datos no etiquetados. Estos algoritmos identifican patrones ocultos o agrupaciones en
los datos sin intervención humana. Esta capacidad de descubrir similitudes y diferencias
es ideal para análisis exploratorio de datos, estrategias de venta cruzada, segmentación
de clientes y reconocimiento de imágenes (Built In, 2023; G2, 2023).

Enfoques comunes de aprendizaje no supervisado

Los modelos de aprendizaje no supervisados se utilizan para tres tareas principales:


agrupamiento, asociación y reducción de dimensionalidad. A continuación, definiremos
cada método de aprendizaje y destacaremos los algoritmos y enfoques comunes para
llevarlos a cabo de manera efectiva.

3.1. Agrupación en clústeres

La agrupación es una técnica de minería de datos que agrupa datos sin etiquetar en
función de sus similitudes o diferencias. Los algoritmos de agrupación en clústeres se
utilizan para procesar objetos de datos brutos y sin clasificar en grupos representados
por estructuras o patrones en la información. Los algoritmos de agrupación en clústeres
se pueden clasificar en unos pocos tipos, específicamente exclusivos, superpuestos,
jerárquicos y probabilísticos.

8
Inteligencia Artificial - VII ciclo
 Agrupación exclusiva y superpuesta:

La agrupación en clústeres exclusiva, como el algoritmo K-means, asigna cada


punto de datos a un solo clúster, basándose en su proximidad a los centroides del
clúster. La agrupación superpuesta, o "soft clustering", permite que los puntos de
datos pertenezcan a múltiples clústeres con diferentes grados de pertenencia (Built
In, 2023).

La agrupación en clústeres de K-means es un ejemplo común de un método de


agrupación exclusiva en el que los puntos de datos se asignan a grupos K, donde K
representa el número de agrupaciones según la distancia desde el centroide de cada
grupo. Los puntos de datos más cercanos a un centroide específico se agruparán en
la misma categoría. Un valor de K más grande será indicativo de agrupaciones más
pequeñas con más granularidad, mientras que un valor de K más pequeño tendrá
agrupaciones más grandes y menos granularidad. La agrupación de K-means se
utiliza comúnmente en la segmentación del mercado, la agrupación de documentos,
la segmentación de imágenes y la compresión de imágenes.

Los clústeres superpuestos difieren de los clústeres exclusivos en que permiten que
los puntos de datos pertenezcan a varios clústeres con grados de membresía
distintos. El agrupamiento "suave" o difuso de K-means ("soft clustering") es un
ejemplo de agrupación superpuesta.

Ilustración 5. K-means

 Agrupación jerárquica:

La agrupación jerárquica, también conocida como análisis de agrupamiento


jerárquico (HCA), es un algoritmo de agrupamiento no supervisado que se puede

9
Inteligencia Artificial - VII ciclo
categorizar de dos formas: pueden ser aglomerados o divisivos. La agrupación
aglomerativa se considera un "enfoque de abajo hacia arriba". Sus puntos de datos
se aíslan inicialmente como agrupaciones separadas y luego se fusionan de forma
iterativa según la similitud hasta que se logra crear un grupo. Normalmente se
utilizan cuatro métodos diferentes para medir la similitud:

 Método de Ward: este método establece que la distancia entre dos clústeres se
define por el aumento en la suma de los cuadrados después de fusionar los
clústeres.
 Enlace promedio: este método se define por la distancia media entre dos puntos
en cada clúster.
 Enlace completo (o vecino más alejado): este método se define por la distancia
máxima entre dos puntos en cada clúster.
 Enlace simple (o vecino más próximo): este método se define por la distancia
mínima entre dos puntos en cada clúster.

La distancia euclidiana es la métrica más común utilizada para calcular estas


distancias. Sin embargo, otras métricas, como la distancia de Manhattan, también se
citan en la literatura sobre agrupaciones.

10
Inteligencia Artificial - VII ciclo
La agrupación divisiva se puede definir como lo opuesto a la aglomerativa. En su
lugar, adopta un enfoque "de arriba hacia abajo". En este caso, un solo clúster de
datos se divide en función de las diferencias entre los puntos de datos. La
agrupación divisiva no se utiliza comúnmente, pero aun así vale la pena
mencionarla en el contexto de la agrupación jerárquica. Estos procesos de
agrupación en clústeres generalmente se visualizan mediante un dendrograma, un
diagrama en forma de árbol que documenta la combinación o división de puntos de
datos en cada iteración. (G2, 2023).

Ilustración 6 HCA

 Agrupación probabilística

Un modelo probabilístico es una técnica no supervisada que ayuda a resolver


problemas de estimación de densidad o de agrupamiento "suave". En la agrupación
probabilística, los puntos de datos se agrupan en función de la probabilidad de que
pertenezcan a una distribución particular. El modelo de mezcla gaussiana (GMM)
es uno de los métodos de agrupación probabilística más utilizados.

11
Inteligencia Artificial - VII ciclo
Los modelos de mezcla gaussiana se clasifican como modelos mixtos, lo que
significa que se componen de un número no especificado de funciones de
distribución de probabilidad. Los GMM se aprovechan principalmente para
determinar a qué distribución de probabilidad gaussiana, o normal, pertenece un
punto de datos específico. Si se conoce la media o la varianza, entonces podemos
determinar a qué distribución pertenece un punto de datos determinado. Sin
embargo, en los GMM, estas variables no se conocen, por lo que asumimos que
existe una variable latente u oculta para agrupar puntos de datos de manera
adecuada. Si bien no es necesario utilizar el algoritmo de maximización de
expectativas (EM), se usa comúnmente para estimar las probabilidades de
asignación para un punto de datos específico a un clúster de datos en particular.
(G2, 2023).

Ilustración 7 GMM

3.2. Reglas de asociación

12
Inteligencia Artificial - VII ciclo
Una regla de asociación es un método basado en reglas para encontrar relaciones entre
variables en un conjunto de datos determinado. Estos métodos se utilizan con frecuencia
para los análisis de carrito de compra, que permite a las empresas comprender mejor las
relaciones entre diferentes productos. Comprender los hábitos de consumo de los
clientes permite a las empresas desarrollar mejores estrategias de venta cruzada y
motores de recomendación. Se pueden ver ejemplos de esto en "Los clientes que
compraron este artículo también compraron" de Amazon o en la lista de reproducción
"Discover Weekly" de Spotify. Si bien se utilizan algunos algoritmos diferentes para
generar reglas de asociación, como Apriori, Eclat y FP-Growth, el algoritmo Apriori es
el más utilizado.

Ilustración 8. Asociación

Algoritmos A priori:

Los algoritmos Apriori se han popularizado a través del análisis del carrito de compra,
lo que ha dado lugar a diferentes motores de recomendación para plataformas de música
y minoristas en línea. Se utilizan dentro de conjuntos de datos transaccionales para
identificar conjuntos de artículos frecuentes, o colecciones de artículos, para identificar
la probabilidad de consumir un producto dado el consumo de otro producto. Por
ejemplo, si pongo la radio de Black Sabbath en Spotify, comenzando con su canción
"Orchid", una de las otras canciones de este canal probablemente será una canción de
Led Zeppelin, como "Over the Hills and Far Away". Esto se basa en mis hábitos
anteriores y en los de los demás. Los algoritmos Apriori utilizan un árbol hash para

13
Inteligencia Artificial - VII ciclo
contar conjuntos de elementos, navegando por el conjunto de datos de una manera
amplia.

3.3. Reducción de dimensionalidad


Si bien más datos generalmente arrojan resultados más precisos, también puede afectar
el rendimiento de los algoritmos de machine learning (por ejemplo, sobreajuste) y
también puede dificultar la visualización de conjuntos de datos. La reducción de la
dimensionalidad es una técnica que se utiliza cuando el número de características o
dimensiones de un conjunto de datos determinado es demasiado alto. Reduce la
cantidad de entradas de datos a un tamaño manejable y al mismo tiempo preserva la
integridad del conjunto de datos tanto como sea posible. Se usa comúnmente en la etapa
de preprocesamiento de datos, y se pueden usar algunos métodos diferentes de
reducción de dimensionalidad, como:

- Análisis de componentes principales:

El análisis de componentes principales (PCA) es un tipo de algoritmo de reducción de


dimensionalidad que se utiliza para reducir redundancias y comprimir conjuntos de
datos mediante la extracción de características. Este método usa una transformación
lineal para crear una nueva representación de datos, produciendo un conjunto de
"componentes principales". El primer componente principal es la dirección que
maximiza la varianza del conjunto de datos. Si bien el segundo componente principal
también encuentra la varianza máxima en los datos, no está correlacionado por
completo con el primer componente principal, lo que produce una dirección que es
perpendicular u ortogonal al primer componente. Este proceso se repite en función del
número de dimensiones, donde un siguiente componente principal es la dirección
ortogonal a los componentes anteriores con la mayor variación. (Built In, 2023).

- Descomposición en valores singulares:

La descomposición en valores singulares (SVD) es otro enfoque de reducción de


dimensionalidad que factoriza una matriz, A, en tres matrices de bajo rango. La SVD se

14
Inteligencia Artificial - VII ciclo
denota mediante la fórmula A = USVT, donde U y V son matrices ortogonales. S es una
matriz diagonal y los valores de S se consideran valores singulares de la matriz A.
Similar a PCA, se usa comúnmente para reducir el ruido y comprimir datos como, por
ejemplo, archivos de imagen.

- Codificadores automáticos:

Los codificadores automáticos aprovechan las redes neuronales para comprimir datos y
luego recrear una nueva representación de la entrada de datos originales. Al mirar la
imagen de abajo, puede ver que la capa oculta actúa específicamente como un cuello de
botella para comprimir la capa de entrada antes de reconstruirla dentro de la capa de
salida. La etapa de la capa de entrada a la capa oculta se denomina "codificación",
mientras que la etapa de la capa oculta a la capa de salida se conoce como
"decodificación".

3.4. Aplicaciones
Las técnicas de machine learning se han convertido en un método común para mejorar
la experiencia del usuario de un producto y para probar sistemas para garantizar la
calidad. El aprendizaje no supervisado proporciona una ruta exploratoria para ver datos,
lo que permite a las empresas identificar patrones en grandes volúmenes de datos más
rápidamente en comparación con la observación manual. Algunas de las aplicaciones
más comunes del aprendizaje no supervisado en el mundo real son:

 Secciones de noticias: Google News utiliza el aprendizaje no supervisado para


categorizar artículos sobre la misma historia de varios medios informativos en
línea. Por ejemplo, los resultados de una elección presidencial podrían
clasificarse bajo la etiqueta de noticias "estadounidenses".
 Visión artificial: los algoritmos de aprendizaje no supervisados se utilizan para
tareas de percepción visual, como el reconocimiento de objetos.
 Imagenología: el machine learning no supervisado proporciona funciones
esenciales para los dispositivos de imagenología, como la detección,
clasificación y segmentación de imágenes, que se utilizan en radiología y
patología para diagnosticar a los pacientes de forma rápida y precisa.

15
Inteligencia Artificial - VII ciclo
 Detección de anomalías: los modelos de aprendizaje no supervisados pueden
analizar grandes cantidades de datos y descubrir puntos de datos atípicos dentro
de un conjunto de datos. Estas anomalías pueden generar conciencia sobre
equipos defectuosos, errores humanos o brechas de seguridad.
 Perfiles de clientes: la definición de perfiles de clientes facilita la comprensión
de los rasgos comunes y los hábitos de compra de los clientes comerciales. El
aprendizaje no supervisado permite a las empresas crear mejores perfiles de
compradores, lo que hace posible que las organizaciones alineen el mensaje de
sus productos de manera más adecuada.
 Motores de recomendaciones: al utilizar datos del comportamiento pasado de
los consumidores, los algoritmos de IA pueden ayudar a descubrir tendencias de
datos que se pueden utilizar para desarrollar estrategias de venta cruzada más
eficaces. Esto se usa para que los minoristas en línea puedan hacer
recomendaciones adicionales relevantes a los clientes durante el proceso de
compra.

4. MÁQUINAS DE VECTORES DE SOPORTE

Las Máquinas de Vectores de Soporte (SVM, por sus siglas en inglés) son un conjunto
de métodos de aprendizaje supervisado usados principalmente para clasificación y
regresión. La idea principal detrás de SVM es encontrar un hiperplano que mejor separe
un conjunto de datos en diferentes clases. “Cortes, C., & Vapnik, V. (1995). Support-
vector networks. Machine Learning, 20(3), 273–297.
https://doi.org/10.1007/bf00994018”

4.1. Conceptos Clave

 Hiperplano: En el contexto de SVM, un hiperplano es una línea (en 2D) o un


plano (en 3D) que divide el espacio de características en dos partes. En espacios
de mayor dimensión, sigue siendo llamado hiperplano. “Cristianini, N., &
Shawe-Taylor, J. (2000). An introduction to support vector machines and other
kernel-based learning methods”.

16
Inteligencia Artificial - VII ciclo
 Márgenes: El objetivo de una SVM es encontrar el hiperplano que maximice la
distancia (margen) entre los puntos de datos más cercanos de las diferentes
clases. Estos puntos más cercanos se llaman vectores de soporte. Bishop, C. M.
(2006). Este libro incluye un capítulo dedicado a las SVM. Springer.

 Función Kernel: SVM puede trabajar no solo en espacios lineales sino también
en espacios de mayor dimensión mediante el uso de funciones kernel. Estas
funciones transforman los datos originales en un espacio de mayor dimensión
donde un hiperplano pueda ser más efectivo.

 Tipos de SVM: Existen SVM lineales y no lineales. Las SVM lineales son
aquellas que separan las clases con un hiperplano lineal, mientras que las no
lineales utilizan funciones kernel para crear una separación más compleja.

4.2. Funcionamiento de SVM

 Entrenamiento: Durante el entrenamiento, el algoritmo SVM encuentra el


hiperplano que maximiza el margen entre las diferentes clases.

 Predicción: Para clasificar un nuevo punto de datos, el SVM determina en qué


lado del hiperplano cae el punto.

4.3. Ventajas y Desventajas

Ventajas:

 Efectivo en espacios de alta dimensión.


 Todavía efectivo cuando el número de dimensiones es mayor que el número de
muestras.

17
Inteligencia Artificial - VII ciclo
 Usa un subconjunto de puntos de entrenamiento en la función de decisión
(vectores de soporte), lo que lo hace eficiente en términos de memoria.

Desventajas:

 No es muy eficiente cuando el tamaño del conjunto de datos es muy grande.


 No funciona bien cuando hay mucho ruido en los datos.
 La elección de la función kernel y la configuración de parámetros pueden ser
complejas.

4.4. Aplicaciones

 Las SVM se utilizan en varias aplicaciones como:


 Reconocimiento de patrones (por ejemplo, reconocimiento facial).
 Clasificación de texto y hiperespectral.
 Bioinformática (por ejemplo, clasificación de genes y proteínas).

18
Inteligencia Artificial - VII ciclo
Referencias
 ¿Qué es una red neuronal? - Explicación de las redes neuronales artificiales -
AWS. (s. f.). Amazon Web Services, Inc.
https://aws.amazon.com/es/what-is/neural-network/#:~:text=Una%20red
%20neuronal%20es%20un,lo%20hace%20el%20cerebro%20humano.
 Fonseca, D., & Fonseca, D. (2024, 13 febrero). ➤ ¿Qué es una red neuronal? -
Concepto, usos y ejemplos. -. https://neuralbatch.com/diccionario/red-neuronal/
 ¿Qué es una red neuronal? | IBM. (s. f.).
https://www.ibm.com/es-es/topics/neural-networks
 A2 Capacitación: Excel. (2022, enero 4). ¿Qué es una Red Neuronal? ¿Cómo
funcionan? [Vídeo]. YouTube. https://www.youtube.com/watch?
v=M6oDiCQCins
 SPSS Modeler Subscription. (s. f.).
https://www.ibm.com/docs/es/spss-modeler/saas?topic=networks-neural-model

 Martínez, E. (2024, 7 marzo). Qué son las redes neuronales y sus funciones -
ATRIA Innovation. ATRIA Innovation. https://atriainnovation.com/blog/que-
son-las-redes-neuronales-y-sus-func

 ¿Qué es el aprendizaje supervisado? | IBM. (s.f.). IBM in Deutschland,


Österreich und der Schweiz. https://www.ibm.com/mx-es/topics/supervised-
learning

 Aprendizaje supervisado | Algoritmos, ejemplos - Datarmony. (s.f.).


Datarmony. https://www.datarmony.com/blog/aprendizaje-supervisado-
algoritmos-ejemplos/

 Aprendizaje supervisado y no supervisado | Blog UE. (s.f.). Universidad


Europea. https://universidadeuropea.com/blog/aprendizaje-supervisado-no-
supervisado/iones/

19
Inteligencia Artificial - VII ciclo
 DataCamp. (2023). Introduction to Unsupervised Learning: Types, Applications
and Differences from Supervised Learning. Retrieved from
https://www.datacamp.com
 Scikit-learn. (2023). Unsupervised learning: seeking representations of the data.
Retrieved from https://scikit-learn.org
 Built In. (2023). What Is Unsupervised Learning? Retrieved from
https://builtin.com/machine-learning/unsupervised-learning
 G2. (2023). Unsupervised Learning: How Machines Learn on Their Own.
Retrieved from https://learn.g2.com/unsupervised-learning
 Cortes, C., & Vapnik, V. (1995). Support-vector networks. Machine learning,
20(3), 273-297.: Este es uno de los artículos fundacionales que introduce las
SVM.
 Cristianini, N., & Shawe-Taylor, J. (2000). An introduction to support vector
machines and other kernel-based learning methods. Cambridge university press.:
Un libro que proporciona una visión detallada sobre las SVM y otros métodos
basados en kernels.
 Bishop, C. M. (2006). Pattern recognition and machine learning. Springer.: Este
libro incluye un capítulo dedicado a las SVM, explicando su teoría y
aplicaciones.
 Pedregosa, F., et al. (2011). Scikit-learn: Machine learning in Python. Journal of
machine learning research, 12, 2825-2830.: Este artículo describe la biblioteca
Scikit-learn, que incluye implementaciones de SVM en Python.

20
Inteligencia Artificial - VII ciclo

También podría gustarte