Módulo 5 Redes Neuronales y Deep Learning
Módulo 5 Redes Neuronales y Deep Learning
Funcionamiento:
Perceptrón:
Fórmula:
El Perceptrón Multicapa (MLP) es una extensión del perceptrón, que incluye varias
capas ocultas. Esto le permite resolver problemas no lineales, como la clasificación de
imágenes o la predicción de series temporales.
Características:
Arquitectura:
3. Funciones de activación
Ventajas:
Computacionalmente eficiente.
No sufre de problemas de gradientes pequeños (vanishing gradients).
Desventaja:
La función sigmoide mapea cualquier valor real entre 0 y 1. Es especialmente útil para
problemas de clasificación binaria.
Ventajas:
Desventaja:
Softmax:
Ventajas:
Algoritmos de optimización:
Descenso de gradiente estocástico (SGD): Se actualizan los pesos utilizando
una muestra aleatoria de los datos.
Adam (Adaptive Moment Estimation): Es un algoritmo más avanzado que
ajusta dinámicamente la tasa de aprendizaje.
TensorFlow y PyTorch son dos de las bibliotecas más populares para implementar
redes neuronales.
TensorFlow:
python
Copiar código
import tensorflow as tf
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense
# Capa oculta
model.add(Dense(3, activation='relu'))
# Capa de salida
model.add(Dense(1, activation='sigmoid'))
# Compilar el modelo
model.compile(loss='binary_crossentropy', optimizer='adam',
metrics=['accuracy'])
# Entrenar el modelo
model.fit(X_train, y_train, epochs=10, batch_size=32)
PyTorch:
python
Copiar código
import torch
import torch.nn as nn
import torch.optim as optim
# Entrenamiento
for epoch in range(10):
# Entrenar aquí
optimizer.zero_grad()
output = model(X_train)
loss = criterion(output, y_train)
loss.backward()
optimizer.step()