0% encontró este documento útil (0 votos)
25 vistas49 páginas

Grupo 1 - Trabajo Final Electrica

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1/ 49

Inteligencia Artificial, Machine Learning y

Aprendizaje Profundo en el Siglo XXI


Escuela: Ingeniería Industrial

Autores:

 Dominguez Olivares Jeferson


 Suarez Ricaldi Piero
 Ubillus Hernandez Gonzalo
 Vilchez Benites Rafael
 Vizconde Mellan Maurissio

Grupo: 01

Sección: ET001

Docente: Ing. Marcelo Barreto, Emilio Asunción

2023-II

1
ÍNDICE

INTRODUCCIÓN:.................................................................................................................................3
OBJETIVOS GENERALES......................................................................................................................4
OBJETIVOS ESPECÍFICOS.....................................................................................................................4
EVOLUCIÓN HISTÓRICA:.....................................................................................................................5
MARCO TEÓRICO:.............................................................................................................................10
ALGORITMOS DE REDES NEURONALES:...........................................................................................15
APLICACIONES DE LA REDES NEURONALES ARTIFICIALES:...............................................................20
APLICACIONES DE DEMANDA DE ENERGIA ELECTRICA EN EMPRESAS PERUANAS UTILIZANDO LAS
RNA:.................................................................................................................................................24
PREDICCIÓN DE LA DEMANDA DE LA ENERGÍA ELÉCTRICA (EN LAS REDES NEURONALES)..............26
CONCLUSIONES:...............................................................................................................................47
RECOMENDACIONES:.......................................................................................................................48
BIBLIOGRAFÍA...................................................................................................................................49

2
INTRODUCCIÓN:

La presente investigación se adentra en un análisis profundo de la intersección entre la


inteligencia artificial (IA) y el sector de la energía eléctrica, un vínculo que ha emergido
como un pilar esencial en la evolución tecnológica contemporánea. En un contexto donde
las demandas energéticas globales se encuentran en constante aumento, la integración de la
IA en la gestión de la energía eléctrica se presenta como una respuesta clave para abordar la
eficiencia, la sostenibilidad y los desafíos estratégicos en el suministro eléctrico.

Este informe tiene como objetivo principal explorar las diversas facetas de esta
convergencia tecnológica, examinando detenidamente las aplicaciones prácticas de la
inteligencia artificial en la optimización de recursos energéticos. Desde la monitorización y
el mantenimiento predictivo de infraestructuras eléctricas hasta la implementación de
algoritmos avanzados para la gestión eficiente de la carga, la influencia de la IA en la
demanda de energía eléctrica se manifiesta en una variedad de contextos.

Además, se analizarán casos de estudio y proyectos piloto que ilustran cómo la


implementación de soluciones basadas en inteligencia artificial ha generado mejoras
tangibles en la eficiencia operativa, reducción de pérdidas energéticas y enfoques más
sostenibles en la generación y distribución de electricidad.

A lo largo de este informe, se destacarán tanto las oportunidades como los desafíos que
surgen en esta sinergia entre IA y energía eléctrica, ofreciendo una perspectiva integral que
no solo aborda los beneficios prácticos, sino que también examina las consideraciones
éticas, regulatorias y de seguridad asociadas a esta evolución tecnológica. En última
instancia, se busca proporcionar una comprensión sólida de cómo la inteligencia artificial
está transformando el panorama de la demanda de energía eléctrica, influyendo en la forma
en que concebimos, gestionamos y utilizamos la electricidad en la era digital actual.

3
OBJETIVOS GENERALES

Profundizar e investigar la comprensión de las redes neuronales artificiales, proporcionando


un conocimiento sólido buscando que contribuya a la optimización y maximizar su eficacia
en diversos dominios que originen mejoras significativas en la sociedad.

OBJETIVOS ESPECÍFICOS

1. Analizar la estructura y funcionamiento de las redes neuronales artificiales,


incluyendo sus componentes como neuronas, conexiones y funciones de activación.

2. Investigar las diversas redes neuronales y, comprender sus aplicaciones y


limitaciones específicas.

3. Averiguar casos de estudio relevantes en los que las redes neuronales artificiales se
han utilizado con éxito en aplicaciones prácticas.

4. Evaluar los métodos de entrenamiento y optimización de redes neuronales, para


comprender cómo mejorar su rendimiento.

5. Analizar los desafíos éticos y de seguridad relacionados con la implementación de


redes neuronales en la sociedad.

4
EVOLUCIÓN HISTÓRICA:

Perceptrón (1958): En las décadas de 1950 y 1960, el científico Frank Rosenblatt,


influenciado por las investigaciones previas de Warren McCulloch y Walter Pitts,
desarrolló el Perceptrón, que serviría como el punto de partida y el impulsor fundamental
de las redes neuronales artificiales.

El Perceptrón es un dispositivo que toma múltiples entradas binarias, como x1, x2, etc., y
genera una única salida binaria. Para determinar esta salida, Rosenblatt introdujo el
concepto de "pesos", representados por w1, w2, etc., que son números reales que indican la
importancia relativa de cada entrada en relación con la salida. La neurona produce una
salida de 1 o 0 dependiendo de si la suma de las ponderaciones de las entradas supera o no
un umbral predefinido.

El Perceptrón se utiliza principalmente para tomar decisiones binarias simples o para crear
funciones lógicas como OR y AND.

Multilayer Perceptrón (1965): La arquitectura más elemental se denomina perceptrón


multicapa o multilayer perceptrón (MLP). No obstante, es esencial comprender que la
inclusión de la palabra “perceptrón” en su nombre es simplemente un vestigio histórico. En
realidad, un perceptrón multicapa no está compuesto por perceptrones en sí, sino por
neuronas que utilizan funciones de activación como las sigmoideas o incluso otras como
ReLU, como exploraremos más adelante.

5
El diseño de este tipo de redes neuronales sigue en el siguiente esquema:

Cada uno de los círculos visto en la figura anterior simboliza una neurona, aunque es
importante aclarar que hay matrices que debemos considerar.

En esta arquitectura en particular, seguimos una convención que consiste en tener una capa
de neuronas de entrada colocada en la parte izquierda del esquema. Es importante destacar
que estas neuronas de entrada, por convención, no aplican ninguna función a los valores de
entrada que llegan a la red. Su función principal es simplemente indicar que los valores de
entrada están siendo suministrados a la red neuronal. En otras palabras, estas neuronas de
entrada no son neuronas artificiales en el sentido tradicional, aunque se representen como
tal en el diagrama anterior. Cada “neurona” en esta capa recibe un solo valor de entrada.

6
Se puede apreciar una o más capas de neuronas en las que cada neurona está enlazada con
todas las neuronas de la capa previa. En otras palabras, los valores de entrada de una
neurona son la totalidad de los valores generados por las neuronas de la capa anterior. Estas
capas se denominan comúnmente “capas ocultas”.

Por último, se tiene una capa de salida que consta de una o más neuronas, dependiendo del
tipo de análisis que se esté llevando a cabo, ya sea análisis de regresión, clasificación
binaria o clasificación multiclase.

Aprendizaje Automático (1980):

 Neuronas Sigmoides: Para lograr que las redes neuronales fueran capaces de
aprender de forma autónoma, se introdujo un tipo diferente de neuronas conocidas
como “Neuronas Sigmoides”. Estas neuronas son similares al perceptrón, pero
tienen la particularidad de permitir que las entradas no sean simplemente valores
binarios (0 a 1), sino que pueden ser valores reales, como 0,5 o 0,377 o cualquier

7
otro número. Además, se introdujeron las neuronas “bias” que siempre aportan un
valor fijo de 1 en las diversas capas, lo cual resulta útil para resolver ciertas
situaciones.

Con la incorporación de estas modificaciones, las salidas de la red ya no se limitan a


ser simplemente 0 o 1, en su lugar, se calculan como d (w. x + b), donde “d” es la
función sigmoide definida como d(z) = 1/ (1 + e^(-z)). Esto representa la primera
función de activación en el contexto de las redes neuronales.

Gracias a esta nueva fórmula, es posible que cambios sutiles en los valores de los
pesos (denominados deltas) provoquen cambios pequeños en la salida. Esto
significa que podemos realizar ajustes gradualmente en los pesos de las conexiones
y, de esa manera, obtener las salidas que buscamos.

 Redes Feedforward: Este término se aplica a las redes en las cuales las salidas de
una capa se emplean como las entradas en la siguiente capa, lo que no hay

8
conexiones que retrocedan (“loops hacia atrás”). Siempre se lleva la información
hacia adelante. Sin embargo, hay redes, que exploraremos más adelante, en las
cuales estas conexiones que retroceden si existen, y se conocen como Redes
Neuronales Recurrentes.

Backpropagation (1986): La técnica de retro propagación, también conocida como


backpropagation en inglés, se emplea en las redes neuronales artificiales supervisadas para
ajustar los pesos de las conexiones entre las neuronas, con el propósito de minimizar el
error en las predicciones del modelo. Su objetivo principal radica en la minimización de
una función de error o función de costo que evalúa la discrepancia entre la salida real y la
salida esperada.

El proceso de retro propagación opera al transmitir el error desde la capa de salida hacia
atrás a través de la red neuronal, comenzando por la capa de salida y retrocediendo hacia
las capas ocultas. Para cada capa, se determina la contribución relativa de cada neurona a la
función de costo, y esta información se emplea para efectuar ajustes en los pesos de las
conexiones correspondientes.

9
MARCO TEÓRICO:

 La Inteligencia Artificial:

La inteligencia artificial (IA) es un campo de la informática que se enfoca en crear sistemas


y tecnologías capaces de realizar tareas que normalmente requerirían la inteligencia
humana. Estos sistemas utilizan algoritmos y procesamiento de datos para aprender de la
experiencia y mejorar su rendimiento en tareas específicas con el tiempo.

Algunas de las técnicas y subcampos de la inteligencia artificial incluyen:

 Aprendizaje automático (Machine Learning): Es una parte importante de la IA que


se centra en desarrollar algoritmos y modelos que permiten a las computadoras
aprender patrones y tomar decisiones basadas en datos. Esto incluye algoritmos de
clasificación, regresión, clustering, y redes neuronales, entre otros.
 Visión por computadora: Esta área se concentra en que las máquinas puedan
interpretar y comprender imágenes y videos, como reconocer objetos, caras y texto
en imágenes.
 Procesamiento de lenguaje natural (NLP): El NLP se ocupa de la interacción entre
las computadoras y el lenguaje humano. Esto incluye la comprensión del habla y la
escritura, la traducción automática, el análisis de sentimientos y la generación de
texto.
 Robótica: La IA se utiliza en el diseño y control de robots, permitiendo que realicen
tareas diversas, como la navegación autónoma y la manipulación de objetos.
 Inteligencia artificial general (AGI): Este es un campo de la IA que busca crear
sistemas capaces de realizar cualquier tarea intelectual que un ser humano pueda
hacer. La AGI se encuentra en un estado de desarrollo más teórico y es diferente de
la IA estrecha o especializada que se utiliza en aplicaciones concretas.

La inteligencia artificial se aplica en una amplia gama de sectores, desde la atención


médica y la automatización industrial hasta los motores de búsqueda en línea y los
vehículos autónomos. Se espera que continúe evolucionando y desempeñando un papel
cada vez más importante en nuestra sociedad a medida que avanza la tecnología.

10
 Machin Learning:

El aprendizaje automático (Machine Learning en inglés) es una rama de la inteligencia


artificial que se enfoca en el desarrollo de algoritmos y modelos que permiten a las
computadoras aprender y mejorar su rendimiento en tareas específicas a partir de la
experiencia y los datos. En lugar de programar explícitamente una serie de reglas para
realizar una tarea particular, los sistemas de aprendizaje automático utilizan datos y
ejemplos para aprender y tomar decisiones por sí mismos.

El proceso de aprendizaje automático implica lo siguiente:

1. Recopilación de datos: Se reúnen datos relevantes para la tarea que se quiere


abordar. Estos datos pueden ser de diversos tipos, como texto, imágenes, sonido,
números, etc.
2. Preprocesamiento de datos: Los datos se limpian y se preparan para el análisis. Esto
puede incluir la eliminación de valores atípicos, la normalización de datos y la
división en conjuntos de entrenamiento y prueba.
3. Selección de modelo: Se elige un algoritmo o modelo de aprendizaje automático
adecuado para la tarea en cuestión. Esto puede incluir algoritmos de clasificación,
regresión, clustering, entre otros.
4. Entrenamiento del modelo: El modelo se alimenta con los datos de entrenamiento,
lo que permite que "aprenda" a partir de esos datos y ajuste sus parámetros internos
para realizar la tarea específica.
5. Evaluación del modelo: Se prueba el modelo en un conjunto de datos de prueba para
evaluar su rendimiento. Se utilizan métricas específicas según el tipo de problema,
como precisión, recall, F1-score, error cuadrático medio, etc.
6. Ajuste y mejora: Si el modelo no tiene un rendimiento satisfactorio, se pueden
ajustar sus hiperparámetros o se puede revisar el proceso de recopilación de datos
para mejorar el rendimiento.

El aprendizaje automático se utiliza en una amplia variedad de aplicaciones, como la


clasificación de correos electrónicos no deseados, el reconocimiento de voz, la detección de
fraudes, la recomendación de productos en línea, la visión por computadora, la traducción

11
automática y muchas otras áreas. Su capacidad para automatizar tareas complejas y mejorar
con el tiempo lo convierte en una herramienta poderosa en la resolución de problemas en
diversas disciplinas.

 Aprendizaje Profundo:
El aprendizaje profundo (deep learning en inglés) es una subdisciplina del
aprendizaje automático (machine learning) que se centra en el entrenamiento de
redes neuronales artificiales profundas para realizar tareas específicas. Las redes
neuronales profundas son un tipo de modelo de aprendizaje automático que consta
de múltiples capas de unidades de procesamiento, conocidas como neuronas
artificiales, que están interconectadas.

Lo que hace que el aprendizaje profundo sea distinto es la profundidad de estas


redes, que significa que tienen muchas capas intermedias entre la entrada y la salida.
Estas capas permiten que el modelo aprenda representaciones jerárquicas de los
datos, lo que a menudo resulta en un rendimiento sobresaliente en tareas de
percepción, como el procesamiento de imágenes, el procesamiento de lenguaje
natural y otros tipos de datos complejos.

Algunos conceptos clave del aprendizaje profundo incluyen:

 Redes neuronales profundas: Estas redes pueden tener muchas capas ocultas
(a menudo se denominan "capas profundas"), lo que les permite aprender
características y patrones complejos de los datos.

 Aprendizaje supervisado: El aprendizaje profundo a menudo se basa en el


aprendizaje supervisado, donde el modelo se entrena utilizando pares de
entrada y salida etiquetados. El modelo ajusta sus pesos y bias para
minimizar la diferencia entre las predicciones y las etiquetas reales.

12
 Funciones de activación: Las neuronas artificiales en las redes neuronales
utilizan funciones de activación para introducir no linealidad en el modelo,
lo que permite representar relaciones complejas entre las características.

 Grandes conjuntos de datos: El aprendizaje profundo tiende a funcionar


mejor cuando se le proporcionan grandes conjuntos de datos para el
entrenamiento. Esto permite al modelo aprender patrones más robustos y
generales.

Las aplicaciones del aprendizaje profundo son diversas y van desde el


reconocimiento de objetos en imágenes, la traducción automática, la generación de
texto, el procesamiento de voz, la clasificación de texto, hasta la toma de decisiones
en juegos y muchas otras áreas. Algunas arquitecturas de redes neuronales
profundas populares incluyen las redes neuronales convolucionales (CNN) para
tareas de visión por computadora y las redes neuronales recurrentes (RNN) para
tareas de procesamiento de lenguaje natural, entre otras.

 Las Redes Neuronales Artificiales:

Las redes neuronales artificiales, también conocidas como redes neuronales o


perceptrones multicapa, son un tipo de modelo de aprendizaje automático inspirado en
el funcionamiento del cerebro humano. Estas redes están diseñadas para procesar
información y aprender patrones a partir de datos, y son una parte fundamental del
campo del aprendizaje profundo.

Una red neuronal artificial se compone de capas de neuronas artificiales


interconectadas. Cada neurona artificial realiza operaciones matemáticas en su entrada
y produce una salida. Estas neuronas se organizan en capas, que se pueden dividir en
tres tipos principales:

13
 Capa de entrada (input layer): Esta es la primera capa de la red y se encarga de
recibir los datos de entrada, que pueden ser valores numéricos o características
extraídas de un conjunto de datos. Cada neurona en esta capa representa una
característica o atributo de los datos.

 Capas ocultas (hidden layers): Estas capas intermedias realizan operaciones


matemáticas para procesar la información. Cada neurona en una capa oculta está
conectada con todas las neuronas de la capa anterior y la capa siguiente. Estas
capas permiten que la red aprenda representaciones jerárquicas y características
complejas de los datos.

 Capa de salida (output layer): La capa de salida produce los resultados finales de
la red neuronal, que dependen de la tarea que se esté abordando. Puede ser una
clasificación en categorías, una valoración numérica, una generación de texto,
entre otros.

Las conexiones entre las neuronas se caracterizan por tener pesos y bias. Durante el
proceso de entrenamiento de una red neuronal artificial, estos pesos y bias se ajustan de
manera iterativa para que la red pueda hacer predicciones más precisas en función de
los datos de entrenamiento.

Las redes neuronales artificiales son especialmente efectivas en tareas que involucran
datos complejos y no lineales, como el reconocimiento de patrones en imágenes, el
procesamiento de lenguaje natural, la traducción automática, el procesamiento de voz y
muchas otras aplicaciones. A medida que se aumenta la profundidad y la complejidad
de estas redes, se habla de redes neuronales profundas, que son la base del aprendizaje
profundo (deep learning).

14
ALGORITMOS DE REDES NEURONALES:

1. Red Neuronal Recurrente (RNN) para Procesamiento del Lenguaje Natural


(NLP):

import tensorflow as tf
from tensorflow.keras import layers, models

# Crear un modelo RNN para análisis de sentimientos en texto


model = models.Sequential()
model.add(layers.Embedding(input_dim=10000, output_dim=32,
input_length=100)) # Capa de embedding para representación de palabras
model.add(layers.SimpleRNN(64, activation='relu')) # Capa RNN
model.add(layers.Dense(1, activation='sigmoid')) # Capa de salida para
clasificación binaria

# Compilar el modelo
model.compile(optimizer='adam',
loss='binary_crossentropy',
metrics=['accuracy'])

# Mostrar la arquitectura del modelo


model.summary()

Aplicación: Este modelo RNN se puede utilizar para clasificar el sentimiento de reseñas de
texto, por ejemplo, en un conjunto de datos de reseñas de películas.0

00

15
2. Red Neuronal Generativa Adversaria (GAN) para Generación de Imágenes:

import tensorflow as tf
from tensorflow.keras import layers, models

# Crear un modelo GAN para generar imágenes de dígitos MNIST


generator = models.Sequential()
generator.add(layers.Dense(128, input_dim=100, activation='relu')) # Generador
generator.add(layers.Dense(784, activation='sigmoid')) # Capa de salida para generar
imágenes MNIST (28x28)

discriminator = models.Sequential()
discriminator.add(layers.Dense(128, input_dim=784, activation='relu')) #
Discriminador
discriminator.add(layers.Dense(1, activation='sigmoid')) # Capa de salida para
clasificación binaria (real o generada)

# Combinar el generador y el discriminador para formar la red GAN


discriminator.trainable = False # Se congela el discriminador durante el
entrenamiento del generador
gan = models.Sequential([generator, discriminator])

# Compilar el modelo GAN


gan.compile(optimizer='adam', loss='binary_crossentropy')

# Mostrar la arquitectura del generador


generator.summary()

Aplicación: Este GAN se puede entrenar para generar imágenes de dígitos escritos a mano
(MNIST).

16
3. Red Neuronal Siamesa para Verificación de Similitud de Imágenes:

import tensorflow as tf
from tensorflow.keras import layers, models

# Crear un modelo Siamesa para verificación de similitud de imágenes


input_shape = (64, 64, 3) # Tamaño de las imágenes

# Red siamesa
input_a = tf.keras.Input(shape=input_shape)
input_b = tf.keras.Input(shape=input_shape)

base_network = models.Sequential([
layers.Conv2D(32, (3, 3), activation='relu', input_shape=input_shape),
layers.MaxPooling2D(),
layers.Conv2D(64, (3, 3), activation='relu'),
layers.MaxPooling2D(),
layers.Flatten(),
layers.Dense(128, activation='relu')
])

processed_a = base_network(input_a)
processed_b = base_network(input_b)

# Capa de distancia euclidiana


distance = tf.keras.layers.Lambda(lambda x: tf.abs(x[0] - x[1]))([processed_a,
processed_b])
output = layers.Dense(1, activation='sigmoid')(distance)

# Compilar el modelo
model = tf.keras.Model([input_a, input_b], output)
model.compile(optimizer='adam', loss='binary_crossentropy',

17
metrics=['accuracy'])

# Mostrar la arquitectura del modelo


model.summary()

Aplicación: Este modelo Siamesa se puede utilizar para determinar la similitud entre dos
imágenes, útil, por ejemplo, en sistemas de reconocimiento facial.

4. Red Neuronal Recurrente (LSTM) para Predicción de Series Temporales:

import tensorflow as tf
from tensorflow.keras import layers, models

# Crear un modelo LSTM para predicción de series temporales


model = models.Sequential()
model.add(layers.LSTM(50, input_shape=(timesteps, features))) # Capa LSTM
model.add(layers.Dense(1)) # Capa de salida para predicción de un valor
continuo

# Compilar el modelo
model.compile(optimizer='adam', loss='mse') # MSE (Mean Squared Error)
para problemas de regresión

# Mostrar la arquitectura del modelo


model.summary()

Aplicación: Este modelo LSTM se utiliza para predecir valores en una serie temporal. Por
ejemplo, puede predecir el siguiente valor en una secuencia de datos temporales, como el
precio de las acciones.

5. Red Neuronal para Búsqueda de Información:

18
6. import requests
7.
8. def buscar_informacion(query):
9. api_key = "TU_API_KEY" # Necesitarás obtener una clave API de
Google
10. cx = "TU_CUSTOM_SEARCH_ENGINE_ID" # Crea un motor de
búsqueda personalizado en https://cse.google.com/cse/
11.
12. # Hacer una solicitud a la API de búsqueda de Google
13. url = f"https://www.googleapis.com/customsearch/v1?
q={query}&key={api_key}&cx={cx}"
14. respuesta = requests.get(url)
15.
16. # Manejar la respuesta
17. if respuesta.status_code == 200:
18. resultados = respuesta.json().get("items", [])
19. for resultado in resultados:
20. titulo = resultado.get("title")
21. enlace = resultado.get("link")
22. print(f"Titulo: {titulo}\nEnlace: {enlace}\n")
23. else:
24. print(f"Error al realizar la búsqueda. Código de estado:
{respuesta.status_code}")
25.
26. # Ejemplo de búsqueda
27. buscar_informacion("Inteligencia Artificial")

Aplicación: La aplicación del código proporcionado sería realizar búsquedas en la web


utilizando la API de búsqueda de Google. Esto podría ser parte de una aplicación más
amplia que requiera la recuperación de información relevante en función de una consulta
dada.

19
APLICACIONES DE LA REDES NEURONALES ARTIFICIALES:

Las redes neuronales artificiales son un tipo de inteligencia artificial que se inspira en el
cerebro humano. Estas redes están formadas por una serie de neuronas artificiales, que son
unidades de procesamiento que pueden aprender a realizar tareas complejas. Las neuronas
artificiales se conectan entre sí formando una red, que es capaz de reconocer y procesar
información de una manera similar a como lo hace el cerebro humano.

Las redes neuronales artificiales tienen varias ventajas sobre los métodos de cálculo
tradicionales. En primer lugar, son capaces de aprender a partir de datos, lo que les permite
mejorar su rendimiento con el tiempo. En segundo lugar, son capaces de manejar
información incompleta o ruidosa. En tercer lugar, son capaces de generalizar a partir de
datos limitados.

Las redes neuronales artificiales se están utilizando en una amplia gama de aplicaciones,
incluyendo:

 Reconocimiento de imágenes: Las redes neuronales se utilizan para identificar


objetos o personas en imágenes. Por ejemplo, se utilizan en los sistemas de
seguridad para detectar objetos sospechosos o en los sistemas de reconocimiento
facial para identificar a personas.
 Reconocimiento de voz: Las redes neuronales se utilizan para convertir el habla en
texto. Por ejemplo, se utilizan en los sistemas de reconocimiento de voz para dictar
texto o en los asistentes virtuales para responder a preguntas.
 Procesamiento del lenguaje natural: Las redes neuronales se utilizan para
comprender el lenguaje humano. Por ejemplo, se utilizan en los sistemas de
traducción automática para traducir idiomas o en los sistemas de chatbots para
interactuar con los usuarios.
 Diagnóstico médico: Las redes neuronales se utilizan para ayudar a los médicos a
diagnosticar enfermedades. Por ejemplo, se utilizan en los sistemas de diagnóstico
por imagen para detectar cáncer o en los sistemas de diagnóstico genético para
identificar mutaciones genéticas que pueden causar enfermedades.

20
 Control de procesos: Las redes neuronales se utilizan para controlar sistemas
complejos, como robots o plantas industriales. Por ejemplo, se utilizan en los
sistemas de control de robots para que realicen tareas complejas o en los sistemas de
control de procesos industriales para mantener las condiciones óptimas.
 Conversión de texto a voz: La conversión texto a voz es un proceso que transforma
los símbolos gráficos de un texto en lenguaje hablado. La computación neuronal se
utiliza para este propósito, ya que es capaz de aprender a partir de datos y de
reconocer patrones complejos. Uno de los principales promotores de la computación
neuronal en la conversión texto a voz es Terrence Sejnowski. El sistema de
computación neuronal que desarrolló, llamado NetTalk, es capaz de convertir texto
en fonemas. Estos fonemas se combinan luego para generar voz a partir de un texto
escrito. La ventaja de la computación neuronal en la conversión texto a voz es que
elimina la necesidad de programar un complejo conjunto de reglas de pronunciación
en el ordenador. Esto permite que el sistema sea más flexible y adaptable a
diferentes idiomas. Aunque el sistema NetTalk ofrece un buen comportamiento, la
computación neuronal para este tipo de aplicación aún está en desarrollo. Se están
realizando investigaciones para mejorar la precisión y la calidad del sonido.
 Aplicación en la Industria Creativa: Las redes neuronales también están
influyendo en la industria creativa. En el ámbito del diseño gráfico, por ejemplo, se
utilizan para generar imágenes realistas o incluso crear obras de arte originales. Al
entrenar la red con grandes conjuntos de datos de obras de arte, puede aprender
estilos y patrones, produciendo resultados que imitan el trabajo de artistas
reconocidos o generando nuevas formas de expresión artística.
 Aplicación en la Conducción Autónoma: En el sector automotriz, las redes
neuronales son esenciales para el desarrollo de vehículos autónomos. Estas redes
permiten al vehículo procesar y comprender datos provenientes de cámaras,
sensores y otros dispositivos para tomar decisiones en tiempo real, como evitar
obstáculos, seguir señales de tráfico y garantizar una conducción segura.
 Aplicación en la Industria Energética: En la industria energética, las redes
neuronales se emplean para prever y optimizar el consumo de energía. Analizando
patrones históricos y datos en tiempo real, estas redes pueden predecir la demanda

21
de energía, permitiendo una gestión más eficiente de los recursos y contribuyendo a
la sostenibilidad.
 Finanzas y Predicción del Mercado: Las redes neuronales se aplican en finanzas
para analizar patrones históricos y actuales del mercado, ayudando en la predicción
de tendencias financieras, fluctuaciones de acciones y riesgos económicos. Esto es
especialmente valioso para los inversores y las instituciones financieras.
 Publicidad Personalizada: En el ámbito de la publicidad en línea, las redes
neuronales se utilizan para analizar el comportamiento del usuario en la web y
ofrecer anuncios personalizados. Esto mejora la relevancia de los anuncios,
aumentando la eficacia de las campañas publicitarias y mejorando la experiencia del
usuario.
 Detección de Fraudes: En el sector bancario, las redes neuronales se aplican para
detectar patrones inusuales en transacciones financieras que podrían indicar
actividades fraudulentas. Esto contribuye a la seguridad financiera al identificar y
prevenir fraudes de manera proactiva.
 Juegos y Entretenimiento: En la industria del juego, las redes neuronales se
emplean para mejorar la inteligencia artificial en los personajes del juego, haciendo
que respondan de manera más realista a las acciones del jugador. También se
utilizan para generar contenido generado por el juego, como escenarios y
personajes.
 Ciencia de Materiales: En el ámbito científico, las redes neuronales se aplican en
la predicción de propiedades de nuevos materiales. Esto agiliza el proceso de diseño
y descubrimiento de materiales con características específicas, como conductividad
eléctrica o resistencia mecánica.
 Agricultura Inteligente: En la agricultura, las redes neuronales se utilizan para
analizar datos agronómicos, como patrones climáticos y composición del suelo, para
optimizar la producción agrícola. Esto incluye la predicción de cosechas, gestión
eficiente del riego y detección temprana de enfermedades en cultivos.

22
Las redes neuronales artificiales son una herramienta poderosa que se puede utilizar para
resolver una amplia gama de problemas. A medida que la tecnología de las redes
neuronales siga desarrollándose, es probable que se utilicen en aún más aplicaciones.

Aquí hay algunos ejemplos adicionales de aplicaciones de redes neuronales artificiales:

 Filtrado de ruido: Las redes neuronales se pueden utilizar para eliminar el ruido de
señales, como el ruido de fondo de una grabación de audio.
 Predicción: Las redes neuronales se pueden utilizar para predecir eventos futuros,
como el clima o el comportamiento de los mercados financieros.
 Optimización: Las redes neuronales se pueden utilizar para encontrar la solución
óptima a un problema, como la ruta más corta entre dos puntos.

Las redes neuronales artificiales son una tecnología en rápido desarrollo, y es probable que
sigan teniendo un impacto cada vez mayor en nuestras vidas.

23
APLICACIONES DE DEMANDA DE ENERGIA ELECTRICA EN EMPRESAS
PERUANAS UTILIZANDO LAS RNA:

La demanda de energía eléctrica en empresas eléctricas que operan en Perú se refiere a la


cantidad de electricidad necesaria para alimentar diversas aplicaciones y procesos dentro de
estas empresas. A continuación, se describen algunas de las aplicaciones comunes en
empresas eléctricas y cómo se pueden aplicar redes neuronales artificiales para optimizar o
mejorar estas aplicaciones:

1. Pronóstico de demanda eléctrica: Las empresas eléctricas necesitan predecir la


demanda futura de energía para garantizar un suministro confiable. Las redes
neuronales artificiales pueden utilizarse para desarrollar modelos de pronóstico que
tengan en cuenta factores como el clima, patrones de consumo histórico y eventos
especiales que afectan la demanda.

2. Gestión de activos y mantenimiento predictivo: Para garantizar la continuidad del


suministro eléctrico, es fundamental realizar un mantenimiento adecuado de la
infraestructura. Las redes neuronales pueden utilizarse en sistemas de
mantenimiento predictivo para identificar cuándo se deben realizar inspecciones y
reparaciones en equipos, como transformadores y subestaciones.

3. Optimización de la red eléctrica: Las redes neuronales pueden ser aplicadas en la


optimización de la red eléctrica, ayudando a determinar la configuración óptima de
las líneas de transmisión y subestaciones para minimizar pérdidas de energía y
costos operativos.

4. Detección de fraudes y seguridad: Las empresas eléctricas deben detectar el


fraude energético y proteger sus sistemas de ciberseguridad. Las redes neuronales
pueden ser empleadas en la detección de patrones anómalos de consumo eléctrico
que podrían indicar fraude o intrusiones en la red.

5. Control de calidad de la energía: Las redes neuronales pueden utilizarse para


monitorear y garantizar la calidad de la energía eléctrica suministrada, lo que es
fundamental para la operación de equipos sensibles en empresas e industrias.

24
En cuanto a las pruebas de las redes neuronales artificiales en estas aplicaciones, se realizan
mediante el entrenamiento y la validación de modelos de redes neuronales utilizando datos
históricos y en tiempo real. El proceso generalmente implica:

1. Recopilación de datos: Obtención de datos históricos relevantes para la aplicación


en cuestión, como registros de consumo de energía, datos climáticos y registros de
mantenimiento.

2. Preprocesamiento de datos: Limpieza y transformación de los datos para su uso


en el entrenamiento de la red neuronal.

3. Entrenamiento de la red neuronal: Utilización de datos históricos para entrenar el


modelo de red neuronal, ajustando los pesos y las conexiones entre las neuronas.

4. Validación y pruebas en tiempo real: Utilización de datos actuales para validar el


rendimiento del modelo entrenado. Se pueden realizar pruebas en situaciones de la
vida real para evaluar la eficacia de la aplicación.

5. Ajuste y mejora continua: Los modelos de redes neuronales suelen requerir


ajustes y mejoras continuas a medida que se recopilan más datos y se enfrentan a
nuevas condiciones.

El uso de redes neuronales artificiales en empresas eléctricas en Perú puede ayudar a


optimizar la operación, mejorar la eficiencia energética y garantizar la confiabilidad del
suministro eléctrico.

25
PREDICCIÓN DE LA DEMANDA DE LA ENERGÍA ELÉCTRICA (EN LAS
REDES NEURONALES)

La demanda eléctrica es la suma de los consumos individuales de los clientes en un sistema


de distribución. Este consumo varía debido a factores como el tipo de cliente (residencial,
industrial, comercial), la hora del día, la época del año y otros.

El crecimiento de la población y la ciudad aumenta la demanda de energía eléctrica, lo que


requiere que la empresa de distribución desarrolle planes de expansión para reducir costos y
evitar problemas operativos. La proyección de la demanda eléctrica es crucial para lograr
estos objetivos.

Se utiliza una Red Neuronal Artificial (RNA) para proyectar la demanda eléctrica, ya que
se ha demostrado que ofrece resultados confiables en problemas de proyección de
demanda. La correcta proyección de la demanda es esencial para garantizar la confiabilidad
y continuidad del suministro eléctrico.

Debido a que las RNA se asemejan al funcionamiento de las redes neuronales biológicas, el
entrenamiento es un proceso en el que la red aprende los patrones en la serie de tiempo para
ajustar los pesos y los sesgos y realizar proyecciones precisas. Se espera que el uso de RNA
ofrezca resultados precisos al ajustar los parámetros a través de ensayos de prueba y error.

Se utilizan métodos analíticos, inductivos y deductivos para recopilar datos de diversas


fuentes y comprender las características esenciales para el tratamiento de los datos iniciales,
así como para el proceso de entrenamiento y prueba de la Red Neuronal Artificial (RNA).

JUSTIFICACIÓN

Los pronósticos de la demanda eléctrica son fundamentales para las empresas eléctricas, ya
que les permite planificar la generación de energía y evitar costos inesperados debido a
excesos o insuficiencias de capacidad. Este pronóstico también influye en las decisiones de
compra y venta de energía entre compañías eléctricas. La demanda de energía eléctrica
refleja el desarrollo de un país y está influenciada por múltiples variables como crecimiento
poblacional, sector industrial, agrícola, turismo, entre otros. Prever con precisión esta
demanda es esencial para garantizar un suministro eléctrico adecuado ya un costo

26
razonable. La diversidad de consumidores y sus diferentes patrones de consumo hacen que
prever la demanda sea un desafío. Se emplean diversas técnicas para minimizar los errores
en el pronóstico de demanda, considerando factores económicos y optimización de compras
de energía. En este contexto, la implementación de redes neuronales en empresas eléctricas
tiene como objetivo mejorar la precisión en los pronósticos de la demanda y optimizar la
compra de energía, reduciendo así las pérdidas financieras y maximizando las ganancias.

ALTERNATIVA DE SOLUCIÓN

El tipo de red neuronal a utilizar es la red perceptrón multicapas. La ventaja de esta red es
que puede aproximar cualquier función si se escoge una configuración y un número
adecuado de neuronas en las capas ocultas. El algoritmo a utilizar en este trabajo es el
algoritmo BackPropagation, el cual tiene un aprendizaje supervisado, que necesita conocer
cuál es la salida esperada asociada a cada una de las entradas, para poder actualizar los
pesos y las ganancias. El algoritmo consiste en minimizar un error (comúnmente
cuadrático) por medio de gradiente descendiente, por lo que la parte esencial del algoritmo
es el cálculo de las derivadas parciales de dicho error con respecto a los parámetros de la
red neuronal. El algoritmo es sólo válido para redes tipo feedforward y recibe este nombre
por la dirección en que se propaga el error en la red. El ajuste de los pesos mediante este
algoritmo se lleva a cabo iterativamente, añadiendo un incremento en cada iteración a
dichos pesos. La modificación de los pesos se lleva a cabo considerando que se trata de un
problema de minimización del error. Las variables de entrada elegidas, para la creación del
modelo de red neuronal, fueron los factores más importantes que afectan el consumo
eléctrico:

- Temperatura: El cambio de temperatura afecta el consumo de electricidad.

- Humedad: Afecta el uso de aparatos eléctricos como aire acondicionado.

- Hora del día: La demanda eléctrica varía de acuerdo a la hora del día.

- Día de la semana: La demanda eléctrica puede variar de acuerdo al día de la semana.

- Fin de semana y feriados: En los fines de semana y los días feriados, se produce una
variación en el consumo eléctrico.

27
- Mes del año: Refleja la variación estacional del consumo de electricidad a causa de los
cambios del clima en el año.

RESULTADOS Y DISCUSIÓN

Los datos para realizar el proyecto son valores de consumo de potencia eléctrica
tabulados de forma mensual pertenecientes al periodo de tiempo 2019 al 2021. Los
datos son entregados por la empresa eléctrica y se presentan en la siguiente tabla:

28
De la base de datos se analiza que los valores de mínimo y máximo consumo fueron en el
mes 7 del año 2017y el mes 2 del año 2020que corresponden a 48.45 MW y 86.29 MW
respectivamente. Estos valores mínimo y máximo de la serie de tiempo permiten realizar la
normalización de los datos lo cual es muy importante para el procesamiento en la RNA. Del
conjunto de datos históricos se estima que inicialmente en el año 2003 el valor medio de
consumo es de 60.25 MW creciendo anualmente de manera progresiva con una media de
3.04 MW, hasta alcanzar en el año 2008 un valor medio de 75.44 MW.Los valores de
consumo de potencia eléctrica de los 72 meses se presentan en la figura, como una
curva que describe una serie en el tiempo, las fluctuaciones que presentan
corresponden a las variaciones típicas de consumo.

29
Figura 1. Curva de consumo de potencia eléctrica de 72 meses en escala original.

Normalización de datos.

Los datos en la serie temporal no se pueden procesar directamente mediante la RNA, ya


que el procesamiento de valores demasiado grandes resultaría en cálculos prolongados, lo
que retrasaría el proceso e incluso podría sobrecargar el sistema en situaciones adversas.
Para mitigar este problema, se implementa la normalización de los datos de entrada,
ajustándolos a un rango de valores entre 0 y 1. La fórmula empleada para esta
normalización es la siguiente:

30
Los datos de consumo de potencia eléctrica para los 72 meses normalizados se presentan en
la figura

Conjuntos de entrenamiento y de prueba

Los datos de la serie temporal se separan en dos conjuntos: el conjunto de entrenamiento y


el de prueba. De la totalidad de datos en la serie temporal, el 85% se destina al proceso de
entrenamiento, a acumulando el intervalo de los meses 1 al 60. El 15% restante se reserva
para el proceso de prueba, cubriendo los datos de la serie correspondientes a los meses 61
al 72. Aunque la división de los 50 datos se realiza de manera arbitraria, siempre se tiene en
cuenta que la mayoría de los datos se asignan al entrenamiento, mientras que el porcentaje
restante es crucial para evaluar el rendimiento de la RNA, comparando la proyección
durante el proceso de prueba. Es fundamental asegurar que existe un conjunto de datos
nuevos para validar la precisión de la proyección de la RNA, por lo que asignar el 100% de
los datos al entrenamiento no permitiría esta validación, ya que no habría datos nuevos para
poner a prueba la RNA. (Ortíz, 2014).

Proceso de entrenamiento

31
Para llevar a cabo el proceso de entrenamiento, es crucial elegir adecuadamente la
dimensión del vector de entrada, que contiene los datos seleccionados previamente para
esta etapa. Esta dimensión debe incluir un patrón que muestre una tendencia temporal.
También es esencial contar con un vector de salida, que representa la salida deseada
durante el entrenamiento. Durante este proceso, surgen errores al comparar la salida de la
RNA con la salida esperada, lo que conduce a la modificación de los parámetros del
proceso de entrenamiento, como los pesos y sesgos de las neuronas en una o más capas
ocultas y de salida (Osculló y Haro, 2016). En la Tabla se definen la matriz de entrada P y
el vector de salida T. La dimensión de la matriz de entrada es de 12×48, mientras que el
vector de salida tiene una dimensión de 1×48. Es crucial que ambas variables tengan la
misma cantidad de columnas, ya que cada columna de la matriz de entrada corresponde al
patrón que describe cada valor del vector de salida.

El número de filas en la matriz de entrada corresponde a la cantidad de neuronas en la capa


de entrada y representa el desplazamiento entre el resultado de entrenamiento y los datos
históricos. Es decir, si hay 12 neuronas en la capa de entrada, el entrenamiento comienza en
el mes 13, tal como se muestra en la figura. En este proyecto, se identifican dos desafíos
durante la ejecución de experimentos con el ARN: el sobreentrenamiento y la insuficiente

32
cantidad de neuronas de entrada. Estos obstáculos dificultan alcanzar el objetivo de lograr
una proyección precisa. A continuación, se presentan los resultados del entrenamiento
enfrentando estas problemáticas.

Número de neuronas de entrada inadecuado

Un número insuficiente de neuronas en la capa de entrada no permite que el RNA aprenda


la tendencia de la serie temporal, en contraste, un exceso de neuronas de entrada provoca
saturación y no conduce a resultados apropiados. Durante los experimentos, se determina
que el número adecuado de neuronas de entrada debe representar un patrón que se repite a
lo largo del tiempo. En la figura se muestra el resultado del proceso de entrenamiento para
la RNA utilizando 3 neuronas de entrada. La salida estimada por el RNA difiere
considerablemente de la salida deseada, lo que indica un entrenamiento deficiente. Este
entrenamiento particular comienza en el mes 4 debido a que la RNA tiene 3 neuronas de
entrada, lo que provoca el desplazamiento en el resultado (Mejía y Gonzales, 2019).

33
En los
siguientes procesos se muestra los resultados de la RNA con los dos problemas
mencionados.

Proceso de prueba

Durante la etapa de prueba, se calcula el Error Porcentual Absoluto Medio (MAPE) entre
las proyecciones y los valores históricos designados para esta fase y que no fueron
utilizados en el entrenamiento. La validación del modelo se lleva a cabo empleando la
ecuación (51), que permite una interpretación sencilla del error al expresarlo en porcentaje.
En la tabla siguiente se detalla el conjunto de datos históricos de consumo de potencia

34
eléctrica elegidos para realizar la prueba. Estos valores corresponden a los 12 meses del año
2020, los cuales fueron excluidos del proceso de entrenamiento.

Después de completar la etapa de entrenamiento, el ARN puede proyectar los valores para
el proceso de prueba. No obstante, estas proyecciones se encuentran en una escala
normalizada, por lo que se lleva a cabo la desnormalización para obtener los valores en la
unidad inicial, es decir, en megavatios (MW). Este proceso de desnormalización se realiza
utilizando la ecuación correspondiente.

En la figura se exhibe la proyección resultante (representada por la línea verde discontinua)


para el proceso de prueba de la RNA sobreentrenada. En otra figura, se muestra la
proyección resultante de la ARN utilizando 3 neuronas de entrada. El eje horizontal abarca
el intervalo desde el mes 61 al 72, correspondiente a los 12 meses históricos seleccionados
para este proceso. Por otro lado, en el eje vertical, se mantiene el mismo intervalo en MW,
representando la potencia en megavatios.

35
36
PROYECCIÓN

El proceso de proyección implica extender los valores proyectados durante la prueba de la


RNA. Esta extensión se lleva a cabo utilizando un método de proyección a través de
múltiples pasos en el tiempo. En este proceso, los nuevos datos proyectados se incorporan
en la matriz de entrada, formando así el patrón de tendencia a lo largo del tiempo. La
variable "N" indica el horizonte de tiempo hasta el cual se realizará la proyección. En el
caso de la prueba, el valor de esta variable está definido en 12. Sin embargo, para
proyecciones fuera de la prueba, se puede ajustar a cualquier valor (Mejía y Gonzales,
2019).

La figura muestra el resultado tanto de la prueba como de la proyección de la ARN


sobreentrenada. Se observa que cuando el entrenamiento se ajusta en exceso, es decir,
cuando la salida estimada y la salida esperada son muy similares, se generan proyecciones
inadecuadas que carecen de un patrón de comportamiento discernible.

La figura 10 presenta los resultados de la prueba y la proyección de la RNA utilizando 3


neuronas en la capa de entrada. También se destaca que durante el entrenamiento no se

37
logra un ajuste apropiado entre la salida estimada y la salida deseada. Este desajuste
conduce a proyecciones que se manifiestan en forma de una línea recta.

En la figura 11, se muestran los procedimientos de prueba representados por líneas


entrecortadas de color verde, los valores históricos por una línea continua de color rojo y la
proyección mediante líneas entrecortadas de color magenta. Estos cálculos están basados en
un horizonte de tiempo igual a 36, lo que equivale a proyectar 12 meses para la fase de
prueba y extensión.

38
Implementación de la Red Neuronal Artificial
Inicialmente, la matriz de pesos Wi y el vector sesgo bi se crean de forma aleatoria. A partir
de estos valores, se lleva a cabo la propagación hacia adelante. Después, se realiza una
comparación entre la salida estimada y la salida deseada, lo que permite calcular el error y
obtener un valor de sensibilidad que se propagará hacia atrás. Este proceso posibilita ajustar
los valores de pesos y sesgos en cada iteración. Esta secuencia se repite hasta que la
variable j alcanza el mismo valor que la variable época. Posteriormente, se generan gráficos
que

ilustran el proceso de entrenamiento y la evolución del error en cada iteración. Para


concluir, la matriz de pesos Wi y el vector sesgo bi se exportan a un archivo denominado
"Pesos.m" para ser utilizado en el próximo flujo del diagrama (Mejía y Gonzales, 2019).

39
Diseño de la Red Neuronal Artificial

Se propone la estructura de dos modelos de Redes Neuronales Artificiales con arquitecturas


distintas. En la figura 22 se representa el primer modelo, compuesto por dos capas ocultas,
cada una con dos neuronas, y una neurona en la capa de salida. Por otro lado, en la figura se
muestra el segundo modelo, que consta de una única capa oculta con nueve neuronas y una
neurona en la capa de salida. Cabe destacar que ambos modelos contemplan doce neuronas
en la capa de entrada.

40
En la figura, se muestran las salidas de entrenamiento para el Modelo 1 (línea entrecortada
azul) y el Modelo 2 (línea entrecortada verde). Estos resultados comienzan a partir del mes
13 debido al desplazamiento ocasionado por tener 12 neuronas en la capa de entrada. El
entrenamiento finaliza en el mes 60, a incluir todos los valores elegidos para este propósito.
Además, se representa la totalidad de los valores históricos mediante una línea continua de
color rojo.

Al

principio, las trazas de los Modelos 1 y 2 no exhiben una similitud cercana con los datos
históricos. No obstante, a medida que el RNA recibe más datos para su entrenamiento, se
ajusta de manera más precisa. El eje horizontal representa el número de meses en el
conjunto completo de datos históricos, que corresponde a 72 meses. Por otro lado, en el eje
vertical se mantiene un rango de 40 a 100 en unidades de MW, esta elección se realiza para

41
facilitar la comprensión, ya que resulta más intuitivo trabajar con valores expresados en
esta unidad que con valores normalizados.

La siguiente representación gráfica ilustra la disminución del error a lo largo del proceso de
entrenamiento para los Modelos 1 y 2. El error se calcula mediante la diferencia entre el
valor estimado y el valor esperado. A partir de este error, se calculan las sensibilidades y se
ajustan los pesos y sesgos después de cada iteración. Es relevante mencionar que una
iteración se completa al ingresar la totalidad de los valores de entrada. En la figura, el eje
horizontal indica el número de iteraciones realizadas a cabo, mientras que en el eje vertical
se muestra la discrepancia entre cada punto de la serie temporal de datos históricos y la
proyección de los Modelos 1 y 2 al concluir cada iteración.

42
43
Error de proyección

En la tabla se exhiben los resultados del proceso de prueba para los Modelos 1 y 2,
empleando el criterio de evaluación MAPE. Este procedimiento implica tener a disposición
los valores esperados correspondientes a los 12 meses del año 2008 en la unidad original
(MW). Las proyecciones de los Modelos 1 y 2 también se presentan en la misma unidad de
medida. El resultado obtenido al aplicar el criterio MAPE se expresa en forma de

porcentaje.

Es notorio que el Modelo 2 exhibe un menor porcentaje de error, convirtiéndolo en la


elección preferida según el criterio MAPE. En el contexto de las proyecciones de demanda
eléctrica a corto y mediano plazo, un porcentaje de error inferior al 5% se considera
aceptable, representando un nivel de confianza del 95% en las proyecciones del modelo
evaluado. Evaluar los modelos adquiere importancia debido a la correlación entre el
modelo y los datos reales, permitiendo realizar proyecciones que se ajusten a estos datos.

44
Aquellas proyecciones que se sitúen dentro del margen del 95% de confiabilidad se
consideran como "buenas". La elección entre diferentes modelos de proyección depende del
criterio de evaluación aplicado, como el MAPE, MSE, RMSE, MAE, entre otros.

Uno de los aspectos clave en el desarrollo de la RNA es determinar cómo se ingresarán los
datos. En el diagrama de flujo se establece el enfoque para considerar los datos, donde los
datos de entrada se organizan en patrones que se utilizan para predecir valores futuros
dentro de los datos históricos. Así, se crean conjuntos de patrones que se emplean para
entrenar la red. La normalización de los datos de entrada resulta crucial para evitar que el
proceso de entrenamiento se sature, ya que el procesamiento de datos muy extenso
consume mucho tiempo. Posteriormente, después de completar las etapas de entrenamiento,
prueba y proyección, se ejecuta el proceso de desnormalización para devolver los datos a
sus unidades originales.

En este caso, la división de los datos utilizados para el entrenamiento consta del 85% del
total, reservando el 15% restante para el proceso de prueba. Este procedimiento es
fundamental para evaluar y optimizar el rendimiento del modelo de red neuronal. El
proceso de entrenamiento de la RNA se basa en pruebas iterativas, donde se ajustan varios
parámetros hasta encontrar la solución óptima que minimice el error durante el proceso de
prueba. Entre los parámetros claves que se pueden modificar se incluyen el número de
neuronas de entrada, el número de capas ocultas, la cantidad de neuronas en cada capa
oculta, las funciones de activación, el número de épocas de entrenamiento y el valor de la
tasa de aprendizaje.

Durante estas pruebas y ajustes iterativos, se pueden observar diferentes comportamientos


de la RNA. Se destaca el sobreentrenamiento, que conduce a predicciones totalmente
erróneas. También es notable que, cuando el horizonte de proyección es muy lejano, la
RNA tiende a perder la tendencia de los datos y ofrece proyecciones lineales. Además, se
ha observado que una cantidad insuficiente de neuronas de entrada hace que la red sea
ineficiente en la realización de predicciones.

La evaluación se lleva a cabo comparando los datos no utilizados en el proceso de


entrenamiento, que corresponden al intervalo de meses 61 al 72, en el caso de los Modelos

45
1 y 2. El porcentaje de error resultante, basado en el criterio de evaluación MAPE , es del
3,71% y 3,17%, respectivamente.

CONSIDERACIONES FINALES

El modelo de perceptrón multicapa con función de activación logística en la capa oculta y


función de activación lineal en la capa de salida se puede utilizar como un aproximado
universal de funciones. En este estudio específico, que involucra una sola variable de
entrada, se determina el número de neuronas en la capa de entrada mediante un análisis
detallado de la serie temporal, identificando patrones de comportamiento que se repiten a
intervalos regulares. Se observa que el modelo 1 es más sensible a los cambios en la
respuesta de la RNA por variaciones en los parámetros de pesos y sesgos en comparación
con el modelo 2.

En la etapa de prueba, se aplica el criterio de evaluación MAPE. Sin embargo, es


importante destacar que el MAPE obtenido durante esta etapa no garantiza que la
proyección para los meses siguientes mantenga el mismo margen de error. Esto se debe a
que la proyección se muestra adecuada para los primeros meses de evaluación, pero pierde
su precisión rápidamente.

Al evaluar ambos modelos utilizando el criterio MAPE, se llega a la conclusión de que el


modelo 2 es el más adecuado, ya que exhibe un porcentaje de error del 3.17%, inferior al
obtenido por el modelo 1, que es del 3.71%. La cantidad de neuronas en la capa oculta
influye de manera significativa en los resultados de la RNA, ya que esta cantidad depende
de la naturaleza del problema a resolver. Por lo tanto, es crucial realizar ensayos y ajustes
iterativos para determinar el número óptimo de neuronas ocultas que aborden eficazmente
el problema en cuestión.

46
CONCLUSIONES:

1. Las Redes Neuronales Artificiales (RNAs) demuestran una destacada capacidad


para aprender patrones y relaciones no lineales en datos complejos, otorgándoles un
potencial significativo en diversas aplicaciones.
2. Su versatilidad les permite adaptarse a una amplia variedad de tareas, desde
clasificación hasta generación de texto, consolidándolas como herramientas
flexibles con aplicaciones prácticas en diversos campos.
3. La creciente complejidad de las RNAs plantea desafíos en la interpretación de sus
decisiones, siendo la falta de transparencia un factor crítico que puede ser un
obstáculo en aplicaciones donde la explicabilidad es esencial.
4. Los considerables requerimientos computacionales necesarios para entrenar y
ejecutar eficientemente RNAs, especialmente en arquitecturas profundas,
representan un desafío práctico y económico que debe abordarse para garantizar su
implementación efectiva.

47
RECOMENDACIONES:

1. Antes de la implementación, se enfatiza la necesidad de una comprensión profunda


del dominio del problema, incluida la selección cuidadosa de la arquitectura y
parámetros para optimizar el rendimiento del modelo.
2. Se recomienda un preprocesamiento exhaustivo de los datos para abordar posibles
problemas, como valores atípicos y datos faltantes, asegurando así la calidad del
conjunto de datos de entrada.
3. La aplicación de técnicas sólidas de validación cruzada y la selección cuidadosa de
métricas de evaluación son fundamentales para garantizar la capacidad de
generalización del modelo y proporcionar una evaluación precisa de su rendimiento.
4. La implementación exitosa de RNAs requiere un sistema de monitoreo continuo
para evaluar el rendimiento del modelo en entornos de producción. Además, se
deben realizar actualizaciones periódicas para adaptarse a cambios en los datos o
requisitos del problema.

48
BIBLIOGRAFÍA

Bagnato, J. (12 de septiembre de 2018). Breve Historia de las Redes Neuronales


Artificiales. APRENDE MACHINE LEARNING.
https://www.aprendemachinelearning.com/breve-historia-de-las-redes-neuronales-
artificiales/

Torres, R. (15 de junio de 2020). El Perceptrón Multicapa. InteractiveChaos.


https://interactivechaos.com/es/manual/tutorial-de-deep-learning/el-perceptron-
multicapa

Basogain, X. (s.f.). Redes neuronales artificiales y sus aplicaciones.


https://ocw.ehu.eus/pluginfile.php/40137/mod_resource/content/1/redes_neuro/
contenidos/pdf/libro-del-curso.pdf

Vive. (2021, agosto 3). ¿Qué son las redes neuronales? Concepto y usos principales. UNIR.
https://www.unir.net/ingenieria/revista/redes-neuronales-artificiales/
González, J. (2021, mayo 19). Qué es y qué aplicaciones tiene una red neuronal artificial.
Deyde DataCentric. https://www.datacentric.es/blog/insight/red-neuronal-artificial-
aplicaciones/
Mejía, E. y Gonzales, S. (2019). “Predicción del consumo de energía eléctrica residencial
de la Región Cajamarca mediante modelos Holt -Winters”.
https://www.redalyc.org/journal/3291/329160723002/

Oscullo, J. y Haro, L. (2016). Revista Politécnica. “Pronóstico de la demanda diaria del


sistema nacional interconectado utilizando redes neuronales artificiales”, vol. 38, pp. 77.

https://revistapolitecnica.epn.edu.ec/ojs2/index.php/revista_politecnica2/article/
view/661

49

También podría gustarte