Material Complementario 1 - Entrenamiento IA Egg
Material Complementario 1 - Entrenamiento IA Egg
Material Complementario 1 - Entrenamiento IA Egg
Los sistemas de recomendación, como los algoritmos de Netflix y Amazon, también son
ejemplos de IA Débil. Estos analizan datos de usuario para predecir preferencias y
sugerir contenido relevante, pero no poseen comprensión profunda ni aprendizaje fuera
de su función específica. Además, el reconocimiento facial utilizado en plataformas como
Facebook para etiquetar fotos es otro caso de IA Débil, donde los algoritmos identifican
características faciales pero no interpretan emociones ni contextos complejos.
IA de Memoria Limitada: Este tipo de IA puede usar experiencias pasadas para tomar
decisiones futuras, pero esta memoria es limitada y no se actualiza continuamente. Es
capaz de aprender de datos históricos para mejorar su toma de decisiones. Por ejemplo:
Los vehículos autónomos, como los coches de Google y Tesla, que observan las
condiciones del tráfico y ajustan su comportamiento en tiempo real basándose en datos
recientes.
IA Autoconsciente: Este es el tipo más avanzado de IA, que aún no existe. Una IA
autoconsciente tendría una conciencia de sí misma y un sentido de identidad propia,
similar a los humanos. Podría pensar, razonar y tomar decisiones basadas en una
comprensión completa de sí misma y del mundo. Ejemplo: Hipotéticos robots con
consciencia propia que aparecen en la ciencia ficción.
Características:
Ejemplos:
● Chatbots: Asistentes virtuales capaces de mantener conversaciones naturales con
humanos.
● Sistemas de Traducción Automática: Herramientas que traducen texto de un
idioma a otro de manera automática.
Robótica: Integra IA en sistemas robóticos para realizar tareas físicas en el mundo real.
Por ejemplo: robots industriales o drones autónomos.
Los LLMs generan texto prediciendo la siguiente palabra en una secuencia basada en
grandes cantidades de datos. Por ejemplo, dado el inicio de una frase, el modelo
completa la oración basándose en patrones aprendidos de enormes conjuntos de datos
textuales. Aunque los detalles técnicos pueden ser complejos, la esencia de estos
modelos es su capacidad para predecir la próxima palabra repetidamente, mejorando
con más datos y modelos más grandes.
En los meses y años desde que ChatGPT irrumpió en la escena en noviembre de 2022,
la IA generativa ha avanzado mucho. Cada mes se lanzan nuevas herramientas, reglas o
avances tecnológicos iterativos. En los años desde su amplia implementación, el
aprendizaje automático ha demostrado su impacto en varias industrias, logrando cosas
como el análisis de imágenes médicas y pronósticos meteorológicos de alta resolución.
Está claro que herramientas de IA generativa como ChatGPT y el generador de
imágenes DALL-E tienen el potencial de cambiar cómo se realizan una variedad de
trabajos. Sin embargo, el alcance total de ese impacto aún es desconocido, al igual que
los riesgos.
Un estudio realizado por McKinsey indica que las aplicaciones de IA generativa podrían
agregar hasta 4.4 billones de dólares a la economía global anualmente. De hecho,
parece posible que dentro de los próximos tres años, cualquier cosa en el espacio de
tecnología, medios y telecomunicaciones que no esté conectada a la IA será
considerada obsoleta o ineficaz.
Por ejemplo, ChatGPT puede generar ensayos comparando teorías académicas o crear
descripciones humorísticas en diferentes estilos literarios. Modelos como DALL-E 2
pueden generar imágenes artísticas a partir de descripciones textuales. Otros modelos
pueden producir código de software o incluso simulaciones de negocios.
Las aplicaciones de los modelos de IA generativa son amplias y diversas. Las empresas
pueden utilizar estas herramientas para generar contenido de marketing, redactar
informes técnicos, crear código de software, y mucho más. Las herramientas de IA
generativa pueden producir escritos creíbles en cuestión de segundos, lo que ahorra
tiempo y recursos a las organizaciones.
Otro desafío es el costo y los recursos necesarios para desarrollar y entrenar estos
modelos. Solo las grandes empresas con financiamiento significativo pueden permitirse
este tipo de inversión. Sin embargo, las organizaciones pueden usar modelos
preexistentes y adaptarlos a sus necesidades específicas, lo que reduce los costos y el
tiempo de desarrollo.
Historia de ChatGPT: Cómo la IA aprendió a
hablar
La historia de ChatGPT comienza en los años 80 con los primeros experimentos en
redes neuronales. En 1986, un investigador llamado Jordan hizo un experimento pionero
en el que entrenó una red neuronal para aprender patrones secuenciales. Este modelo,
conocido como red neuronal recurrente (RNN, por sus siglas en inglés), tenía la
capacidad de recordar información pasada para influir en sus decisiones futuras.
El concepto clave detrás de las RNN es que pueden mantener un "estado de memoria"
que les permite tener en cuenta el contexto previo al hacer predicciones. Jordan entrenó
su red ocultando la siguiente letra en una secuencia y haciendo que la red intentara
predecirla. A medida que la red aprendía, se volvía mejor en generalizar los patrones, no
solo en memorizarlos.
Cinco años después, otro investigador, Jeffrey Elman, amplió el trabajo de Jordan con
una red más grande y la entrenó en lenguaje. Lo interesante de su experimento fue que
la red aprendió a identificar los límites de las palabras por sí sola y a agrupar palabras
por su significado, demostrando una comprensión jerárquica del lenguaje.
La Evolución de GPT
En 2018, OpenAI introdujo el primer modelo GPT (Generative Pre-trained Transformer),
entrenado en una gran cantidad de libros para predecir la siguiente palabra en una
secuencia de texto. Un año después, lanzaron GPT-2, un modelo mucho más grande que
demostró capacidades sorprendentes en tareas como comprensión de lectura, resumen,
traducción y respuesta a preguntas.
En 2020, OpenAI lanzó GPT-3, con 175 mil millones de parámetros y la capacidad de
manejar contextos más largos. GPT-3 mostró una capacidad notable para realizar
aprendizaje en contexto, donde podía aprender nuevas tareas basadas en ejemplos
proporcionados en la entrada, sin necesidad de reentrenamiento.
Para hacer que GPT-3 fuera más útil para el público en general, OpenAI desarrolló
InstructGPT, un modelo entrenado para seguir instrucciones humanas de manera más
efectiva. Este modelo se convirtió en la base de ChatGPT, que ha sido utilizado por
millones de personas en todo el mundo para diversas tareas.
Un descubrimiento importante fue que agregar la frase "piensa paso a paso" al final de
las instrucciones mejoraba significativamente el rendimiento de ChatGPT. Esto se debe a
que la IA desglosa los pensamientos en pasos más pequeños y manejables, permitiendo
un proceso de razonamiento más claro y menos errores.