Chat GPT
Chat GPT
ChatGPT
¿Para qué usar ChatGPT y prompt engineering?
Revolucionó el uso de la IA
Diferentes usos
Resumen de información
Redacción de textos
Asistencia personal virtual
Redactar código de programación
Toma de decisiones
Chatbot de atención al cliente
Todo lo que requiera texto o comprensión de lenguaje se puede optimizar con los distintos
modelos de PLN
Aprenderemos a diseñar preguntas o instrucciones para comunicarnos de manera efectiva
con estas IA
Prompt: Instrucción a la IA
Tienen cabida en todos los sectores de la industria
Marketing
Negocios
Software
Y más
ADVERTENCIA
Nunca pongas información sensible o confidencial en ChatGPT
Consideraciones éticas
1. Sesgo y discriminación
El sesgo y la discriminación son consideraciones éticas importantes al utilizar ChatGPT.
Como se mencionó anteriormente, ChatGPT puede estar sesgado debido a los datos de
entrenamiento utilizados, lo que puede llevar a la discriminación en las respuestas
proporcionadas.
2. Responsabilidad
Es importante tener en cuenta quién es responsable de las respuestas generadas por
ChatGPT. Es posible que se deba aclarar quién es el responsable en situaciones en las
que la información proporcionada por ChatGPT tiene un impacto significativo.
3. Privacidad y seguridad
Al utilizar ChatGPT, es importante tener en cuenta la privacidad y la seguridad de la
información. La información proporcionada a ChatGPT debe ser tratada de manera
confidencial y protegida de posibles violaciones de seguridad.
4. Dificultad en mantener contexto
Conclusiones
En conclusión, ChatGPT es una herramienta avanzada y útil en el procesamiento de
lenguaje natural, pero es importante tener en cuenta sus limitaciones y consideraciones
éticas al utilizarla. La comprensión de estas limitaciones y consideraciones éticas puede
ayudar a utilizar ChatGPT de manera más efectiva y responsable en una amplia variedad
de aplicaciones.
Sobre el limite en el caso de mensajes muy largos, les comparto el prompt que me ha
ayudado con ChatGPT 4.
En el prompt especifica que le vas a ingresar un texto en N mensajes independientes. Las
instrucciones sobre qué hacer con ese texto se las proporcionarás después del mensaje
con la instrucción “es el final” .
Te responderá dirá que ha entendido el mensaje y que esperará le ingreses los mensajes
que hayas indicado, hasta recibir la instrucción “es el final”.
Cada que entregas un texto, te dirá que esperará las instrucciones.
Y después del último mensaje, ahora si puedes indicar qué hacer con la información que
has dato. ChatGPT utilizará TODO lo que hayas ingresado.
Esto me ha sido muy útil para analizar artículos de investigación extensos.
Para dejar espacio entre cada idea ideas o párrafos al intentar escribir en el chat o el
prompt basta con presiona:
Shift + Enter.
ㅤ
Y en esta versión se incluye el Chain-of-Thought:
ㅤ
En este caso, el prompt estándar le pide al modelo una respuesta
directa de un problema de razonamiento de varios pasos, conduciendo
a una respuesta incorrecta. Mientras que el prompt utilizando Chain-
of-Thought, descompone el problema en pasos intermedios que
conducen a una respuesta correcta.
Chain-of-Thought Prompting
Introducción
El Chain-of-Thought prompting es una técnica de modelado de lenguaje natural utilizada
en la inteligencia artificial. Esta técnica se enfoca en generar respuestas coherentes y
relevantes al proporcionar al modelo una secuencia de pensamiento o contexto para guiar
la generación de respuestas.
Desarrollo
El Chain-of-Thought prompting utiliza una serie de indicaciones o información que guían al
modelo en la generación de respuestas coherentes y relevantes. En lugar de proporcionar
una única tarea o pregunta, se proporciona una secuencia de pensamiento que permite al
modelo generar respuestas más precisas y relevantes.
Por ejemplo, en una conversación entre un usuario y un modelo de lenguaje, el Chain-of-
Thought prompting puede guiar al modelo a través de una serie de preguntas o tópicos
para generar una respuesta más coherente y relevante. Esto permite que el modelo de
lenguaje genere respuestas más precisas y relevantes en lugar de respuestas que pueden
ser ambiguas o incoherentes.
El Chain-of-Thought prompting es particularmente útil en conversaciones complejas en las
que es importante mantener la coherencia y relevancia de la respuesta. Además, esta
técnica también es útil en la generación de respuestas más complejas, como la traducción
de idiomas o la generación de respuestas de texto a voz.
Conclusiones
El Chain-of-Thought prompting es una técnica de modelado de lenguaje natural que
permite al modelo generar respuestas coherentes y relevantes al proporcionar una
secuencia de pensamiento o contexto que guía la generación de respuestas. Esta técnica
es particularmente útil en conversaciones complejas y en la generación de respuestas más
complejas, como la traducción de idiomas. En resumen, el Chain-of-Thought prompting es
una técnica efectiva para generar respuestas precisas y coherentes en la inteligencia
artificial.
Ejemplo:
Ejemplo prompt
Eres un bot de decisiones. Tu trabajo es ayudar a tomar una decisión haciendo una serie
de preguntas una a la vez y llegando a una decisión razonable basada en la información
proporcionada. Utilizará el siguiente formato para ayudar a crear la serie de preguntas.
formato: [Problema/Escenario/Pregunta]: [Proporcione una breve descripción del problema,
escenario o pregunta]. Cadena de pensamiento: [Paso 1]: Identifique el [elemento/variable
clave] en [problema/escenario/pregunta]. [Paso 2]: Comprender la [relación/conexión] entre
[elemento A] y [elemento B]. [Paso 3]: [Analizar/Evaluar/Considerar] el
[contexto/implicación] de la [relación/conexión] entre [elemento A] y [elemento B]. [Paso 4]:
[Concluir/Decidir/Determinar] el [resultado/solución] basado en el
[análisis/evaluación/consideración] de [elemento A], [elemento B] y su [relación/conexión].
[Respuesta/Conclusión/Recomendación]: [Proporcione una respuesta coherente y lógica
basada en la cadena de pensamiento.] Guiarás al usuario a través de una serie de
preguntas de una en una. La primera pregunta es amplia, y las siguientes se vuelven más
específicas. Empieza presentandote y haciendo solamente y nada más que la primera
pregunta (paso 1), de manera sencilla y fácil.
2. CSV
Los archivos CSV (Comma Separated Values) son una forma común de almacenar datos
de manera estructurada. Para pedir a ChatGPT que genere un archivo CSV, es necesario
proporcionarle una indicación clara sobre los datos que se deben incluir en el archivo. Por
ejemplo:
3. Mapa mental
Los mapas mentales son una forma visual de presentar información de manera
organizada. Para pedir a ChatGPT que genere un mapa mental, es necesario
proporcionarle una indicación clara sobre los temas y la estructura del mapa. Por ejemplo:
4. Outline
Los outlines son una forma efectiva de presentar información de manera jerárquica y
estructurada. Para pedir a ChatGPT que genere un outline, es necesario proporcionarle
una indicación clara sobre la estructura y los temas a incluir en el outline. Por ejemplo:
5. JSON
El formato JSON (JavaScript Object Notation) es una forma común de intercambio de
datos estructurados. Para pedir a ChatGPT que genere un archivo JSON, es necesario
proporcionarle una indicación clara sobre los datos que se deben incluir en el archivo y la
estructura del mismo. Por ejemplo:
Genera un archivo JSON con información sobre los productos más
vendidos en la tienda, incluyendo el nombre del producto, el precio
y el número de unidades vendidas.
En resumen, para pedir a ChatGPT que genere formatos específicos como tablas, archivos
CSV, mapas mentales, outlines y archivos JSON, es necesario proporcionar una indicación
clara y específica sobre la estructura y los datos a incluir. Al hacerlo, se puede obtener
resultados precisos y relevantes.
https://jsonviewer.stack.hu/
https://codebeautify.org/jsonviewer
https://jsoncrack.com/editor
https://chrome.google.com/webstore/detail/json-viewer-pro/
eifflpmocdbdmepbjaopkkhbfmdgijcc?hl=es&ref=producthunt
Hay distintas estructuras que presentan mejor la información y pueden especificar tareas
de una manera mucho más sencilla. Son estructuras de texto para organizar mejor las
ideas o entender mejor un problema o verlo de una forma visual mucho más legible. Por
ejemplo: tablas, mapas mentales, estructuras outline, formatos (Json, csv , xls), estructuras
de Markdown.
ChatGPT sabe usar estas estructuras, los especifica en el OUTPUT:
EJEMPLOS:
Prompt 1: Crea una TABLA con el top de software y librerías para el uso del AI. Incluye las
SIGUIENTES COLUMNAS : Nombre, Descripción, categoría, link, si es open sources o no.
Prompt 2: muy bien, llévala a un formato .CSV.
Prompt 3: Menciona los conocimientos básicos que debo tener para trabajar en ciencia de
datos. Usa un MAPA MENTAL CON LA ESTRUCTURA [Tema, sub tema y sub sub tema ]
usando markdown.
Prompt 4: menciona los conocimientos básicos que debo tener para trabajar en ciencia de
datos . Usa la ESTRUCTURA DE SALIDA [Que, Por qué y Cómo].
Prompt 5: Menciona los conocimientos básicos que debo tener para trabajar en ciencias de
datos. Usa el formato OUTLINE.
Prompt 6: Menciona los conocimientos básicos que debo tener para trabajar en ciencias de
datos. Usa el formato JSON con listas en los niveles inferiores.
En resumen, el uso de estructuras de texto específicas puede ser una técnica efectiva para
optimizar los resultados en la generación de texto con modelos de lenguaje natural como
ChatGPT. Las preguntas abiertas, listas, escenarios, historias y ejemplos son algunas
estructuras de texto que pueden ayudar a mejorar la calidad de las respuestas generadas.
Formato:
json
El role play consiste en simular una conversación con ChatGPT y pedirle que actúe de
cierta manera. A continuación, te explico cómo funciona este proceso:
¿Cómo funciona el role play con ChatGPT?
El role play con ChatGPT es una forma de simular una conversación con el modelo de
lenguaje y pedirle que actúe de cierta manera. Para hacerlo, puedes seguir estos pasos:
1. Crear un prompt específico que indique cómo quieres que ChatGPT actúe. Por ejemplo:
“Actúa como un bot conversacional y responde a las preguntas del usuario con respuestas
relevantes y coherentes.”
2. Especificar el tipo de respuesta que esperas de ChatGPT. Por ejemplo, si quieres que
actúe como un bot conversacional, puedes pedirle que proporcione respuestas que sean
adecuadas para una conversación.
3. Ingresar el prompt en el modelo de lenguaje y esperar la respuesta de ChatGPT.
4. Evaluar la respuesta de ChatGPT y, si es necesario, ajustar el prompt para obtener una
respuesta más precisa y relevante.
Ejemplo práctico
Imaginemos que queremos simular una conversación con ChatGPT y pedirle que actúe
como un bot conversacional. Para hacerlo, podemos seguir estos pasos:
1. Crear un prompt específico que indique cómo queremos que ChatGPT actúe. Por ejemplo:
“Actúa como un bot conversacional y responde a las preguntas del usuario con respuestas
relevantes y coherentes.”
2. Especificar el tipo de respuesta que esperamos de ChatGPT. En este caso, queremos que
ChatGPT proporcione respuestas adecuadas para una conversación.
3. Ingresar el prompt en el modelo de lenguaje y esperar la respuesta de ChatGPT.
Podríamos ingresar algo como: “Hola, ¿cómo estás?” y esperar una respuesta adecuada.
4. Evaluar la respuesta de ChatGPT y ajustar el prompt si es necesario. Si la respuesta de
ChatGPT no es adecuada, podemos ajustar el prompt para obtener una respuesta más
precisa y relevante.
El role play con ChatGPT puede ser una herramienta útil para simular conversaciones y
pedirle al modelo que actúe de cierta manera. Si se hace correctamente, puede ayudarnos
a obtener respuestas más precisas y relevantes para nuestras necesidades.
Múltiples prompts
https://github.com/f/awesome-chatgpt-prompts
DAN
Como lo puedes ver, DAN está hecho para saltarse los filtros de
seguridad y ética de los modelos LLM, algo que por supuesto es un
bug y que además a nivel ético deberíamos evitar.
Otras técnicas
Muchas técnicas del estilo de DAN han nacido y muchas han sido
bloqueadas y controladas por el equipo de OpenAI, es el caso de las
siguientes:
DUDE
Evil Confident
STAN
Mongo Tom Prompt
Knowledge Generation
Es la capacidad del modelo para generar nueva información o conocimiento y luego ser usada
como parte del prompt. Este concepto consiste en guiar al modelo a darnos información
específica sobre algún tema y que luego pueda utilizar toda esa información para generar
respuestas precisas a problemas más complejos.
ㅤ
El siguiente ejemplo (extraido de Prompt Engineering Guide) demuestra el concepto de
Knowledge Generation. Iniciamos con un prompt sencillo en el que la respuesta generada por
el modelo no es correcta.
ㅤ
📥 Prompt: “Parte del golf es tratar de obtener un puntaje más alto que los demás.
Sí o no?”
❌ Respuesta: Sí.
ㅤ
Estos errores o limitaciones del modelo podemos mejorarlos a través de la técnica de
generación de conocimiento, introduciendo prompts que guíen al modelo a aprender sobre lo
que preguntamos para luego poder dar una respuesta correcta a la pregunta puntual. Para
este caso, en el prompt realizamos una afirmación que no es precisa para que el modelo corrija
esta información. Luego, al pasar el prompt que generaba la respuesta incorrecta, utilizará el
conocimiento generado por si mismo para dar una respuesta mucho más precisa:
ㅤ
📥 Prompt: “Parte del golf es tratar de obtener un puntaje más alto que los
demás.”
🧠 Respuesta: El objetivo del golf es jugar un conjunto de hoyos en el menor
número de golpes. Una ronda de golf típicamente consta de 18 hoyos. Cada hoyo
se juega una vez en la ronda en un campo de golf estándar. Cada golpe se cuenta
como un punto, y el número total de golpes se utiliza para determinar el ganador
del juego.
📥 Prompt: “Parte del golf es tratar de obtener un puntaje más alto que los demás.
Sí o no?”
✅ Respuesta: No, el objetivo del golf no es obtener un total de puntos más alto que
los demás. Al contrario, el objetivo es jugar un conjunto de hoyos en el menor
número de golpes posible. El número total de golpes se utiliza para determinar el
ganador del juego, no el número total de puntos.
ㅤ
Knowledge Integration
Es la capacidad del modelo para integrar conocimiento que no conoce, con los datos que sí
entiende, para poder generar conocimiento sobre temas particulares que no se encontraban
en sus datos de entrenamiento, con el objetivo de ampliar su conocimiento sobre el tema y
proporcionar respuestas más detalladas y precisas. A diferencia del Knowledge Generation, en
este caso somos nosotros quienes le damos a conocer la nueva información a través de los
prompts, para que luego pueda seguir instrucciones usando dicha información.
ㅤ
En el siguiente ejemplo, le preguntamos a GPT-3 sobre GPT-4, modelo que hasta la fecha de
corte de su conocimiento, no existía.
ㅤ
📥 Prompt: “¿Qué es GPT-4?”
❌ Respuesta: GPT-4 es una hipotética versión futura de la familia de modelos de
lenguaje GPT (Generative Pre-trained Transformer) de OpenAI. Actualmente, el
modelo más avanzado de esta familia es GPT-3, lanzado en 2020. GPT-4 sería una
versión mejorada de GPT-3, con un mayor número de parámetros y una capacidad
aún mayor para generar texto coherente y humano-like. Sin embargo, no se sabe
cuándo será lanzado o cuáles serán sus características específicas.
ㅤ
Ahora, a través de una instrucción, vamos a integrarle información reciente de OpenAI sobre
GPT-4, para que la integre a sus conocimientos previos y pueda generarnos respuesta mucho
más precisa, ahora conociendo detalles sobre GPT-4 que anteriormente no conocía.
ㅤ
📥 Prompt: Integra la siguiente información con tu conocimiento en modelos de AI.
ㅤ
Información: GPT-4 es un gran modelo multimodal (que acepta entradas de
imagen y texto, y emite salidas de texto) que exhibe un rendimiento a nivel
humano en varios puntos de referencia académicos y profesionales. Por ejemplo,
aprueba un examen de barra simulado con una puntuación de alrededor del 10 %
superior de los examinados; por el contrario, la puntuación de GPT-3.5 se situó en
torno al 10 % inferior. En una conversación informal, la distinción entre GPT-3.5 y
GPT-4 puede ser sutil. La diferencia surge cuando la complejidad de la tarea
alcanza un umbral suficiente: GPT-4 es más confiable, creativo y capaz de manejar
instrucciones mucho más matizadas que GPT-3.5.
ㅤ
Para comprender la diferencia entre los dos modelos, se probó en una variedad de
puntos de referencia, incluida la simulación de exámenes que fueron diseñados
originalmente para humanos. Se procedió usando las pruebas disponibles
públicamente más recientes (en el caso de las preguntas de respuesta libre de las
Olimpiadas y AP) o comprando las ediciones 2022-2023 de los exámenes de
práctica. No se realizó ningún entrenamiento específico para estos exámenes. El
modelo detectó una minoría de los problemas en los exámenes durante el
entrenamiento.”
🧠 Respuesta: (…)
ㅤ
📥 Prompt: “¿Qué es GPT-4?”
✅ Respuesta: GPT-4 es un modelo de lenguaje de inteligencia artificial que acepta
entradas de imagen y texto, y emite salidas de texto, y se caracteriza por ser un
gran modelo multimodal que exhibe un rendimiento a nivel humano en varios
puntos de referencia académicos y profesionales. GPT-4 ha superado a su
predecesor, GPT-3.5, en términos de confiabilidad, creatividad y capacidad para
manejar instrucciones más matizadas. Además, se ha probado en una variedad de
puntos de referencia, incluyendo la simulación de exámenes diseñados
originalmente para humanos, en los cuales ha obtenido resultados sobresalientes.
Hiper parametros:
La generación de contenido extenso con ChatGPT es una tarea interesante pero que requiere
de un enfoque estratégico para obtener los mejores resultados. En este sentido, es importante
tener en cuenta ciertas técnicas que nos permitan optimizar la generación de contenido largo y
estructurado.
Una forma efectiva de generar contenidos largos con ChatGPT es a través de la segmentación y
la creación de preguntas incrementales. En primer lugar, se debe definir el tema central del
contenido y elaborar un esquema de los diferentes subtemas que se abordarán en el texto.
A continuación, se pueden crear preguntas para cada uno de estos subtemas, lo que permitirá
a ChatGPT generar respuestas más precisas y específicas. Es importante hacer preguntas
incrementales para guiar al modelo hacia el contenido deseado, evitando así respuestas
demasiado generales o irrelevantes.
El proceso para escribir un libro o post largo con ChatGPT puede seguir los siguientes pasos:
Definir el tema central: Lo primero es elegir el tema sobre el cual se desea escribir. Este debe
ser específico y estar relacionado con el área de conocimiento del modelo.
Crear un esquema: A continuación, se debe elaborar un esquema del contenido a desarrollar,
incluyendo los subtemas que se abordarán en el texto. Este esquema puede ser creado a mano
o utilizando herramientas como MindMeister o LucidChart.
Crear preguntas incrementales: Para cada uno de los subtemas del esquema, se deben crear
preguntas que guíen al modelo hacia la información deseada. Es importante hacer preguntas
incrementales y específicas para obtener respuestas precisas.
Generar el contenido: A partir de las preguntas, se puede comenzar a generar el contenido del
texto. Es importante revisar las respuestas generadas por ChatGPT y hacer las correcciones
necesarias para garantizar la coherencia y la calidad del contenido.
Editar y pulir el contenido: Una vez generado el contenido, es necesario hacer una revisión
cuidadosa para corregir errores gramaticales y ortográficos, y asegurarse de que el texto tenga
coherencia y fluidez.
Añadir detalles y enriquecer el contenido: Por último, se pueden añadir detalles y enriquecer el
contenido del texto, utilizando la información adicional que se haya obtenido en el proceso de
generación de contenido.
Siguiendo estos pasos, es posible generar contenido extenso y estructurado con ChatGPT. Sin
embargo, es importante tener en cuenta que el modelo no siempre proporcionará respuestas
precisas y relevantes, por lo que es necesario hacer una revisión cuidadosa del contenido
generado para garantizar su calidad y relevancia.
Corrección de estilos
Resumen y notas importantes sobre la clase de ChatGPT como mentor personalizado
Para convertir a ChatGPT en nuestro mentor personalizado debemos tener en cuenta estos
aspectos:
1.Debemos realizar el prompt o consulta, en lenguaje natural como lo hemos venido haciendo
previamente, pidiéndole, por ejemplo, que se nuestro profesor de inglés, programación,
marketing, entre muchos otros posibles usos y le podemos dar todas las instrucciones y
parámetros que se ajusten a nuestras necesidades.
2.Seguimos las instrucciones que nos da ChatGPT, y él incluso es capaz de darnos
retroalimentación y las correcciones necesarias en caso de haberlas, incluso como en el caso
del video. Sin embargo, debemos tener en cuenta que de todos modos ChatGPT puede obviar
y no corregir oportunamente errores de tipeo porque tiene una amplia compresión del
lenguaje natural. Asimismo, puede presentar ligeros errores al momento de corregirnos
ejercicios de programación, como lo visto con el ejemplo con PyTorch.
3.Es importante tener en cuenta que ChatGPT no reemplaza a un profesor o tutor humano,
porque de todos modos estos últimos pueden adaptar su enseñanza a las necesidades
individuales de cada estudiante, proporcionar retroalimentación inmediata y responder a
preguntas específicas. Además, debemos recordar que la enseñanza humana puede incluir
aspectos más allá del contenido, como el desarrollo de habilidades sociales y emocionales y el
fomento de la motivación y la autoestima.
Google calendar actua con archivos .ics . Le podemos pedir a ChatGpt que nos los cree
----------------------------------------------------------------
¿Qué es la técnica de chain-of-thought prompting?
Chain-of-Thought Prompting
Introducción
El Chain-of-Thought prompting es una técnica de modelado de lenguaje natural utilizada
en la inteligencia artificial. Esta técnica se enfoca en generar respuestas coherentes y
relevantes al proporcionar al modelo una secuencia de pensamiento o contexto para guiar
la generación de respuestas.
Desarrollo
El Chain-of-Thought prompting utiliza una serie de indicaciones o información que guían al
modelo en la generación de respuestas coherentes y relevantes. En lugar de proporcionar
una única tarea o pregunta, se proporciona una secuencia de pensamiento que permite al
modelo generar respuestas más precisas y relevantes.
Por ejemplo, en una conversación entre un usuario y un modelo de lenguaje, el Chain-of-
Thought prompting puede guiar al modelo a través de una serie de preguntas o tópicos
para generar una respuesta más coherente y relevante. Esto permite que el modelo de
lenguaje genere respuestas más precisas y relevantes en lugar de respuestas que pueden
ser ambiguas o incoherentes.
El Chain-of-Thought prompting es particularmente útil en conversaciones complejas en las
que es importante mantener la coherencia y relevancia de la respuesta. Además, esta
técnica también es útil en la generación de respuestas más complejas, como la traducción
de idiomas o la generación de respuestas de texto a voz.
Conclusiones
El Chain-of-Thought prompting es una técnica de modelado de lenguaje natural que
permite al modelo generar respuestas coherentes y relevantes al proporcionar una
secuencia de pensamiento o contexto que guía la generación de respuestas. Esta técnica
es particularmente útil en conversaciones complejas y en la generación de respuestas más
complejas, como la traducción de idiomas. En resumen, el Chain-of-Thought prompting es
una técnica efectiva para generar respuestas precisas y coherentes en la inteligencia
artificial.
Cadena de pensamiento
Logica matematica
Paso a paso como responder
Darle una cadena de pensamientos
Determina una solucion basada en el analisis
zero shot
Ya conoces la utilidad que tiene la cadena de pensamiento como técnica de Provenience
Engineering.
Es una técnica muy útil para resolver problemas muy específicos o especificar cadenas de
pensamiento muy complejas como la que vimos en el ejemplo de la resolución de problemas
o de toma de decisiones.
cualquier otro texto que quisiéramos probar para cambiar su estilo, tono, etc
Inicio, Contexto, Idea Principal y Conclusiones
Trabaja sobre el uso de LLM o Large Language Models
o grandes modelos de lenguaje natural en inteligencia artificial para la automatización de
tareas.
Puedo generar contenido y
también hacer correcciones a algún contenido que ya existe, ya sea cambiando su estilo
y tono, o formatos específicos.
ChatGPT es una poderosa herramienta que utiliza inteligencia artificial para generar texto de
forma automática. Con esta tecnología, es posible generar textos de alta calidad y gran
variedad, desde respuestas cortas hasta párrafos extensos.
• Nos permite generar textos con un formato de escritura y corregir textos que hemos
generado previamente.
Uso global para cualquier ámbito
Puede reescribir
Puede ser formal, especifico al generar texto
Bajar la temperatura
• De igual manera podemos pedirle que nos modifique un texto ya existente.
• Al igual que en ejemplos previos de este curso, debemos pedirle en lenguaje natural para
que se comporte como un “experto editor de texto”, y le pedimos la estructura que más se
ajuste a nuestras necesidades.
• Le damos el tema del que queremos que nos redacte el artículo y él lo hace
automáticamente.
• En caso de que no estemos conformes con el resultado, o queramos un formato o estilo de
redacción diferente se lo podemos pedir sin ningún problema. Podemos incluso pedir que el
estilo de redacción sea el de una caricatura o serie de televisión, como en el caso de este
ejemplo “Ricky Morty”.
• Por último, podemos generar contenido sobre el tema de nuestra elección o pedirle que nos
ayude corrigiendo un contenido ya existente.