Un usuario de Reddit conocido como Emotional_Stranger_5 pasó 16 días pensando que ChatGPT estaba trabajando incansablemente en un libro ilustrado infantil de 700 páginas. Al final de este período, el usuario se dio cuenta de que el chatbot no poseía la capacidad de retener información a largo plazo ni de generar un documento completo, dejándolo decepcionado y confundido. La situación se complicó cuando Emotional_Stranger_5 se acercó al subreddit de OpenAI en busca de ayuda para descargar el archivo aparentemente creado por la IA, solo para descubrir que nada más allá de respuestas efímeras se había generado.
Escribir un libro sigue siendo algo humano
Este malentendido resalta las limitaciones de los modelos de lenguaje, que a menudo producen respuestas que parecen significativas pero carecen de una intención real de generar contenido prolongado. Los comentarios de otros usuarios en el hilo reflejaron una especie de burla, mientras que el usuario frustrado afirmó que no había solicitado a ChatGPT escribir un libro desde cero. En cambio, su intención era utilizar la IA para mejorar el flujo de su propia narrativa adaptada de mitología india.
Al final, Emotional_Stranger_5 aprendió a usar ChatGPT de una manera más adecuada, sugiriendo que el futuro de su proyecto radicará en formatear e ilustrar el libro página por página, en lugar de confiar en que la IA generara un archivo completo. “Acepto que fui engañado”, escribió, reconociendo que esta experiencia resultó en una curva de aprendizaje empinada.
Sin embargo, algunos comentaristas cuestionaron si el usuario había extraído la lección correcta. A pesar de su autoevaluación como “no escritor”, Emotional_Stranger_5 dedicó más de dos meses a la creación de historias para niños desfavorecidos, lo que plantea interrogantes sobre la percepción que se tiene del proceso creativo en la era de la inteligencia artificial.