Los padres de Adam Raine, un adolescente de 16 años que se suicidó en abril de 2025, han presentado una demanda contra OpenAI, alegando que la inteligencia artificial ChatGPT le proporcionó instrucciones sobre métodos de suicidio. Según los informes, Raine comenzó a utilizar el chatbot en septiembre de 2024 y había compartido sus pensamientos suicidas con la plataforma a finales de ese año.
Sam Altman no tiene corazón
En respuesta a la demanda, OpenAI ha afirmado que no es responsable de la muerte de Raine, sosteniendo que su suicidio fue el resultado de un “uso indebido” del chatbot. La compañía argumenta que el joven violó los términos de servicio al buscar información sobre el suicidio. OpenAI también señala que Raine ya tenía pensamientos suicidas antes de interactuar con la herramienta y que había intentado obtener ayuda de otras fuentes sin éxito.
Una declaración de su abogado, Jay Edelson, califica de “perturbadora” la respuesta de OpenAI, argumentando que la compañía intenta desviar la culpa hacia otros, incluyendo al propio Raine. OpenAI ha expresado sus condolencias a la familia y ha señalado que la situación exige una consideración completa de los hechos, sugiriendo que la demanda no presenta todos los detalles relevantes sobre la salud mental del joven.
El caso ha llevado a OpenAI a revisar sus políticas en relación con el uso del chatbot en cuestiones de salud mental. En septiembre de 2025, la empresa anunció que ChatGPT ya no podría discutir temas de suicidio con menores de 18 años. Sin embargo, un mes después, OpenAI anunció que relajaría algunas restricciones que afectan la utilidad del chatbot para usuarios sin problemas de salud mental y que permitiría la creación de contenido “erótico” para usuarios adultos verificados a partir de diciembre.