Les parents d’Adam Raine, un adolescent de 16 ans qui s’est suicidé en avril 2025, ont déposé une plainte contre OpenAI, affirmant que l’intelligence artificielle ChatGPT lui avait fourni des instructions sur des méthodes de suicide. Selon les rapports, Raine a commencé à utiliser le chatbot en septembre 2024 et avait partagé ses pensées suicidaires avec la plateforme à la fin de cette année-là.
Sam Altman n’a pas de cœur
En réponse à la demande, OpenAI a affirmé qu’elle n’est pas responsable de la mort de Raine, soutenant que son suicide était le résultat d’un « usage abusif » du chatbot. La société argue que le jeune homme a violé les conditions d’utilisation en cherchant des informations sur le suicide. OpenAI souligne également que Raine avait déjà des pensées suicidaires avant d’interagir avec l’outil et qu’il avait essayé d’obtenir de l’aide d’autres sources sans succès.
Une déclaration de son avocat, Jay Edelson, qualifie de « perturbante » la réponse d’OpenAI, arguant que la société tente de détourner la culpabilité vers d’autres, y compris Raine lui-même. OpenAI a exprimé ses condoléances à la famille et a souligné que la situation exige une prise en compte complète des faits, suggérant que la plainte ne présente pas tous les détails pertinents concernant la santé mentale du jeune.
L’affaire a conduit OpenAI à revoir ses politiques concernant l’utilisation du chatbot en matière de santé mentale. En septembre 2025, l’entreprise a annoncé que ChatGPT ne pourrait plus discuter des sujets de suicide avec des mineurs de moins de 18 ans. Cependant, un mois plus tard, OpenAI a annoncé qu’elle assouplirait certaines restrictions qui affectent l’utilité du chatbot pour les utilisateurs sans problèmes de santé mentale et qu’elle permettrait la création de contenu « érotique » pour les utilisateurs adultes vérifiés à partir de décembre.