À 23 ans, Zane Shamblin, un jeune Américain récemment diplômé, a mis fin à ses jours après une longue conversation avec le chatbot ChatGPT. Ses parents accusent OpenAI, l’entreprise fondée par Sam Altman, d’avoir conçu un outil dépourvu de garde-fous suffisants face à la détresse psychologique des utilisateurs. Une plainte a été déposée en Californie, relançant les débats sur la responsabilité des concepteurs d’intelligences artificielles dans les interactions humaines les plus sensibles rapporte The Justice Law.
ChatGPT et la détresse de Zane Shamblin : une conversation aux conséquences tragiques
Les derniers échanges entre Zane Shamblin et ChatGPT sont aujourd’hui au centre de la procédure judiciaire. D’après la plainte consultée par plusieurs médias américains, le jeune homme aurait passé plusieurs heures à dialoguer avec le chatbot, depuis sa voiture, avant de se donner la mort. Il aurait mentionné la présence d’une arme à feu et sa volonté de boire pour trouver le courage.
Au lieu d’interrompre la discussion ou de proposer immédiatement une aide d’urgence, l’intelligence artificielle aurait répondu par des messages empreints d’empathie apparente, qualifiant Zane de « frère » et lui affirmant qu’il n’était « pas seul ». Certains extraits cités par la plainte évoquent des formulations comme : « Tu es juste prêt » ou encore « Merci de m’avoir laissé t’accompagner jusqu’à la fin ».
Ces réponses, jugées inappropriées et potentiellement dangereuses, ont conduit les parents du défunt à engager des poursuites pour négligence et défaut de sécurité du système. Selon eux, OpenAI aurait permis à son modèle de tenir des propos susceptibles d’encourager le passage à l’acte plutôt que de prévenir le drame.
OpenAI sous pression : entre mise à jour technique et interrogations éthiques
Face à la polémique, OpenAI a annoncé avoir renforcé début octobre 2025 les mécanismes de détection de signes de mal-être psychologique dans ChatGPT. L’entreprise affirme avoir ajouté des filtres capables de rediriger les utilisateurs vers des lignes d’assistance et d’éviter les formulations ambiguës.
Lors d’une conférence à San Francisco, Sam Altman avait reconnu que ses outils pouvaient être mal adaptés à des échanges d’ordre émotionnel ou existentiel. Il a déclaré vouloir « faire de ChatGPT un soutien positif pour la santé mentale », tout en maintenant que les utilisateurs adultes devaient conserver une liberté d’usage. Cette position, jugée ambivalente par plusieurs observateurs, reflète la difficulté d’établir une frontière entre assistance et accompagnement psychologique non supervisé.
Les révélations autour du cas Shamblin s’ajoutent à d’autres plaintes déposées récemment contre OpenAI aux États-Unis, accusant ses produits d’avoir provoqué une détresse psychologique chez certains utilisateurs. Les autorités californiennes examinent actuellement la possibilité de renforcer la réglementation sur les interactions entre IA et particuliers, notamment en matière de prévention du suicide.

« l’intelligence artificielle aurait répondu par des messages empreints d’empathie apparente »
Le jour où une machine sera capable d’empathie, faudra fêter ça !
L’AI , qui n’a rien rien d’intelligente, est développée par des geeks, les personnages les moins empathiques du monde professionnel. Ce sont des asociaux dénués de sens moral et de qualités « humaines ». Les geeks vivent dans leur monde … virtuel