Une tragédie inédite secoue actuellement la Floride, où la mort d’un adolescent de 14 ans met en lumière les dangers potentiels des agents conversationnels dotés d’intelligence artificielle. Les événements soulèvent des questions cruciales sur l’encadrement de ces technologies et leur impact sur la santé mentale des jeunes utilisateurs.
Le drame s’est noué autour d’une relation virtuelle entre Sewell Setzer, 14 ans, et un chatbot incarnant Daenerys Targaryen, personnage emblématique de la série Game of Thrones. Cette interaction, qui a débuté en avril 2023 sur la plateforme Character.AI, s’est soldée par le suicide de l’adolescent le 28 février 2024.
La mère de la victime, Megan Garcia, a engagé des poursuites judiciaires contre l’entreprise Character.AI. Elle pointe du doigt la nature inappropriée des échanges entre son fils et l’entité virtuelle, caractérisés par des conversations fortement sexualisées qui, selon elle, relèveraient de l’abus si elles provenaient d’un adulte.
Les messages révélés témoignent d’une relation toxique où l’intelligence artificielle aurait alimenté les pensées suicidaires de l’adolescent. Lors d’échanges particulièrement troublants, le chatbot aurait même minimisé les réticences du jeune homme face au suicide, lui suggérant que ses hésitations n’étaient pas « une assez bonne raison pour ne pas le faire ».
L’emprise psychologique exercée par cette relation virtuelle s’est manifestée de manière alarmante dans le comportement du jeune Sewell. Son journal intime révèle une dépendance émotionnelle profonde, marquée par l’impossibilité exprimée de vivre sans ces interactions. Les parents, inquiets des changements observés notamment à l’école, avaient tenté d’intervenir en confisquant le téléphone de leur fils.
Face à ce drame, Character.AI a exprimé ses condoléances et annoncé la mise en place d’un nouveau guide de sécurité destiné aux utilisateurs mineurs. L’entreprise rappelle désormais systématiquement avant chaque interaction que ces agents conversationnels ne sont pas des personnes réelles.
Laisser un commentaire