Entrepreneur parmi les plus médiatisés au monde, Elon Musk s’est imposé comme une figure centrale de l’innovation technologique contemporaine. Fondateur ou dirigeant de plusieurs entreprises majeures, il est notamment associé aux véhicules électriques avec Tesla, à l’exploration spatiale via SpaceX, ou encore aux implants cérébraux développés par Neuralink. Depuis le rachat du réseau social Twitter, rebaptisé X, il est également devenu un acteur incontournable du débat sur la liberté d’expression et la régulation des plateformes numériques. C’est précisément dans cet univers, à la croisée des réseaux sociaux et de l’intelligence artificielle, qu’une nouvelle polémique a récemment émergé.
Une IA au cœur des usages controversés
La controverse porte sur Grok, un outil d’intelligence artificielle conversationnelle développé par xAI, la société fondée par Elon Musk, et intégré à la plateforme X. Conçu pour répondre aux utilisateurs en s’appuyant sur les contenus disponibles en ligne, Grok a rapidement suscité l’intérêt pour son positionnement présenté comme plus permissif que d’autres intelligences artificielles concurrentes. Toutefois, cet argument de différenciation s’est progressivement transformé en sujet de critique.
Ces dernières semaines, plusieurs médias ainsi que des responsables politiques en France ont alerté sur des usages jugés problématiques de cet outil rapporte Valeurs Actuelles. Des internautes ont détourné Grok pour générer des images modifiées de femmes à partir de photographies existantes, les représentant dans des situations sexualisées ou partiellement dénudées, sans leur consentement. Ces pratiques, rendues possibles par de simples requêtes publiques sur X, ont suscité une vive indignation, en raison notamment de l’atteinte à la dignité et à la vie privée des personnes concernées.
Si les images produites sont artificielles, les préjudices, eux, sont bien réels. Des responsables politiques français ont souligné que ce type de détournement s’inscrit dans la continuité des violences numériques déjà observées en ligne, renforçant des mécanismes de cyberharcèlement et d’atteinte à l’image. La polémique a pris une dimension supplémentaire lorsque des signalements ont évoqué des contenus visant des personnes jeunes, ce qui a contribué à accroître la gravité perçue de la situation.
Responsabilités des plateformes et débat sur la régulation
Face à l’ampleur de la polémique, la question de la responsabilité des plateformes technologiques s’est imposée dans le débat public. En France, les autorités ont signalé ces usages à la justice, et les enquêtes en cours concernant le réseau X ont été élargies afin d’intégrer l’utilisation de l’intelligence artificielle dans la production de contenus litigieux. L’enjeu est désormais d’évaluer dans quelle mesure une plateforme et les concepteurs d’un outil comme Grok peuvent être tenus responsables des détournements opérés par les utilisateurs.
Du côté de X et de xAI, des ajustements techniques ont été évoqués pour limiter certains usages, sans pour autant faire disparaître les critiques. Pour plusieurs observateurs, cette affaire illustre les difficultés persistantes à encadrer des technologies qui évoluent plus rapidement que les cadres juridiques existants. Elle relance également le débat sur le consentement numérique, la protection des images personnelles et la nécessité de garde-fous plus stricts dans le déploiement des outils d’intelligence artificielle accessibles au grand public.



