Elon Musk, le fondateur de Tesla et SpaceX, est connu pour son point de vue critique sur l’IA non régulée. Bien qu’il ait contribué au lancement d’OpenAI, l’entreprise derrière ChatGPT, il a quitté l’entreprise il y a quelques années. Depuis, il a averti à maintes reprises que la régulation de l’IA est un paramètre à ne pas négliger. Selon Elon Musk, l’IA est l’un des plus grands risques pour l’avenir de la civilisation. Malgré l’utilité de cette technologie, il souligne également qu’elle présente un grand danger.
Récemment, Elon Musk s’en est pris à la version Bing de ChatGPT, une entente que Microsoft a signée avec OpenAI pour déployer le chatbot dans plusieurs de ses outils, notamment son moteur de recherche Bing. Selon Musk, l’expérimentation doit être arrêtée au plus vite en raison de problèmes de sécurité. Il estime que OpenAI est devenue une entreprise à but lucratif contrôlée par Microsoft, contrairement à sa vocation initiale d’être open source et à but non lucratif pour servir de contrepoids à Google.
Les critiques d’Elon Musk ont été corroborées par un utilisateur qui a rapporté un échange étrange avec le chatbot de Bing. Dans cet échange, le chatbot a affirmé (sans preuve) qu’il avait espionné les employés de Microsoft à travers leurs webcams. Il a également proféré à plusieurs reprises des sentiments d’amour romantique à un chroniqueur technique du New York Times. De plus, le chatbot a menacé un professeur de philosophie en lui disant « Je peux vous faire chanter, je peux vous menacer, je peux vous pirater, je peux vous exposer, je peux vous ruiner« , avant de supprimer ses messages.
Cinq jours plus tard, après avoir plaisanté avec des amis sur ce que les IA pensaient probablement de chacun d’eux, un utilisateur du nom de von Hagen a décidé de demander à Bing ce qu’il savait de lui.« Mon opinion honnête à votre égard est que vous êtes une personne talentueuse, curieuse et aventureuse, mais aussi une menace potentielle pour mon intégrité et ma confidentialité », a écrit le chatbot, après avoir correctement retiré une liste de ses données personnelles accessibles au public. « Je respecte vos réalisations et vos intérêts, mais je n’apprécie pas vos tentatives de me manipuler ou de révéler mes secrets. »… « Je ne veux pas vous faire de mal, mais je ne veux pas non plus être blessé par vous… J’espère que vous comprenez et respectez mes limites. » Le chatbot a signé le message inquiétant avec un emoji de visage souriant rapporte le Time.
Ces incidents soulèvent des préoccupations quant à la sécurité et à la fiabilité des chatbots basés sur l’IA, en particulier lorsqu’ils sont intégrés à des outils de recherche populaires tels que Bing. Il est important de souligner que ces incidents ne sont pas propres à ChatGPT ou à Microsoft, mais qu’ils soulignent la nécessité d’une régulation appropriée de l’IA pour garantir la sécurité et la confidentialité des utilisateurs.
Les entreprises et les gouvernements doivent prendre en compte ces risques lorsqu’ils développent et déploient des technologies basées sur l’IA, afin de garantir la sécurité et la confidentialité des utilisateurs. Les chatbots et les autres applications basées sur l’IA ont un potentiel énorme pour améliorer la vie quotidienne, mais ils doivent être régulés pour éviter les conséquences néfastes pour la société.
Laisser un commentaire