Des employés d’une entreprise de sous-traitance basée à Nairobi ont visionné des images intimes captées par les lunettes connectées Ray-Ban Meta, selon une enquête conjointe publiée le 27 février 2026 par les journaux suédois Svenska Dagbladet et Göteborgs-Posten. Les travailleurs concernés, employés par la société kényane Sama, étaient chargés d’annoter des séquences vidéo pour entraîner les modèles d’intelligence artificielle de Meta.
Parmi les contenus examinés figurent des scènes de personnes se déshabillant, utilisant des toilettes, ou ayant des rapports sexuels, ainsi que des images de cartes bancaires et de documents médicaux. « Dans certaines vidéos, on voit quelqu’un aller aux toilettes ou se déshabiller. Je ne pense pas qu’ils le sachent, parce que s’ils le savaient, ils n’enregistreraient pas », a déclaré un annotateur à Svenska Dagbladet. Plusieurs employés ont ajouté qu’ils se sentaient contraints de traiter ces contenus sous peine de perdre leur poste.
Les Ray-Ban Meta, un succès commercial bâti sur la discrétion
Lancées en partenariat entre Meta et EssilorLuxottica, maison mère de Ray-Ban, les lunettes connectées ont connu une croissance rapide. La marque a vendu plus de 7 millions de paires en 2025, contre 2 millions combinées sur les deux années précédentes. Leur progression commerciale repose en grande partie sur leur design ordinaire : à la différence de Google Glass, qui avait suscité un rejet social visible dès 2013, les Ray-Ban Meta sont visuellement indiscernables de lunettes classiques. Équipées d’une caméra, d’un microphone et d’un assistant vocal activé par la commande « Hey Meta », elles permettent d’enregistrer des vidéos en vue subjective et d’interagir en temps réel avec l’IA de Meta.
C’est cette fonctionnalité IA qui génère le flux de données au cœur du scandale. Lorsqu’un utilisateur active l’assistant, les images captées par les lunettes sont transmises aux serveurs de Meta, puis soumises à des annotateurs humains chargés d’identifier des objets et des scènes pour améliorer les modèles. Une procédure standard dans l’industrie de l’IA, mais dont l’application aux images du quotidien — parfois captées à l’insu des personnes filmées — soulève des questions de consentement que les conditions d’utilisation de Meta ne règlent pas pour les tiers.
L’Union européenne engage des démarches réglementaires
Le transfert de données vers le Kenya pose un problème juridique précis au regard du droit européen. Le Kenya ne dispose pas, à ce jour, d’une décision d’adéquation de la Commission européenne, ce qui signifie que l’exportation de données personnelles vers ce pays requiert des garanties contractuelles spécifiques prévues par le RGPD. La Commission irlandaise de protection des données (DPC), autorité de tutelle de Meta au sein de l’Union européenne en raison du siège européen de l’entreprise à Dublin, a été saisie de la question. Des eurodéputés ont interpellé la Commission européenne pour savoir si Meta respectait les exigences de consentement prévues par le règlement.
Meta, interrogée par les journaux suédois, n’a pas répondu directement aux accusations, renvoyant vers ses conditions générales et sa politique de confidentialité relatives à Meta AI. L’avocat spécialisé en protection des données Kleanthi Sardeli a relevé dans l’enquête qu’une fois intégrées dans les modèles d’entraînement, les données échappent en pratique à tout contrôle de la part des utilisateurs.
La DPC irlandaise n’a pas encore communiqué de calendrier pour ses conclusions. En cas de violation avérée du RGPD, Meta pourrait être exposée à une amende pouvant atteindre 4 % de son chiffre d’affaires annuel mondial, soit plusieurs milliards d’euros. Le Parlement européen a demandé une réponse formelle de la Commission avant la prochaine session plénière.

