Il y a quelque chose de séduisant dans l'idée de lunettes intelligentes. Un assistant vocal discret, intégré dans une monture élégante, capable de traduire en temps réel, d'identifier ce que vous voyez, de répondre à vos questions d'un simple "Hey Meta". Mark Zuckerberg l'a compris avant tout le monde et il en a fait le produit phare de son empire technologique. Mais derrière cette promesse d'un quotidien augmenté se cache une réalité que peu d'utilisateurs soupçonnent. Leurs moments les plus intimes défilent sur des écrans à plus de 15 000 kilomètres de chez eux.
C'est ce que révèle une enquête menée conjointement par les journaux suédois Göteborgs-Posten et Svenska Dagbladet, en collaboration avec la journaliste d'investigation Naipanoi Lepapa, basée à Nairobi. Un travail de longue haleine qui expose le fonctionnement réel de la chaîne de sous-traitance du géant américain et les questions vertigineuses qu'elle soulève en matière de vie privée.
Nairobi, bout de la chaîne
Sur Mombasa Road, dans la capitale kényane, des rangées d'employés sont assis face à des écrans depuis des heures. Ils travaillent pour Sama, un sous-traitant de Meta. Leur mission, annoter des images et des vidéos pour entraîner les systèmes d'intelligence artificielle des lunettes Ray-Ban. On les appelle des "annotateurs de données", les ouvriers invisibles de la révolution IA. Ils dessinent des contours autour d'objets, identifient des visages, transcrivent des conversations. Tout cela pour que les lunettes deviennent un peu plus intelligentes, un peu plus humaines. Mais ce que ces travailleurs voient sur leurs écrans dépasse largement les fleurs et les panneaux de signalisation. Plusieurs d'entre eux, interrogés anonymement par les journalistes, décrivent des vidéos intimes filmées à l'insu de leurs protagonistes. Des scènes de chambre à coucher. Des personnes sortant de la salle de bain. Des moments sexuels. Des numéros de carte bancaire visibles par accident.
"Je vois tout, des salons aux corps nus. Meta a ce type de contenu dans ses bases de données. Les gens peuvent se filmer sans même savoir ce qu'ils enregistrent", confie l'un d'eux.
Les employés ont signé des accords de confidentialité stricts. Briser le silence, c'est risquer de perdre son emploi et de retomber dans la précarité. Ils parlent quand même, parce que ce qu'ils voient les trouble profondément. En Suède, les lunettes Meta Ray-Ban se vendent en grande surface d'optique. Les journalistes ont visité dix enseignes à Stockholm et Göteborg pour poser une question simple aux vendeurs: que se passe-t-il avec les données collectées par les lunettes ? Les réponses obtenues sont édifiantes, mais pour de mauvaises raisons.
"Rien n'est partagé avec Meta. Vous avez le contrôle total", assure un employé. "Tout reste en local dans l'application", dit un autre. Ces affirmations sont fausses.
Les journalistes ont acheté une paire de lunettes et analysé le trafic réseau généré lors de leur utilisation. Résultat, dès que la fonction IA est activée, le téléphone entre en contact avec les serveurs de Meta en Suède, au Danemark et ailleurs. Il est impossible d'utiliser l'assistant sans connexion internet. Les données sont systématiquement transmises à l'infrastructure de Meta. Aucun choix local n'est possible pour l'utilisateur.
Une transparence de façade
L'entreprise américaine affiche une politique de confidentialité détaillée. À première lecture, l'utilisateur semble disposer de droits étendus. Il peut choisir de ne pas partager ses données pour améliorer les produits. Mais plus loin dans les conditions d'utilisation, une clause clé apparaît. Pour que l'assistant IA fonctionne, voix, texte, images et parfois vidéos doivent être traités et peuvent être transmis à des tiers. Ce traitement est automatique et ne peut pas être désactivé. L'utilisateur n'a pas le choix. Il y participe obligatoirement dès qu'il utilise la fonction.
Meta précise également que les interactions avec ses IA peuvent faire l'objet d'une "révision manuelle", c'est-à-dire humaine. C'est exactement ce que font les annotateurs de Sama à Nairobi. Kleanthi Sardeli, avocate spécialisée en protection des données au sein de l'organisation NOYB à Vienne, pointe un problème de transparence flagrant. Les utilisateurs ne réalisent pas que la caméra enregistre dès qu'ils s'adressent à l'assistant. "Une fois que le matériel a été intégré aux modèles, l'utilisateur perd en pratique tout contrôle sur la façon dont il est utilisé", dit-elle.
La valeur cachée de vos habitudes
Petter Flink, spécialiste en sécurité informatique à l'autorité suédoise de protection des données personnelles, résume la situation avec une clarté désarmante. Ce que Meta collecte a bien plus de valeur que les lunettes elles-mêmes. Plus les données sur la vie quotidienne des utilisateurs sont précises, plus la publicité et les services peuvent être ciblés avec efficacité. "Peu de gens voudraient partager les détails de leur vie quotidienne à ce point. Mais quand c'est présenté de façon amusante et attrayante, il devient plus difficile de percevoir les risques", observe-t-il. La question du cadre légal se pose également. Le RGPD européen impose la transparence sur le traitement des données personnelles. Or, il n'existe pas à ce jour de décision de l'UE reconnaissant au Kenya un niveau de protection adéquat. Les données de millions d'utilisateurs européens transitent pourtant vers ce pays via les sous-traitants de Meta.
Ce que vous filmez sans le savoir
L'enquête se referme sur une image saisissante, d'un côté, un utilisateur qui pose ses lunettes sur sa table de nuit avant de quitter la pièce, ignorant que la caméra tourne encore. De l'autre, un annotateur à Nairobi qui regarde sa compagne entrer dans la chambre et se déshabiller. Ce n'est pas une dystopie. C'est ce qui se passe aujourd'hui.
"Si les gens savaient réellement l'étendue de cette collecte de données, personne n'oserait utiliser ces lunettes", conclut l'un des travailleurs kényans.
Il est permis d'en douter. Ou de le craindre.

Commentaires