Alors que le Moyen-Orient traverse une période d'une violence inédite, une question technologique et éthique s'impose avec une urgence particulière. Les grandes plateformes sont-elles vraiment capables de contenir la désinformation en temps de crise ? Pour Meta, la réponse est clairement non et c'est son propre organe de surveillance qui le dit.
Le Meta Oversight Board, instance semi-indépendante chargée d'orienter les pratiques de modération de contenu de l'entreprise, vient de publier un rapport cinglant. Ses méthodes de détection des deepfakes sont jugées ni suffisamment robustes ni suffisamment complètes pour faire face à la vitesse à laquelle la désinformation se propage lors de conflits armés. En clair, Meta n'est pas prêt pour le monde dans lequel nous vivons.
Tout est parti d'une enquête sur une fausse vidéo générée par intelligence artificielle, montrant prétendument des bâtiments détruits en Israël. Elle avait circulé sur Facebook, Instagram et Threads l'année dernière. En remontant sa trace, le Board a découvert qu'elle semblait avoir d'abord été publiée sur TikTok avant de se diffuser sur les plateformes de Meta, puis sur X. Ce parcours transfrontalier montre à quel point la prolifération de contenus synthétiques est un défi qui dépasse largement les frontières d'une seule application.
Le timing du rapport n'est pas surprenant. L'organisme précise explicitement que ses recommandations sont particulièrement pertinentes en ce moment, face aux escalades militaires qui secouent le Moyen-Orient. Dans ce contexte, l'accès à une information fiable n'est pas seulement une question de confort ou de démocratie abstraite, c'est une question de sécurité physique pour des millions de personnes.
Un système trop dépendant de la bonne volonté des utilisateurs
Le diagnostic est précis et accablant. Le système actuel de Meta repose trop largement sur l'auto-déclaration. En d'autres termes, il revient aux créateurs de contenu eux-mêmes d'indiquer si leur publication a été générée par une IA. On imagine aisément les limites d'un tel mécanisme lorsqu'il s'agit justement de manipuler l'opinion publique. À cela s'ajoute une mise en œuvre jugée incohérente du standard C2PA, aussi connu sous le nom de Content Credentials, un système permettant d'encoder des métadonnées dans les fichiers pour indiquer leur origine et leur nature. Le Board s'inquiète que Meta applique ce standard de manière aléatoire, y compris sur des contenus produits par ses propres outils d'IA. Seule une partie des créations de Meta AI serait correctement étiquetée. C'est peu, et c'est préoccupant.
Ce que le Board demande concrètement
L'instance recommande à Meta de revoir en profondeur ses règles sur la désinformation pour mieux cibler les deepfakes trompeurs et d'établir des standards communautaires spécifiques aux contenus générés par IA. Elle appelle également à développer des outils de détection plus performants, à communiquer clairement sur les sanctions encourues en cas de violation des règles,et à généraliser l'apposition de labels « IA à haut risque » sur les images et vidéos synthétiques. Sur la question du C2PA, l'entreprise américaine est invité à améliorer son adoption et à rendre ces informations clairement visibles et accessibles aux utilisateurs ordinaires, pas seulement aux experts capables de lire des métadonnées techniques.
Une pression qui s'accumule
Meta n'est pas tenu de suivre juridiquement ces recommandations. Mais elles font écho aux inquiétudes exprimées publiquement l'an passé par Adam Mosseri, le patron d'Instagram, sur la nécessité de mieux distinguer photos authentiques et contenus manipulés. La pression, interne comme externe, monte. Dans un monde où une vidéo fabriquée peut attiser des violences réelles, l'inaction n'est plus une option défendable.

Commentaires