L’introduction d’une fonctionnalité pour étiqueter les images modifiées comme « médias manipulés » est une nouvelle étape pour X, le réseau social dérivé de Twitter, qui cherche à lutter contre la diffusion de contenus trompeurs. Cette fonctionnalité, annoncée par Elon Musk lui-même, vise à rendre plus difficile la propagation de contenus manipulés, mais les détails sur son fonctionnement restent encore flous.
Comment fonctionnera cette nouvelle fonctionnalité ?
La fonctionnalité, baptisée « Edited visuals warning », a été présentée par Elon Musk dans un post sur X, mais les informations sur son fonctionnement sont limitées. Il n’est pas clair si cette fonctionnalité sera capable de détecter les images modifiées à l’aide d’outils traditionnels tels que Adobe Photoshop, ou si elle se concentrera uniquement sur les contenus générés par l’intelligence artificielle (IA). Il est également incertain si cette fonctionnalité est entièrement nouvelle ou si elle s’appuie sur les politiques existantes de Twitter en matière de contenus manipulés.
Les défis de la détection des contenus manipulés
La détection des contenus manipulés est un défi complexe, notamment avec l’intégration croissante de l’IA dans les outils de création. Par exemple, Meta a récemment introduit une fonctionnalité pour étiqueter les images générées par l’IA, mais a rencontré des problèmes avec des faux positifs, les images réelles étant étiquetées à tort comme « créées avec l’IA ». Cette erreur a été causée par l’utilisation d’outils de création qui intègrent l’IA, tels que les fonctionnalités de retouche d’images d’Adobe. Pour éviter ces problèmes, X devra mettre en place un processus solide pour identifier les contenus manipulés, mais les détails sur ce processus restent à ce jour inconnus.
Les initiatives pour l’authenticité des contenus
Il existe des initiatives en cours pour établir des normes pour l’authenticité et la provenance des contenus numériques, telles que la Coalition pour la provenance et l’authenticité des contenus (C2PA). Cette coalition regroupe des entreprises comme Microsoft, Adobe et Google, qui travaillent ensemble pour développer des normes pour la vérification de l’authenticité des contenus. Il est probable que X doive se conformer à ces normes pour assurer l’efficacité de sa fonctionnalité de détection des contenus manipulés. Cependant, X n’est pas actuellement membre de la C2PA, et il est incertain si l’entreprise va adhérer à ces normes ou développer son propre processus de détection.