La société d’évaluation des médias et de suivi de la désinformation NewsGuard tente de stopper la propagation de la désinformation générée par l’IA et la dégradation de l’écosystème de l’information avec un nouveau projet qui s’appuie également sur l’IA.

Jeudi, NewsGuard a lancé un outil de détection de ferme de contenu IA conçu pour identifier quand les sites d’actualités et d’informations hébergent une partie importante de contenu qui semble être créé par de grands modèles de langage comme ChatGPT, Claude ou Gemini. Le projet a été lancé en collaboration avec la startup de détection de contenu AI Pangram Labs.

Le système utilise les modèles d’IA exclusifs de Pangram, spécialement formés pour identifier le contenu généré par l’IA, afin d’évaluer non seulement des pages Web individuelles, mais également de larges pans de domaines entiers. Une fois que la technologie de Pangram a identifié un site qui semble être une ferme de contenu IA, utilisant l’automatisation pour diffuser du contenu numérique en masse, elle signale le site à NewsGuard, dont les analystes effectuent ensuite des examens manuels. Ces experts examinent les conclusions de Pangram pour déterminer l’omniprésence du contenu de l’IA sur le site, recherchent des informations explicites indiquant que le contenu est généré par l’IA, recherchent des indicateurs indiquant que des auteurs humains sont impliqués et contactent les propriétaires de sites pour obtenir des informations supplémentaires afin de s’assurer qu’ils n’attribuent pas de faux positifs.

NewsGuard classe les sites Web comme fermes de contenu IA selon trois critères : une part « substantielle » du contenu est créée par l’IA, comme déterminé par Pangram ; le site ne révèle pas que son contenu est généré par l’IA (contrairement à de nombreux médias fiables qui partagent explicitement le moment où leur contenu est produit avec l’aide de l’IA) ; et l’apparence du site pourrait facilement induire l’utilisateur moyen en erreur en lui faisant croire que son contenu est créé par des humains. Ce contenu est, au mieux, peu fiable ; au pire, une désinformation ou une propagande intentionnelle et potentiellement dangereuse.

« Si nous ne parvenons pas à détecter le contenu de l’IA, alors chaque espace de communication sera inondé de contenu inauthentique, peu coûteux à produire et difficile, voire impossible, à différencier. [from] quelque chose d’authentique », a déclaré Max Spero, PDG de Pangram.

Le système de détection, en test depuis plus de six mois, a déjà aidé NewsGuard à signaler quelque 3 000 sites de fermes de contenu IA, soit plus du double de ce que l’organisation a pu identifier l’année dernière en utilisant principalement des techniques manuelles. Beaucoup d’entre eux sont commercialisés sous des noms génériques et médiatiques comme Times Business News ou Business Post, tout en publiant systématiquement des articles truffés de désinformation sur de vraies marques, des dirigeants politiques, des célébrités et des informations sur la santé publique.

Par exemple, un site appelé Citizen Watch Report, qui se présente comme « une belle sélection de sources médiatiques indépendantes », a publié l’année dernière un article affirmant que deux législateurs américains, le sénateur Lindsey Graham (R-SC) et le sénateur Richard Blumenthal (D-CT), avaient déboursé 814 000 $ pour des hôtels en Ukraine. La fausse affirmation s’est répandue sur les plateformes sociales et a été amplifiée dans les médias d’État russes avant d’être fermée pour fausse nouvelle.

Dans un autre exemple, un site appelé News 24 a faussement affirmé que Coca-Cola avait menacé de mettre fin à son parrainage du Super Bowl LIX à la suite de l’annonce selon laquelle le rappeur portoricain Bad Bunny serait la tête d’affiche de l’émission de la mi-temps du match. Coca-Cola n’était même pas sponsor du Super Bowl. La page Web de l’article affichait des publicités de marques mondiales, notamment AT&T, YouTube, Expedia, Hotels.com, Skechers et d’autres.