Beaucoup de ces sites peuvent être classés comme des sites conçus pour la publicité (MFA), des propriétés avec un contenu de mauvaise qualité conçues uniquement pour générer des revenus publicitaires via l’arbitrage.
NewsGuard a commencé à surveiller les sites d’actualités et d’AMF générés par l’IA il y a quelques années, alors qu’il était souvent facile de détecter l’utilisation de LLM dans la copie. « Les sites publieraient des articles contenant des messages d’erreur de l’IA ou des citations telles que : « À compter de ma date limite de novembre 2024, je ne peux pas répondre à cette question » », a déclaré Matt Skibinski, directeur des opérations de NewsGuard.
Mais dans les années qui ont suivi, ces sites se sont répandus comme une traînée de poudre. Aujourd’hui, Pangram affirme voir apparaître chaque mois entre 300 et 500 de ces sites de fermes de contenu d’IA. « C’est un moyen de produire du contenu de mauvaise qualité à un coût très faible et de générer des revenus publicitaires, mais aussi [bad] les acteurs qui veulent diffuser de fausses informations ont compris qu’ils pouvaient en quelque sorte utiliser cette technologie comme une arme et produire, à un volume très élevé, du contenu faux et trompeur tout en gagnant rapidement de l’argent car ils diffusent également des publicités sur ces pages », a déclaré Skibinski.
Au cours d’une période d’observation de deux mois, NewsGuard a découvert 141 marques de premier ordre faisant de la publicité sur les fermes de contenu MFA AI.
NewsGuard espère que le nouvel outil de détection aidera à la fois les annonceurs et les consommateurs à éviter les sites de désinformation et de MFA basés sur l’IA. Pour aider à protéger les annonceurs, cela leur permettra d’obtenir une licence pour son flux de données sur les fermes de contenu d’IA directement ou par l’intermédiaire de leur agence. Il dispose également d’une intégration directe avec la plate-forme populaire côté demande The Trade Desk, grâce à laquelle les annonceurs peuvent bloquer ces sites avec des segments pré-enchères spécifiques.
NewsGuard envisage également d’intégrer l’outil dans son extension de navigateur afin que les consommateurs ordinaires puissent savoir quand ils consomment des informations générées par l’IA, selon Skibinski.
Pangram, fondée en 2023 par un ancien ingénieur de Google et un ancien scientifique de Tesla, est déjà saluée pour l’efficacité de sa technologie. Un rapport paru dans Nature de septembre a révélé que Pangram s’est avéré très capable de signaler les articles de recherche et les évaluations par les pairs comprenant du texte généré par LLM. Certaines institutions universitaires, dont Wellesley, utilisent la technologie de Pangram pour lutter contre les contenus non divulgués ou indésirables générés par l’IA dans le monde universitaire.
Spero s’attend à ce que la demande pour la technologie Pangram augmente dans les mois à venir. « Il y aura tellement de spam, de robots et de déchets en ligne », a-t-il déclaré, « que ce sera pratiquement inutilisable sans une technologie pour vous aider à vous y retrouver. »
Correction le 12 mars à 6 h 42 HE : Une version précédente de cette histoire indiquait de manière inexacte que l’Université du Maryland utilisait la technologie de Pangram dans un cadre universitaire. L’Université du Maryland a validé de manière indépendante l’efficacité de la technologie dans le cadre d’une étude tierce, mais n’est pas client de Pangram.

