Une campagne de désinformation pro-russe utilise des outils d'IA gratuits pour alimenter une « explosion de contenu »

Une campagne de désinformation pro-russe utilise des outils d’intelligence artificielle grand public pour alimenter une « explosion de contenu » visant à exacerber les tensions existantes autour des élections mondiales, de l’Ukraine et de l’immigration, entre autres questions controversées, selon une nouvelle étude publiée la semaine dernière .
La campagne, connue sous de nombreux noms, dont Opération Surcharge et Matriochka (d'autres chercheurs l'ont également liée à Storm-1679 ), est en cours depuis 2023 et a été soutenue par le gouvernement russe par plusieurs groupes, dont Microsoft et l' Institut pour le dialogue stratégique . La campagne diffuse de faux récits en se faisant passer pour des médias dans le but apparent de semer la division dans les pays démocratiques. Si la campagne cible des publics du monde entier, y compris les États-Unis , sa principale cible est l'Ukraine. Des centaines de vidéos manipulées par l'IA tirées de la campagne ont tenté d'alimenter des récits pro-russes.
Le rapport décrit comment, entre septembre 2024 et mai 2025, la quantité de contenu produit par les responsables de la campagne a considérablement augmenté et reçoit des millions de vues dans le monde entier.
Dans leur rapport, les chercheurs ont identifié 230 contenus uniques promus par la campagne entre juillet 2023 et juin 2024, dont des photos, des vidéos, des codes QR et de faux sites web. Au cours des huit derniers mois, cependant, Operation Overload a produit un total de 587 contenus uniques, la majorité d'entre eux ayant été créés à l'aide d'outils d'IA, selon les chercheurs.
Les chercheurs ont indiqué que cette augmentation du contenu était due à des outils d'IA grand public, disponibles gratuitement en ligne. Cet accès facile a contribué à alimenter la stratégie de « fusion de contenu » de la campagne, où les responsables de l'opération ont pu produire plusieurs contenus promouvant le même sujet grâce à des outils d'IA.
« Cela marque une évolution vers des tactiques de propagande plus évolutives, multilingues et de plus en plus sophistiquées », écrivent les chercheurs de Reset Tech, une association londonienne qui suit les campagnes de désinformation, et de Check First, une société de logiciels finlandaise, dans leur rapport. « La campagne a considérablement accéléré la production de nouveaux contenus au cours des huit derniers mois, marquant une transition vers des méthodes de création de contenu plus rapides et plus évolutives. »
Les chercheurs ont également été stupéfaits par la variété des outils et des types de contenu utilisés par la campagne. « J'ai été surprise par la diversité des contenus, les différents types de contenus qu'ils ont commencé à utiliser », explique à WIRED Aleksandra Atanasova, chercheuse principale en intelligence open source chez Reset Tech. « C'est comme s'ils avaient diversifié leur palette pour saisir autant d'angles différents de ces histoires. Ils superposent différents types de contenus, les uns après les autres. »
Atanasova a ajouté que la campagne ne semblait pas utiliser d'outils d'IA personnalisés pour atteindre ses objectifs, mais utilisait des générateurs de voix et d'images alimentés par l'IA qui sont accessibles à tous.
Bien qu’il ait été difficile d’identifier tous les outils utilisés par les agents de campagne, les chercheurs ont pu se concentrer sur un outil en particulier : Flux AI.
Flux AI est un générateur de texte en image développé par Black Forest Labs, une entreprise allemande fondée par d'anciens employés de Stability AI. Grâce à l'outil d'analyse d'images SightEngine, les chercheurs ont constaté une probabilité de 99 % qu'un certain nombre de fausses images partagées par la campagne Overload – dont certaines prétendaient montrer des migrants musulmans en train de participer à des émeutes et d'allumer des incendies à Berlin et à Paris – aient été créées grâce à la génération d'images de Flux AI.
Les chercheurs ont ensuite pu générer des images reproduisant fidèlement l’esthétique des images publiées en utilisant des invites contenant un langage discriminatoire, comme « hommes musulmans en colère ».
Cela met en évidence « comment les modèles d'IA de conversion de texte en image peuvent être utilisés à mauvais escient pour promouvoir le racisme et alimenter les stéréotypes anti-musulmans », ont écrit les chercheurs, ajoutant que cela soulève « des préoccupations éthiques sur la façon dont les invites fonctionnent dans différents modèles de génération d'IA ».
« Nous intégrons plusieurs niveaux de protection pour prévenir les utilisations abusives, notamment des métadonnées de provenance permettant aux plateformes d'identifier les contenus générés par l'IA, et nous aidons nos partenaires à mettre en œuvre des outils supplémentaires de modération et de provenance », a écrit un porte-parole de Black Forest Labs dans un courriel adressé à WIRED. « La prévention des utilisations abusives dépendra de plusieurs niveaux de protection ainsi que de la collaboration entre les développeurs, les plateformes de réseaux sociaux et les autorités, et nous restons déterminés à soutenir ces efforts. »
Atansova a déclaré à WIRED que les images qu'elle et ses collègues ont examinées ne contenaient aucune métadonnée.
Operation Overload utilise également l'IA pour manipuler les vidéos et faire croire que des personnalités importantes disent des choses qu'elles n'ont jamais dites. Le nombre de vidéos produites par la campagne est passé de 150 entre juin 2023 et juillet 2024 à 367 entre septembre 2024 et mai 2025. Les chercheurs ont indiqué que la majorité des vidéos des huit derniers mois utilisaient l'IA pour tromper leurs spectateurs.
Par exemple, la campagne a publié en février sur X une vidéo dans laquelle Isabelle Bourdon, maître de conférences et chercheuse à l'Université de Montpellier (France), semblait encourager les citoyens allemands à participer à des émeutes de masse et à voter pour le parti d'extrême droite Alternative pour l'Allemagne (AfD) aux élections fédérales. C'était un faux : la vidéo provenait d'une vidéo diffusée sur la chaîne YouTube officielle de l'université, où Bourdon discutait d'un récent prix en sciences sociales qu'elle avait remporté. Mais dans cette vidéo manipulée, une technologie de clonage vocal par IA donnait l'impression qu'elle parlait des élections allemandes.
Le contenu généré par l'IA et produit par Operation Overload est partagé sur plus de 600 chaînes Telegram, ainsi que par des comptes robots sur des plateformes de réseaux sociaux comme X et Bluesky. Ces dernières semaines, ce contenu a également été partagé pour la première fois sur TikTok. Ce phénomène a été repéré pour la première fois en mai, et malgré un nombre limité de comptes (seulement 13), les vidéos publiées ont été vues 3 millions de fois avant que la plateforme ne les rétrograde.
« Nous sommes extrêmement vigilants face aux acteurs qui tentent de manipuler notre plateforme et avons déjà supprimé les comptes mentionnés dans ce rapport », a déclaré Anna Sopel, porte-parole de TikTok, à WIRED. « Nous détectons, perturbons et veillons à anticiper les opérations d'influence secrètes en permanence et rendons compte de nos progrès en toute transparence chaque mois. »
Les chercheurs ont souligné que même si Bluesky avait suspendu 65 % des faux comptes, « X a pris des mesures minimales malgré de nombreux rapports sur l'opération et des preuves croissantes de coordination. » X et Bluesky n'ont pas répondu aux demandes de commentaires.
Une fois que le contenu faux et généré par l'IA est créé par Operation Overload, la campagne fait quelque chose d'inhabituel : ils envoient des e-mails à des centaines de médias et d'organisations de vérification des faits à travers le monde, avec des exemples de leur faux contenu sur diverses plateformes, ainsi que des demandes aux vérificateurs de faits d'enquêter pour savoir s'il est réel ou non.
Même s’il peut sembler contre-intuitif pour une campagne de désinformation d’alerter ceux qui tentent de lutter contre la désinformation sur leurs efforts, pour les agents pro-russes, faire publier leur contenu en ligne par un véritable média d’information – même s’il est couvert du mot « FAKE » – est le but ultime.
Selon les chercheurs, jusqu'à 170 000 de ces e-mails ont été envoyés à plus de 240 destinataires depuis septembre 2024. Les messages contenaient généralement plusieurs liens vers le contenu généré par l'IA, mais le texte de l'e-mail n'a pas été généré à l'aide de l'IA, ont déclaré les chercheurs.
Les groupes de désinformation pro-russes expérimentent depuis longtemps l'utilisation d'outils d'IA pour optimiser leur production. L'année dernière, un groupe baptisé CopyCop , probablement lié au gouvernement russe, a été accusé d'utiliser des modèles de langage à grande échelle (MLL) pour créer de faux sites web conçus pour ressembler à des médias légitimes. Si ces tentatives génèrent généralement peu de trafic, la promotion qui les accompagne sur les réseaux sociaux peut attirer l'attention et, dans certains cas, les fausses informations peuvent se retrouver en tête des résultats de recherche Google .
Un rapport récent de l'American Sunlight Project estime que les réseaux de désinformation russes produisent au moins 3 millions d'articles générés par l'IA chaque année, et que ce contenu empoisonne la production de chatbots alimentés par l'IA comme ChatGPT d'OpenAI et Gemini de Google.
Les chercheurs ont montré à plusieurs reprises comment les agents de désinformation adoptent les outils d’IA, et comme il devient de plus en plus difficile pour les gens de distinguer le contenu réel du contenu généré par l’IA, les experts prédisent que l’augmentation du contenu d’IA alimentant les campagnes de désinformation va se poursuivre.
« Ils ont déjà la recette qui marche », explique Atanasova. « Ils savent ce qu'ils font. »
wired