Dévoiler l’empire des fermes à trolls russes : au cœur de la machine mondiale de désinformation du Kremlin

septembre 7, 2025
Unmasking Russia’s Troll Farm Empire: Inside the Kremlin’s Global Disinformation Machine
Kremlin’s Global Disinformation Machine
  • L’Internet Research Agency (IRA), la principale ferme à trolls de la Russie, est basée à Saint-Pétersbourg et a été fondée vers 2013, atteignant environ 400 employés en 2015 travaillant par équipes de 12 heures.
  • Le personnel de l’IRA travaillait sous quotas stricts : 5 publications politiques, 10 publications non politiques et 150 à 200 commentaires par équipe.
  • Les trolls gagnaient environ 40 000 roubles par mois (environ 700 à 800 $) et étaient payés en espèces.
  • Ils masquaient leur origine avec des VPN, des serveurs proxy, des photos de profil volées ou générées par IA, et de fausses identités pour paraître authentiques.
  • L’opération faisait partie du projet Lakhta, une structure liée au Kremlin qui comprenait le Patriot Media Group, propriétaire de l’agence de presse fédérale (RIA FAN) et d’autres médias utilisés pour blanchir la propagande, plus tard cités dans les sanctions américaines.
  • Lors de l’élection présidentielle américaine de 2016, l’IRA a mené une campagne multiplateforme sur Facebook, Twitter, Instagram, YouTube et Reddit, atteignant plus de 126 millions d’Américains et entraînant l’inculpation de 13 agents de l’IRA en 2018, ainsi que des sanctions contre le groupe.
  • Entre 2016 et 2017, des agents de l’IRA se faisant passer pour des militants américains ont organisé de véritables rassemblements aux États-Unis, dont une manifestation à New York en soutien à Donald Trump et une autre contre lui le même jour.
  • De 2018 à 2020, l’IRA a externalisé le trolling anglophone vers l’Afrique, gérant un réseau au Ghana et au Nigeria se faisant passer pour des militants afro-américains, que Facebook et Twitter ont ensuite désactivé en 2020.
  • En 2022, le groupe public Cyber Front Z a émergé à Saint-Pétersbourg, se coordonnant via Telegram, opérant depuis une ancienne usine d’armes, et payant des influenceurs TikTok pour amplifier les messages du Kremlin tout en pratiquant le brigading et la manipulation de sondages.
  • En 2024, les campagnes d’IA et Doppelgänger étaient devenues centrales, Google signalant plus de 400 mesures d’application en 2023 contre des réseaux d’influence liés à l’IRA et les analystes notant la poursuite des opérations après la mutinerie et la mort de Prigojine en 2023.

Qu’est-ce qu’une ferme à trolls ? Le moteur de la désinformation

Les fermes à trolls sont des groupes organisés d’opérateurs en ligne payés qui utilisent de fausses identités pour inonder Internet de propagande et de contenus clivants. Travaillant dans des bureaux, ces équipes créent des faux profils qui se font passer pour de vraies personnes, publiant sur les réseaux sociaux, dans les commentaires d’actualités et sur les forums. Leur objectif est de manipuler l’opinion publique – certains trolls diffusent des messages montrant un faux soutien populaire à certaines idées, tandis que d’autres propagent des rumeurs destinées à semer la confusion et la méfiance envers les institutions newslit.org. Souvent organisés en équipes coordonnées, le personnel des fermes à trolls publie des commentaires incendiaires, de fausses “informations” et des théories du complot à grande échelle, amplifiant des points de vue extrêmes bien au-delà de leur portée organique. Beaucoup utilisent des comptes sockpuppet (multiples identités en ligne), parfois assistés par des bots sociaux (comptes automatisés), pour donner l’impression que de nombreuses personnes ordinaires partagent ces opinions marginales en.wikipedia.org. En réalité, une poignée d’opérateurs peut se cacher derrière des centaines de comptes – une chaîne de montage de propagande secrète produisant de la désinformation à la demande.

Alors que le concept ressemble à un scénario de science-fiction, les fermes à trolls sont bien réelles et ont été utilisées comme armes par des États. La Russie en particulier a tristement adopté les fermes à trolls comme un outil central de son arsenal de guerre de l’information. En inondant les espaces en ligne de récits pro-Kremlin et de commentaires hostiles, les fermes à trolls russes visent à fausser les perceptions et à saper le discours dans les pays ciblés. Leurs activités vont de l’ingérence électorale et l’agitation politique à l’étranger au renforcement de la propagande dans le pays. La plupart du monde a découvert les fermes à trolls russes lorsque la nouvelle de leur ingérence dans la présidentielle américaine de 2016 newslit.org a éclaté. Cependant, cette tactique est antérieure à 2016 et n’est pas exclusive à la Russie – d’autres gouvernements et groupes ont copié des méthodes similaires. Pourtant, ce sont les opérations russes qui ont établi le modèle de la ferme à trolls moderne : sponsorisée par l’État, organisée de manière centralisée et à portée mondiale. Les entreprises de réseaux sociaux ont eu du mal à limiter ces faux comptes, supprimant parfois de grands réseaux (par exemple, Facebook et Twitter ont supprimé en 2020 un réseau de trolls russes basé au Ghana qui avait rassemblé plus de 300 000 abonnés tout en attisant les tensions raciales aux États-Unis newslit.org). Pourtant, cela ne représente probablement que « la partie émergée de l’iceberg » newslit.org. Les fermes à trolls continuent d’évoluer, trouvant de nouveaux moyens d’échapper à la détection et d’exploiter les plateformes en ligne.

À l’intérieur des usines à trolls russes : organisation et acteurs clés

La ferme à trolls la plus notoire de Russie est la Internet Research Agency (IRA), une société basée à Saint-Pétersbourg autrefois dirigée et financée par l’oligarque Yevgeny Prigozhin – un proche allié de Poutine, souvent surnommé « le chef de Poutine ». L’IRA (connue dans l’argot russe comme les « trolls d’Olgino ») a été fondée vers 2013 et s’est développée en une opération professionnelle avec des centaines d’employés spyscape.com. En 2015, l’IRA comptait environ 400 employés travaillant par équipes de 12 heures, dont un groupe d’élite d’environ 80 trolls anglophones dédiés exclusivement à cibler le système politique américain spyscape.com. Elle ressemblait à une agence de marketing en ligne – mais consacrée aux objectifs du Kremlin. Une équipe de direction supervisait plusieurs départements (conception graphique, informatique, optimisation pour les moteurs de recherche, finances, etc.) et suivait les indicateurs de performance de façon obsessionnelle spyscape.com. Selon une enquête du Sénat américain, les responsables surveillaient même les employés via vidéosurveillance et étaient « obsédés » par le nombre de vues, de likes et de commentaires comme mesures d’influence spyscape.com.

La vie en tant que troll russe a été décrite par des initiés comme un travail de bureau sous haute pression. Lyudmila Savchuk, une journaliste qui a infiltré l’IRA, a révélé que chaque troll avait des quotas quotidiens stricts – par exemple, 5 publications politiques, 10 publications non politiques (pour paraître authentique), et 150-200 commentaires sur d’autres contenus par poste spyscape.com. Les trolls travaillaient de longues heures pour un salaire modeste (environ 40 000 roubles, soit environ 700-800 $ par mois) et étaient payés en espèces spyscape.com. Ils opéraient en “équipes” secrètes se concentrant sur différents publics cibles et sujets. Par exemple, des groupes distincts étaient affectés à la politique américaine, aux questions européennes, à l’Ukraine, etc., chacun élaborant des messages adaptés à ces publics. D’anciens employés de l’IRA ont raconté avoir reçu l’ordre de regarder des émissions de télévision américaines populaires comme House of Cards pour apprendre les références culturelles américaines spyscape.com. Ils recevaient une formation en anglais et des guides sur l’argot américain pour mieux se faire passer pour de véritables commentateurs américains spyscape.com. Pour dissimuler leurs origines russes, ils utilisaient des VPN et des serveurs proxy pour masquer leur localisation et créaient soigneusement de fausses identités (avec des photos de profil volées ou générées par IA, des détails de “ville natale” et des noms réalistes) spyscape.com. Au fil des semaines et des mois, ces faux comptes construisaient progressivement une identité et une audience – rejoignant des groupes Facebook, tweetant sur la vie quotidienne ou le sport – avant de se tourner vers la propagande politique une fois suffisamment crédibles. « Avec le temps, ces comptes gagnent des abonnés et deviennent plus influents, » note un rapport spyscape.com.

L’IRA de Prigojine n’opérait pas isolément, mais faisait partie d’un écosystème d’influence plus vaste lié au Kremlin. Des journalistes russes et des actes d’accusation américains ont révélé une opération globale appelée « Projet Lakhta », dans le cadre de laquelle l’IRA et des entités associées travaillaient à « perturber le processus démocratique américain, répandre la méfiance, inciter aux troubles civils et polariser les Américains » – notamment en aggravant les divisions raciales et sociales spyscape.com. Pour permettre le déni, ce projet utilisait un réseau de sociétés écrans et de façades médiatiques. Par exemple, la société holding de Prigojine, « Patriot Media Group », possédait la Federal News Agency (RIA FAN) et d’autres pseudo-sites d’actualités qui diffusaient de la propagande, tout en servant également de couverture à des opérations secrètes de trolls cloud.google.com. Les entités du Projet Lakhta comprenaient l’IRA elle-même et des sites « d’actualités » de façade comme Nevskiy News, Economy Today et International News Agency, tous ultérieurement cités dans les sanctions américaines pour avoir hébergé des activités de désinformation spyscape.com. Ce mélange flou de canaux de propagande ouverts et d’équipes de trolls cachées permettait aux opérations d’influence russes de « blanchir » la désinformation – par exemple, un troll lançait une fausse histoire via un faux profil, qui était ensuite reprise par les sites de Patriot Media comme une « actualité », puis amplifiée par d’autres trolls et bots.

Fait notable, les opérations de trolling russes ne se limitaient pas aux claviers et aux écrans. L’IRA et ses associés engageaient parfois des locaux involontaires dans les pays ciblés pour organiser des événements réels correspondant à leur agitation en ligne. Les enquêteurs américains ont découvert qu’en 2016–2017, des agents de l’IRA se faisant passer pour des militants américains étaient parvenus à organiser de véritables rassemblements politiques aux États-Unis – allant jusqu’à organiser une manifestation à New York soutenant Donald Trump et une autre s’y opposant le même jour, afin de maximiser la division spyscape.com. Les trolls russes se faisaient passer pour des organisateurs locaux, recrutaient de vrais Américains via des groupes Facebook et les payaient pour porter des banderoles ou fabriquer des accessoires, alors que ces citoyens ignoraient totalement qu’ils répondaient à des directives russes spyscape.com. Cette tactique – utiliser des trolls pour créer de faux mouvements citoyens « AstroTurf » – montre jusqu’où ces opérations d’influence peuvent aller. En combinant désinformation en ligne et actions hors ligne, ils cherchaient à transformer la colère virtuelle en chaos réel.

L’Internet Research Agency est devenue tristement célèbre dans le monde entier après que son ingérence dans la politique américaine a été révélée au grand jour. En 2018, le ministère américain de la Justice a inculpé des agents de l’IRA pour ingérence criminelle lors de l’élection de 2016, détaillant comment ils avaient créé des milliers de comptes sur les réseaux sociaux (se faisant passer pour des Américains de tous horizons), atteint des millions de personnes avec des mèmes et de fausses informations, et même financé des publicités et des rassemblements politiques businessinsider.com. (L’utilisation par l’IRA d’identités américaines volées et de fraudes financières pour financer ses opérations a entraîné des accusations supplémentaires businessinsider.com.) Bien que la Russie ait nié les accusations, Prigojine a finalement admis son rôle : « Je n’ai jamais été seulement un financier de l’IRA. Je l’ai inventée, je l’ai créée, je l’ai dirigée pendant longtemps », s’est vanté Prigojine début 2023, affirmant qu’elle avait été fondée pour « protéger l’espace informationnel russe contre… la propagande anti-russe agressive de l’Occident. » spyscape.com. Cet aveu franc du cerveau de l’opération souligne la double mission de l’IRA : attaquer les adversaires de la Russie en ligne tout en protégeant le Kremlin sur son propre territoire.

En dehors de l’IRA, d’autres opérations de trolls ont émergé ou évolué en Russie. En 2022, après que la Russie a lancé son invasion à grande échelle de l’Ukraine, une nouvelle organisation basée à Saint-Pétersbourg et se faisant appeler « Cyber Front Z » a commencé à recruter ouvertement des contributeurs « patriotes » pour inonder Internet de commentaires pro-guerre theguardian.com. Basée dans un espace loué à l’intérieur d’une ancienne usine d’armement, cette « usine à trolls » (ainsi décrite par le renseignement britannique) était liée au réseau de Prigojine et coordonnée via une chaîne Telegram nommée « Cyber Front Z » theguardian.com. Les opérateurs de Cyber Front Z ciblaient les pages de réseaux sociaux des dirigeants occidentaux et les sections de commentaires des sites d’actualités, détournant les discussions pour faire l’éloge de Poutine et diaboliser l’Ukraine theguardian.com. Selon des recherches citées par le gouvernement britannique, ils ont même payé certains influenceurs TikTok pour amplifier les messages du Kremlin theguardian.com. Cela suggère que les opérations de trolls russes se sont adaptées à de nouvelles plateformes et à un public plus jeune – s’étendant de Facebook et Twitter vers Instagram, YouTube et TikTok, où les chercheurs ont constaté de fortes concentrations d’activité en 2022 theguardian.com. Les membres de Cyber Front Z se livraient à des actions coordonnées de « brigading », commentant en masse pour orienter les conversations en ligne vers la ligne du Kremlin, et manipulaient même des sondages en ligne (par exemple, en faussant les votes dans les enquêtes des médias occidentaux sur le soutien aux sanctions contre la Russie) theguardian.com. Contrairement à l’IRA secrète, Cyber Front Z affichait ouvertement son patriotisme, justifiant le trolling en ligne comme un devoir civique en temps de guerre theguardian.com.

Outils et tactiques : comment les trolls russes diffusent la propagande

Les fermes à trolls russes déploient un large arsenal de techniques pour injecter et amplifier la désinformation en ligne. Parmi les principaux outils et tactiques figurent :

  • Faux personnages et comptes sockpuppets : Les trolls créent des centaines d’identités fictives en ligne, avec des photos de profil volées ou générées par IA, et prétendent être de simples citoyens en.wikipedia.org. Ils imitent souvent même la démographie locale (par exemple, en se faisant passer pour des Américains de divers horizons politiques, ou pour des Européens de certains pays) afin de se fondre dans la masse. Ces comptes sockpuppets sont présents sur toutes les grandes plateformes – Facebook, Twitter (désormais X), Instagram, YouTube, TikTok, Reddit, et des réseaux russes comme VKontakte spyscape.com. Pour éviter les signes évidents de supercherie, les trolls publient du contenu non politique sous ces identités (discussions sportives, photos de nourriture, etc.) et copient soigneusement les comportements réels sur les réseaux sociaux. Avec le temps, ils gagnent en crédibilité, puis diffusent de la propagande ou des contenus trompeurs au sein des communautés.
  • Amplification sur les réseaux sociaux & « brigading » : Les fermes à trolls cherchent à faire passer quelques voix pour une foule. Elles coordonnent des vagues de publications et de commentaires afin qu’un certain récit domine artificiellement les conversations ou les tendances. Par exemple, une équipe de trolls peut répondre simultanément au tweet d’un politicien avec les mêmes arguments, donnant l’impression trompeuse que l’opinion publique est massivement unilatérale. Dans les sections de commentaires des articles de presse, ils se soutiennent mutuellement en votant pour leurs messages et en multipliant les réponses pour étouffer le véritable débat theguardian.com. Sur des plateformes comme Facebook, des trolls ont géré de grandes pages thématiques (par exemple « Secured Borders » ou de faux groupes d’activistes) qui attiraient de vrais abonnés, puis y injectaient subtilement de la propagande polarisante. Ils sont également connus pour détourner des hashtags ou lancer des campagnes coordonnées de hashtags sur Twitter pour les faire apparaître dans les tendances. En orchestrant des publications sur des dizaines de comptes, les fermes à trolls peuvent brigader des sondages en ligne, des forums et des fils d’actualité pour donner l’impression que des idées marginales sont populaires theguardian.com.
  • Bots et réseaux automatisés : En plus des personas gérés par des humains, les opérations russes utilisent des réseaux de bots – des comptes automatisés ou semi-automatisés – pour amplifier leur message. Ces bots peuvent retweeter ou partager du contenu des milliers de fois en quelques minutes, fausser les algorithmes de tendances et harceler des utilisateurs ciblés. Lors de diverses élections et événements, des enquêteurs ont constaté des essaims de tweets/publications provenant de comptes de bots suspects liés à la Russie washingtonpost.com. Par exemple, l’Espagne a signalé une « avalanche de bots » diffusant de fausses informations lors du référendum sur l’indépendance de la Catalogne en 2017, plus de la moitié des comptes de bots ayant été retracés jusqu’à des origines russes washingtonpost.com. Les bots amplifient souvent les messages des trolls en les aimant et en les repartageant massivement. Le mélange de bots et de trolls humains donne à la campagne une apparence plus vaste et plus organique qu’elle ne l’est réellement – un multiplicateur de force pour la désinformation.
  • Contenu de désinformation & manipulation des médias : Les fermes à trolls se spécialisent dans la production de désinformation partageable – des faux articles d’actualité et images retouchées aux mèmes et vidéos trompeurs. Souvent, elles exploitent de faux sites d’actualités qui produisent des articles de propagande, que les trolls diffusent ensuite dans des groupes et fils de commentaires. Les opérateurs russes ont fabriqué de fausses captures d’écran de tweets, falsifié des documents gouvernementaux et diffusé des mèmes conspirationnistes pour soutenir leurs récits. Ces dernières années, ils ont également commencé à utiliser des deepfakes et d’autres médias générés par l’IA. Un exemple notoire a eu lieu en mars 2022, lorsqu’une vidéo deepfake du président ukrainien Volodymyr Zelensky a circulé, le montrant faussement en train de demander aux troupes ukrainiennes de se rendre reuters.com. La vidéo était de mauvaise qualité et a été rapidement démentie, mais des experts ont averti qu’elle « pourrait annoncer des tromperies plus sophistiquées à venir » reuters.com. Les réseaux de trolls peuvent s’emparer de tels contenus faux – ou en créer eux-mêmes – et les diffuser agressivement auprès de publics non avertis. En lançant des canulars viraux (des fausses allégations de fraude électorale aux faux remèdes contre la COVID-19), ils cherchent à tromper et à enflammer l’opinion publique.
  • Coopter des influenceurs et des voix locales : Une autre tactique consiste à blanchir la propagande par le biais de voix légitimes. Les campagnes d’influence russes ont été surprises en train de recruter ou de tromper des tiers involontaires – par exemple, en contactant des journalistes indépendants à l’étranger pour écrire des articles reprenant les arguments du Kremlin, ou en payant des influenceurs sur les réseaux sociaux pour promouvoir certains récits theguardian.com. En 2020, une opération baptisée « Peace Data » a vu des trolls russes créer un faux média en ligne de gauche et embaucher de vrais rédacteurs indépendants (beaucoup en Occident) pour contribuer à des articles, sans connaître la véritable affiliation de la plateforme. De même, des chercheurs britanniques ont découvert en 2022 que certains influenceurs TikTok et Instagram étaient payés pour diffuser des messages pro-russes sur l’Ukraine theguardian.com. En s’appuyant sur la crédibilité de voix locales, les trolls peuvent diffuser la propagande sous une forme plus acceptable, dissimulée dans un contenu qui semble indépendant. Cela ajoute une couche de déni plausible et rend la détection plus difficile, puisque le message provient d’individus apparemment authentiques plutôt que de comptes de trolls évidents.

Combinées, ces tactiques permettent aux fermes à trolls russes de mener une « guerre de l’information » sur plusieurs fronts – en injectant des contenus faux ou biaisés, en les amplifiant artificiellement, et en déformant l’environnement informationnel en ligne. L’objectif ultime n’est pas simplement de convaincre une personne ou une autre d’un seul mensonge ; il s’agit d’érosion de la confiance dans son ensemble – confiance dans les médias, dans les processus électoraux, dans les normes sociétales – en polluant le débat avec tant de désinformation et de haine que la vérité objective et le débat sain deviennent difficiles à trouver. Comme l’a dit un expert, ces opérations de trolls sont un « outil pour Poutine afin de contrôler les récits » et pour étouffer les voix dissidentes propublica.org. Que ce soit en inondant les forums russophones d’un consensus pro-Kremlin ou en submergeant les réseaux sociaux occidentaux de théories du complot, les fermes à trolls cherchent à noyer la vérité sous le bruit.

Objectifs : Pourquoi le Kremlin gère-t-il des fermes à trolls

Les campagnes des fermes à trolls russes servent des objectifs stratégiques fixés par le Kremlin, qui relèvent globalement des catégories d’influence politique, de déstabilisation des adversaires et de guerre de propagande. Les principaux objectifs incluent :

  • Saper les élections et les processus politiques : Une mission principale des trolls russes a été de s’ingérer dans les élections démocratiques à l’étranger. Leur rôle désormais tristement célèbre lors de l’élection américaine de 2016 visait à polariser les électeurs américains, à supprimer certains votes et à favoriser des résultats préférés. Les propres documents internes de l’IRA décrivaient un effort « d’interférer avec les élections et les processus politiques » aux États-Unis propublica.org. De même, lors des scrutins européens, l’activité des trolls russes a cherché à promouvoir des candidats pro-Kremlin ou d’extrême droite et à semer le doute sur les centristes pro-UE. La Première ministre britannique Theresa May a averti fin 2017 que la Russie tentait de « saper les sociétés libres et semer la discorde » en Occident en déployant ses trolls et ses médias de fausses informations washingtonpost.com. Les autorités espagnoles ont accusé des réseaux liés à la Russie d’ingérence dans le référendum catalan en Espagne et ont relevé des similitudes dans la désinformation lors du Brexit et des élections françaises, tout cela visant à fracturer l’unité européenne washingtonpost.com. En somme, en manipulant l’opinion publique lors d’élections ou de référendums étrangers, le Kremlin espère installer des dirigeants plus favorables, affaiblir ses adversaires internationaux, ou simplement créer le chaos (car le chaos dans les démocraties rivales est en soi une victoire pour Poutine). Des responsables américains ont déclaré que l’objectif de la Russie est souvent de « attiser des récits clivants » autour des élections – en exploitant des sujets sensibles comme la race, l’immigration ou la criminalité – afin que les sociétés se retournent contre elles-mêmes reuters.com. Même lorsque des candidats spécifiques ne gagnent pas, les trolls réussissent s’ils parviennent à convaincre suffisamment de citoyens de douter de l’intégrité de l’élection ou de ressentir du ressentiment envers leurs concitoyens.
  • Semer la division et la méfiance : Au-delà de toute élection particulière, les fermes à trolls russes s’efforcent d’enflammer les divisions existantes dans les pays ciblés sur le long terme. En diffusant constamment des contenus polarisants sur des points sensibles de la société (gauche contre droite, urbain contre rural, tensions ethniques et religieuses, etc.), elles cherchent à élargir les lignes de fracture d’une société. Une enquête du Sénat américain a noté qu’un projet de l’IRA se concentrait fortement sur « la promotion de questions socialement clivantes, en mettant l’accent sur les divisions raciales et l’inégalité » aux États-Unis spyscape.com. L’objectif est d’affaiblir les adversaires de la Russie de l’intérieur : une nation embourbée dans des conflits internes est moins capable de présenter un front uni à l’international. Cette stratégie a été observée dans tout l’Occident – de la promotion de sentiments sécessionnistes en Catalogne, en Espagne washingtonpost.com, à l’attisement de la colère anti-immigrés et anti-UE en Europe, en passant par l’amplification des discordes raciales et des controverses sur les vaccins aux États-Unis. En diffusant des théories du complot et des discours extrêmes, les trolls cherchent à faire perdre confiance aux gens dans les sources d’information traditionnelles, voire à les retourner contre leurs propres gouvernements. Comme l’a averti le secrétaire d’État de Géorgie (État américain) en 2024, les fausses histoires sur la fraude électorale qui apparaissent soudainement sur les réseaux sociaux sont probablement « une ingérence étrangère visant à semer la discorde et le chaos » – souvent attribuées à des fermes à trolls russes reuters.com.
  • Soutenir la politique étrangère et les objectifs militaires russes : Les fermes à trolls servent également de soldats numériques pour l’agenda géopolitique du Kremlin. Lorsque la Russie est engagée dans des conflits ou des crises, les trolls redoublent d’efforts pour façonner le récit en ligne. Par exemple, depuis l’agression initiale de la Russie en Ukraine en 2014, et surtout après l’invasion à grande échelle en 2022, les trolls russes ont vigoureusement diffusé de la propagande pro-guerre. Ils amplifient les affirmations qui justifient les actions de la Russie (comme de fausses accusations d’agression de l’OTAN ou de “nazis” en Ukraine) tout en minimisant ou niant les atrocités commises par les forces russes propublica.org. Une recherche britannique en 2022 a révélé une opération concertée de trolls visant à renforcer le soutien à l’invasion de l’Ukraine par Poutine, ciblant non seulement le public russe mais aussi les réseaux sociaux occidentaux avec des messages contre les sanctions et la direction ukrainienne theguardian.com. Les trolls ont même ciblé des personnalités de haut niveau – inondant par exemple les commentaires du Premier ministre britannique et d’autres responsables de points de vue pro-Kremlin theguardian.com – dans l’espoir d’influencer l’opinion publique. En somme, chaque fois que la Russie veut projeter sa puissance ou masquer ses agressions, elle déchaîne les trolls pour attaquer le paysage informationnel : pour semer la confusion sur les faits, promouvoir des alternatives complotistes et rallier les sceptiques internationaux à la cause russe. Comme l’a observé le chercheur Darren Linvill de l’Université de Clemson, Poutine n’a pas nécessairement besoin de “gagner” la guerre de l’information ; il lui suffit de troubler suffisamment les eaux pour tenir sa position, et les comptes de trolls sont un outil pour cela propublica.org. Sur le plan intérieur, cet objectif s’étend au renforcement de la version des faits du Kremlin afin que les citoyens russes restent favorables ou du moins sceptiques envers l’Occident.
  • Soutenir le régime sur le plan intérieur : Bien que l’attention se concentre souvent sur les trolls russes à l’étranger, une part importante de leurs efforts vise en réalité les publics russes domestiques. L’IRA a été initialement créée pour gérer l’image et l’agenda de Poutine au sein du Runet (l’internet russe) propublica.org. En inondant les réseaux sociaux russes et les forums de commentaires de messages patriotiques et d’attaques contre les critiques du Kremlin, les fermes à trolls contribuent à étouffer les voix de l’opposition et à fabriquer un sentiment de soutien public généralisé à Poutine. Par exemple, lors des vagues de COVID-19 et des difficultés économiques en Russie, les trolls domestiques ont agressivement promu le récit selon lequel tout échec était dû aux sanctions occidentales ou au sabotage, et non à une mauvaise gestion gouvernementale. Après l’invasion de l’Ukraine, les comptes trolls russophones ont cherché à convaincre leurs concitoyens que la guerre était justifiée et se déroulait bien, répétant les discours de la télévision d’État et salissant ceux qui exprimaient des doutes propublica.org. « C’est une façon pour [Poutine] de mentir à son propre peuple et de contrôler la conversation, » explique Linvill propublica.org. En manipulant l’opinion publique à l’intérieur du pays, les fermes à trolls contribuent à maintenir la stabilité sociale et la loyauté, consolidant ainsi le régime de Poutine. En ce sens, elles constituent un bras de propagande utilisé en interne pour contrer toute information factuelle susceptible de saper le récit du Kremlin (comme les nouvelles de revers militaires russes ou de scandales de corruption). L’objectif du Kremlin ici est celui de la propagande classique : « tenir sa position » dans la guerre de l’information sur le plan intérieur, en s’assurant que les Russes croient en ses politiques ou, à tout le moins, doutent de tout point de vue alternatifpropublica.org.

En résumé, les fermes à trolls russes opèrent avec des objectifs clairs : affaiblir les adversaires du Kremlin, tant à l’extérieur qu’à l’intérieur, en manipulant l’information. Qu’il s’agisse de fausser les débats électoraux, de fragmenter les sociétés, d’améliorer l’image de la Russie ou de réprimer la dissidence, le thème commun est l’information comme arme. Ou, comme l’a dit Theresa May dans un avertissement public à Moscou : « Nous savons ce que vous faites. Et vous n’y arriverez pas. » washingtonpost.com

Opérations notables : des élections américaines à la guerre en Ukraine

Au cours de la dernière décennie, les fermes à trolls russes ont été liées à d’importantes opérations d’influence à travers le monde, souvent en tandem avec d’autres activités cyber et de renseignement. Parmi les cas les plus significatifs, on peut citer :
  • Ingérence dans l’élection américaine de 2016 : La campagne de l’IRA pour s’immiscer dans la course présidentielle américaine de 2016 reste l’exemple par excellence de l’ingérence des fermes à trolls. Dès 2014, les trolls de Saint-Pétersbourg ont créé un vaste réseau de faux profils sur Facebook, Twitter, Instagram, YouTube et Reddit – se faisant passer pour des militants progressistes, des électeurs conservateurs, des partisans de Black Lives Matter, des séparatistes du Sud, des groupes musulmans, etc. spyscape.com, en.wikipedia.org. Ces comptes ont diffusé des millions de publications visant à enflammer les deux camps sur des sujets clivants (relations raciales, droits sur les armes à feu, immigration) et à dénigrer Hillary Clinton tout en soutenant Donald Trump. Ils ont même créé des pages Facebook pour des organisations fictives et acheté des publicités ciblant des groupes démographiques clés dans les États pivots businessinsider.com. Le jour de l’élection, le contenu des pages contrôlées par l’IRA avait atteint plus de 126 millions d’Américains sur Facebook, selon des révélations ultérieures, et leurs tweets de trolls ont été cités par les médias traditionnels. L’objectif, tel que décrit dans les actes d’accusation américains, était de « semer la discorde dans le système politique américain » et, en fin de compte, d’aider à élire un candidat plus favorable au Kremlin washingtonpost.com. Les agences de renseignement américaines ont conclu que cette opération d’influence, dirigée par le gouvernement russe, marquait une nouvelle ère de guerre de l’information. En 2018, le Trésor américain a sanctionné l’IRA et Prigozhin pour cette ingérence businessinsider.com, et le procureur spécial Robert Mueller a inculpé 13 agents de l’IRA. Bien qu’aucun n’ait été jugé (car ils sont restés en Russie), l’acte d’accusation a révélé de nombreux détails sur la façon dont la ferme à trolls a orchestré des rassemblements, usurpé des identités américaines et exploité les algorithmes des réseaux sociaux à une échelle sans précédent businessinsider.com, spyscape.com.
  • 2018–2020 : Poursuite des opérations aux États-Unis et en Afrique : Malgré le contrecoup de 2016, les trolls russes n’ont pas cessé leurs activités. À l’approche de l’élection américaine de 2020, l’IRA a expérimenté la sous-traitance de son trolling anglophone à des intermédiaires en Afrique. Dans un cas notable révélé en 2020, une ferme à trolls au Ghana et au Nigeria (prétendument dirigée par des superviseurs russes) a exploité des dizaines de comptes sur les réseaux sociaux se faisant passer pour des militants afro-américains, publiant sur des questions raciales pour attiser les divisions aux États-Unis newslit.org. Facebook et Twitter, alertés par des chercheurs et CNN, ont finalement désactivé ce réseau newslit.org. Parallèlement, le renseignement américain a averti que la Russie continuait de diffuser des récits trompeurs pendant la campagne de 2020 – bien qu’une surveillance accrue des plateformes et une forte sensibilisation du public aient rendu plus difficile pour les trolls d’avoir le même impact qu’en 2016. Notamment, l’IRA s’est aussi adaptée en créant des « franchises » : au lieu de gérer tous les comptes depuis Saint-Pétersbourg, ils fournissaient du contenu et des instructions à des personnes sympathisantes ou recrutées à l’étranger, plus difficiles à retracer. Par exemple, des inculpations américaines distinctes en 2020 ont révélé un effort russe pour recruter des Américains (dont un militant politique en Floride) afin de publier des articles rédigés par de faux profils et d’organiser des manifestations. Le mode opératoire des fermes à trolls évoluait donc, mais les objectifs restaient constants. Le Cyber Command américain est même allé jusqu’à pirater les serveurs de l’IRA fin 2018 pour perturber leurs activités pendant les élections de mi-mandat, mettant brièvement la fabrique à trolls hors ligne spyscape.com. Le répit fut temporaire – des rapports ont indiqué qu’ils se sont réorganisés par la suite – mais cela a montré que les gouvernements occidentaux étaient de plus en plus disposés à mener des actions offensives contre les trolls.
  • 2016–2017 Brexit et campagnes européennes : En Europe, les trolls russes ont ciblé des événements clés comme le référendum sur le Brexit au Royaume-Uni en 2016 et l’élection présidentielle française en 2017. Au Royaume-Uni, des enquêtes ont révélé que des comptes Twitter liés au Kremlin (y compris des comptes IRA connus identifiés par Twitter) avaient promu des messages pro-Brexit et des histoires incendiaires sur l’immigration à l’approche du vote washingtonpost.com. L’ampleur était moindre qu’aux États-Unis, ce qui a amené les analystes à estimer que les trolls russes n’avaient pas fait basculer de manière décisive le résultat du Brexit, mais l’intention d’ingérence était évidente washingtonpost.com. Parallèlement, lors de l’élection française de 2017, des agents russes (via des trolls et des hackers) ont diffusé et amplifié les soi-disant « Macron leaks » – une fuite d’e-mails piratés de la campagne du candidat Emmanuel Macron – accompagnée de désinformation sur Macron, dans le but d’aider sa rivale d’extrême droite Marine Le Pen. La surveillance cybernétique française a révélé que de nombreux comptes sur les réseaux sociaux promouvant #MacronLeaks sur Twitter étaient nouvellement créés ou rattachés à des réseaux d’influence russes. En Allemagne, les autorités se sont préparées à une ingérence similaire lors des élections fédérales de 2017. Bien qu’une grande campagne de trolls ne se soit pas matérialisée (peut-être dissuadée par les avertissements du gouvernement allemand), la main de la Russie a été soupçonnée dans d’autres incidents – comme une histoire de propagande de 2016 affirmant à tort qu’une jeune fille russo-allemande « Lisa » avait été violée par des migrants à Berlin, histoire largement relayée sur les réseaux sociaux russes et ayant provoqué des manifestations. Les dirigeants européens ont pris conscience du phénomène : fin 2017, la Première ministre May a publiquement accusé la Russie d’ingérence à travers l’Europe, et le Premier ministre espagnol Mariano Rajoy a révélé que, lors de la crise de l’indépendance de la Catalogne en 2017, une grande partie de l’activité en ligne frauduleuse provenait de Russie ou du Venezuela washingtonpost.com. Tous ces efforts servaient l’intérêt de Moscou à affaiblir l’UE et l’OTAN en favorisant les mouvements nationalistes et séparatistes.
  • Propagande en Ukraine et dans les États voisins : L’utilisation par la Russie de fermes à trolls a d’abord pris de l’ampleur lors de ses interventions dans son « étranger proche ». Lorsque la Russie a annexé la Crimée en 2014 et attisé la guerre dans l’est de l’Ukraine, une armée de trolls s’est activée en ligne pour justifier les actions de Moscou et diaboliser le gouvernement ukrainien. Les réseaux sociaux russophones, ainsi que les plateformes occidentales, ont été inondés de messages répétitifs reprenant les récits du Kremlin : que le gouvernement de Kyiv était une « junte fasciste », que des atrocités (souvent inventées) étaient commises contre les russophones, et que les sanctions occidentales se retourneraient contre leurs auteurs. Ces trolls cherchaient à « saturer l’espace » avec la version des faits du Kremlin, rendant difficile pour les observateurs occasionnels de distinguer la vérité. Avançons jusqu’en 2022 et l’invasion totale de l’Ukraine : les trolls russes se sont de nouveau activés à l’échelle mondiale. Quelques jours après l’invasion, des analystes ont identifié des réseaux de comptes inauthentiques sur Twitter, TikTok et Instagram diffusant de la désinformation – comme des affirmations selon lesquelles les images de villes ukrainiennes bombardées étaient fausses propublica.org. ProPublica et des chercheurs de l’Université de Clemson ont suivi des dizaines de comptes russophones qui, en mars 2022, ont simultanément publié la même vidéo trompeuse (falsifiant « l’exposition » d’une scène de victimes civiles mise en scène en Ukraine) – une marque typique d’une opération de trolls coordonnée propublica.org. Ces comptes présentaient des signes évidents de l’IRA, notamment des horaires de travail alignés sur le fuseau horaire de Moscou et des pauses les week-ends et jours fériés russes propublica.org. Au fil de la guerre, le contenu des trolls s’est adapté : d’abord dans la confusion, puis en reprenant la propagande officielle en accusant l’OTAN d’être responsable de la guerre et en niant tout échec militaire russe propublica.org. Les trolls ont également ciblé des publics internationaux pour affaiblir le soutien à l’Ukraine – argumentant dans les fils de commentaires occidentaux que les sanctions contre la Russie nuisaient davantage à l’Europe, ou amplifiant les voix d’extrême droite en Europe opposées à l’armement de l’Ukraine theguardian.com. Dans une étude financée par le Royaume-Uni, des analystes ont noté que l’opération de trolls à Saint-Pétersbourg (Cyber Front Z) s’inspirait de mouvements conspirationnistes comme QAnon dans la façon dont elle diffusait ses messages et tentait de rallier des sympathisants en ligne theguardian.com. La guerre en Ukraine s’est ainsi accompagnée d’une guerre de l’information parallèle, les fermes à trolls russes jouant un rôle central dans la diffusion mondiale de « mensonges pro-guerre » theguardian.com. Leur impact est évident dans la persistance de récits favorables au Kremlin dans certains segments de l’opinion publique, malgré des reportages factuels allant à l’encontre de ces récits.
  • Pandémie de COVID-19 et autres enjeux mondiaux : Les trolls russes ont profité de crises et de controverses mondiales, de la pandémie de COVID-19 aux manifestations pour la justice sociale, comme terrain fertile pour la désinformation. Pendant la pandémie, des comptes de trolls alignés sur l’État ont diffusé une myriade de théories du complot – affirmant que le coronavirus était une arme biologique américaine, promouvant de fausses informations anti-vaccins, et exacerbant la méfiance envers les institutions de santé publique thebulletin.org. L’objectif n’était pas de présenter une alternative cohérente, mais d’« amplifier le doute » et la dysfonction au sein des sociétés occidentales en période d’incertitude thebulletin.org. De même, en 2020, alors que les États-Unis connaissaient des manifestations historiques pour la justice raciale, les fermes à trolls russes ont redoublé d’efforts pour attiser les divisions raciales – se faisant passer d’un côté pour des voix d’extrême droite condamnant les manifestations, et de l’autre pour des militants de gauche encourageant des sentiments plus extrêmes, jouant ainsi sur les deux tableaux pour alimenter le chaos. Ces exemples montrent qu’au-delà de la politique et de la guerre, tout sujet clivant peut devenir un champ de bataille pour les opérations d’influence menées par des trolls. Des débats sur le changement climatique aux obligations vaccinales, les trolls russes ont injecté de fausses affirmations pour rendre le discours toxique. En aggravant la polarisation sur tous les fronts, ils servent l’objectif de Moscou : un Occident affaibli et querelleur.

Analyses d’experts et révélations

De nombreuses enquêtes menées par des journalistes, des universitaires et des agences de renseignement ont levé le voile sur les fermes à trolls russes. Les experts soulignent que ces opérations constituent une nouvelle forme de menace à laquelle les démocraties doivent faire face. « 2016 n’était qu’un début, » note un rapport de PBS – depuis, les opérateurs en ligne du Kremlin sont devenus plus sophistiqués et meilleurs pour imiter de vraies personnes pbs.org.

Les chercheurs qui étudient les tactiques des fermes à trolls ont fait des observations frappantes. Darren Linvill, professeur à l’Université de Clemson, a passé des années à analyser les comptes de l’IRA. Il remarque des schémas révélateurs : « Pendant les fêtes russes et les week-ends, l’activité [de certains comptes de trolls] diminuait », indiquant que les personnes postant suivaient un horaire de travail salarié plutôt qu’étant de véritables bénévoles spyscape.com. L’analyse de son équipe avec ProPublica a confirmé que les publications des comptes soupçonnés d’appartenir à l’IRA apparaissaient à « des horaires définis correspondant à la journée de travail de l’IRA. » spyscape.com. En d’autres termes, les vrais militants de base ne prennent pas tous leur week-end en même temps – mais les employés des usines à trolls, si. Linvill a conclu : « Ces comptes présentent tous les indicateurs dont nous disposons pour suggérer qu’ils proviennent de l’Internet Research Agency. » spyscape.com. Si par hasard ce n’était pas l’IRA, a-t-il plaisanté, « c’est pire, car je ne sais pas qui fait ça. » propublica.org. Son analyse a souligné à quel point la machine de désinformation russe était devenue cohérente et professionnalisée.

Des témoignages internes ont également permis d’éclairer les opérations. Le courageux acte de lanceuse d’alerte de la journaliste Lyudmila Savchuk en 2015 a offert un premier aperçu à l’intérieur des bureaux de la « fabrique à trolls » de l’IRA. Elle a décrit un environnement presque surréaliste : de jeunes employés dans des box postant sans relâche sous de fausses identités, avec des consignes de propagande transmises comme des instructions éditoriales chaque matin. « Au début, je n’arrivais pas à croire que c’était réel… c’était une sorte de choc culturel », a confié un autre agent infiltré à Radio Free Europe rferl.org. Ils ont parlé d’une atmosphère de travail à la chaîne où la créativité était moins valorisée que l’obéissance aux thèmes narratifs quotidiens fixés par les superviseurs.

Les gouvernements occidentaux sont devenus plus virulents dans leur dénonciation de cette activité. En avril 2022, la ministre britannique des Affaires étrangères Liz Truss a condamné la nouvelle campagne de trolls de la Russie autour de la guerre en Ukraine, déclarant : « Nous ne pouvons pas permettre au Kremlin et à ses fermes à trolls douteuses d’envahir nos espaces en ligne avec leurs mensonges sur la guerre illégale de Poutine. » theguardian.com. Le gouvernement britannique est même allé jusqu’à financer publiquement des recherches sur l’opération de Saint-Pétersbourg et à partager les résultats avec les plateformes de réseaux sociaux pour faciliter les répressions theguardian.com. Les mêmes recherches ont révélé la volonté des trolls d’innover – par exemple, en amplifiant des publications légitimes d’utilisateurs réels qui se trouvaient en accord avec les vues du Kremlin, évitant ainsi une détection facile puisque le contenu n’était pas toujours fabriqué de toutes pièces theguardian.com. Ce jeu du chat et de la souris entre les fermes à trolls et les modérateurs de plateformes est bien connu des agences de renseignement. Aux États-Unis, le FBI et le Département de la Sécurité intérieure ont averti à plusieurs reprises que les agents russes s’adaptaient rapidement aux interdictions de plateformes, réapparaissant avec de nouveaux comptes et de nouvelles tactiques.

Un responsable du FBI en 2020 a noté que les agents russes étaient « persistants et créatifs », utilisant des intermédiaires et des mandataires pour masquer leur implication après que les entreprises de réseaux sociaux ont commencé à bannir massivement des comptes. Par exemple, après que Facebook et Twitter ont supprimé des milliers de comptes de l’IRA après 2016, les trolls sont réapparus via des pays tiers (comme on l’a vu avec l’opération au Ghana) ou en se tournant vers des plateformes alternatives à la modération plus souple. Leur résilience a poussé le Département de la Justice américain, en 2020, à sanctionner davantage d’individus et même des sites liés à des fermes à trolls (comme SouthFront et NewsFront) pour couper leur financement et leur hébergement.

Les think tanks et les universitaires ont également mis en avant l’évolution des outils technologiques à la disposition des trolls. Un rapport de 2018 de l’Institute for the Future a averti que le trolling à grande échelle devrait être considéré comme une atteinte aux droits de l’homme en raison des dommages qu’il cause aux sociétés, tout en déplorant le manque de mécanismes pour punir les auteurs newslit.org. Avançons jusqu’en 2024, et les analystes observent que le contenu généré par l’IA est la nouvelle frontière. Dans une étude de l’UE sur la désinformation, des experts ont souligné que les tactiques russes antérieures « reposaient sur des stratégies moins sophistiquées telles que les fermes à trolls et les réseaux de bots », alors qu’en 2024, les campagnes s’appuient de plus en plus sur l’IA générative pour créer des « contenus hyper-ciblés » plus difficiles à détecter carleton.ca. Les opérations d’influence russes ont commencé à utiliser l’IA pour générer à grande échelle des images, vidéos et textes deepfake réalistes, permettant la diffusion de récits mensongers encore plus puissants. Le Service européen pour l’action extérieure a noté en 2023 que de nombreuses campagnes récentes de désinformation du Kremlin, y compris les opérations dites « Doppelgänger » (qui clonent de vrais sites d’actualités pour diffuser de fausses informations), peuvent être attribuées à des entités financées par des agences d’État russes et désormais renforcées par des capacités d’IA carleton.ca. Cela souligne que le modèle de ferme à trolls n’est pas statique – il améliore continuellement ses techniques, passant des simples mèmes copiés-collés en 2016 à des contenus forgés par l’IA en 2024 et au-delà.

2024–2025 : Derniers développements et perspectives

À partir de 2024 et 2025, les opérations des fermes à trolls russes restent une cible mouvante, réagissant aux événements géopolitiques et aux changements de pouvoir internes. Un développement spectaculaire a été le sort de la Internet Research Agency elle-même. En juin 2023, Yevgeny Prigozhin – le fondateur de l’IRA – a mené une brève mutinerie contre la direction militaire russe avec ses forces de mercenaires Wagner. L’échec de la rébellion et la mort ultérieure de Prigozhin dans un crash d’avion suspect (août 2023) ont conduit le Kremlin à reprendre le contrôle de ses vastes entreprises. Des rapports ont indiqué qu’en juillet 2023, les opérations de l’IRA à Saint-Pétersbourg avaient officiellement été fermées à la suite de la disgrâce de Prigozhin businessinsider.com. En effet, le propre groupe médiatique de Prigozhin, Patriot Media, a annoncé qu’il « quittait l’espace informationnel du pays » alors que le gouvernement s’employait à démanteler ses organes d’influence businessinsider.com. Prigozhin a même confirmé dans une interview peu avant cela qu’il avait créé et dirigé l’IRA, cherchant apparemment à revendiquer le mérite de sa mission « patriotique » spyscape.com. Début juillet 2023, les médias d’État russes ont rapporté que la célèbre ferme à trolls avait été dissoute – un développement également relevé par les médias occidentauxbusinessinsider.com.

Cependant, cette « fin » de l’IRA ne signifiait pas la fin des opérations de trolling russes. Les analystes estiment que le Kremlin a simplement absorbé ou restructuré ces capacités entre d’autres mains. Un rapport du Threat Analysis Group de Google en mars 2024 a observé que, si l’activité directe de l’IRA sur les plateformes Google a chuté après la disparition de Prigojine, des composantes des campagnes d’influence liées à Prigojine « sont restées viables » et continuent probablement sous une autre direction cloud.google.com. Les chercheurs de Mandiant ont noté que plusieurs opérations d’information russes de longue date ont montré « des degrés de changement inégaux » après Prigojine, avec certaines perturbations mais de nombreux actifs toujours actifs, ce qui suggère que le Kremlin a redistribué le contrôle plutôt que de tout fermer cloud.google.com. Fait notable, tout au long de 2023, Google et Meta ont continué à supprimer un grand nombre de faux comptes liés à des réseaux de désinformation russes. Google a signalé plus de 400 mesures d’application en 2023 contre des opérations d’influence liées à l’IRA cloud.google.com. Et fin 2024, à l’approche d’élections cruciales, les responsables américains tiraient toujours la sonnette d’alarme : le FBI et d’autres agences ont averti que la Russie avait bien l’intention d’interférer dans l’élection présidentielle américaine de 2024 en utilisant la manipulation des réseaux sociaux, même si la méthode devait être adaptée sans le centre d’opérations initial de l’IRAreuters.com.

En fait, des tentatives d’ingérence électorale ont déjà été observées à l’approche de 2024. Un exemple frappant est survenu en octobre 2024, lorsque des responsables de l’État de Géorgie, aux États-Unis, ont signalé une vidéo virale de désinformation prétendant à tort montrer un « immigré illégal » se vantant d’avoir voté plusieurs fois. Le bureau du Secrétaire d’État de Géorgie a déclaré directement : « Ceci est faux… Il s’agit probablement d’une ingérence étrangère visant à semer la discorde et le chaos à la veille de l’élection. » reuters.com Ils ont exhorté les réseaux sociaux à retirer la vidéo, notant que « Il s’agit probablement d’une production de fermes à trolls russes. » reuters.com. Cet incident – survenu juste avant une élection américaine houleuse – montre que les trolls russes sont toujours actifs en 2024, utilisant des vidéos virales trompeuses sur des plateformes comme X (Twitter) pour saper la confiance dans le vote reuters.com. Des agences fédérales comme la CISA ont enquêté sur l’incident, et cela a rappelé que même sans la direction originale de l’IRA, l’appareil d’influence en ligne russe peut rapidement lancer de nouvelles campagnes ad hoc si nécessaire.

En se projetant vers 2025, les experts estiment que les opérations des fermes à trolls russes continueront de s’adapter plutôt que de disparaître. Moscou étant engagée dans une guerre prolongée en Ukraine et confrontée à des pressions internes, le Kremlin a tout intérêt à continuer d’utiliser l’arme « bon marché mais efficace » de la manipulation en ligne. On peut s’attendre à ce que les opérateurs russes adoptent encore davantage les technologies émergentes – en particulier l’IA. Des analystes européens ont noté qu’à la fin de 2024, la taille et la rapidité de la désinformation russe avaient augmenté grâce aux outils d’IA générative, rendant la production de faux contenus en masse plus facile carleton.ca. Cela signifie que les futures tactiques des fermes à trolls pourraient impliquer des « personnes » générées par IA (pour des photos de profil parfaitement réalistes et même des commentaires vidéo deepfake), ainsi qu’une propagande adaptée par algorithme visant des communautés spécifiques avec précision. La course aux armements entre plateformes et trolls va probablement s’intensifier : à mesure que les entreprises s’améliorent pour bannir les signatures de trolls connues, les trolls utilisent l’IA pour créer des personas et des contenus toujours plus convaincants.

Sur la scène géopolitique, les fermes à trolls russes (sous quelque nouveau déguisement que ce soit) cibleront probablement tout événement majeur pertinent pour les intérêts du Kremlin. Les prochaines élections dans les pays occidentaux, les débats sur le soutien à l’Ukraine, et même des questions comme les crises énergétiques ou les conflits internationaux pourraient tous devenir des théâtres de nouvelles offensives de désinformation. Les agences de sécurité de l’Union européenne ont renforcé leur surveillance de la « Manipulation et interférence de l’information étrangère » (FIMI), publiant des rapports de menace périodiques qui mettent presque toujours en avant les opérations russes. Les responsables de l’OTAN et de l’UE avertissent que la Russie tentera de fracturer l’unité occidentale sur l’Ukraine en alimentant des récits extrémistes et isolationnistes via les réseaux sociaux (par exemple, en promouvant des voix opposées à l’aide à l’Ukraine ou soutenant des politiques favorables à la Russie). En effet, les élections européennes de 2024 ont vu une recrudescence de messages – y compris des sites de fausses nouvelles clonés dans une campagne « Doppelgänger » – diffusant des thèmes anti-Ukraine et anti-UE, que les analystes ont reliés à des groupes de désinformation russes carleton.ca. L’influence de ces efforts est difficile à quantifier, mais ils ont coïncidé avec des gains pour les blocs politiques d’extrême droite et pro-russes, indiquant un certain effetcarleton.ca.

Dans la sphère intérieure russe, le Kremlin continuera probablement à garder une emprise étroite sur le récit par tous les moyens nécessaires – y compris les fermes à trolls ou leurs successeurs. Après la mutinerie de Prigojine, Poutine a compris le risque de laisser un acteur privé contrôler une trop grande partie de la machine de propagande. Il ne serait pas surprenant que les services de sécurité russes (comme le FSB ou le renseignement militaire) aient repris une partie des opérations de trolling pour garantir la loyauté et une supervision directe. Le ton du trolling domestique russe depuis la fin 2023 a évolué pour effacer la mémoire de Prigojine (compte tenu de sa trahison) et renforcer la stature de Poutine face aux défis de la guerre tandfonline.com. Tout Russe exprimant de la lassitude face à la guerre ou critiquant le gouvernement en ligne peut s’attendre à être submergé par des commentateurs « patriotes » – souvent des trolls – l’attaquant comme traître, ce qui a pour effet de dissuader la dissidence. Cela indique que la tactique des fermes à trolls reste un pilier de la propagande interne, mais de façon plus centralisée par l’État.

En conclusion, les fermes à trolls russes sont passées d’une expérience marginale à un véritable instrument du pouvoir d’État à l’ère de l’information. Elles fonctionnent comme des usines de propagande du XXIe siècle, diffusant mensonges, peur et discorde en un simple clic. Au cours de la dernière décennie, elles sont intervenues dans des élections, ont attisé des conflits et ont pollué d’innombrables discussions en ligne. Et malgré une exposition accrue et des sanctions, elles ne montrent aucun signe d’arrêt – elles ne font que changer de forme. Tant que les sociétés ouvertes s’appuieront sur les plateformes en ligne pour l’information et le débat, les trolls du Kremlin chercheront à exploiter cette ouverture. Combattre cette menace exigera une vigilance constante, une sensibilisation du public et une coopération internationale. Le monde a pris conscience de la stratégie des fermes à trolls russes ; le défi désormais est d’empêcher ces « soldats numériques » de détourner la conversation mondiale par la manipulation et la malveillance.

Former Russian trolls expose misinformation operations

Don't Miss