- L’Internet Research Agency (IRA), la principale fabbrica di troll russa, ha sede a San Pietroburgo ed è stata fondata intorno al 2013, crescendo fino a circa 400 dipendenti entro il 2015 che lavoravano su turni di 12 ore.
- Il personale dell’IRA operava secondo rigide quote: 5 post politici, 10 post non politici e 150–200 commenti per turno.
- I troll guadagnavano circa 40.000 rubli al mese (circa 700–800 dollari) e venivano pagati in contanti.
- Nascondevano la loro origine con VPN, server proxy, foto profilo rubate o generate dall’IA e false identità per sembrare autentici.
- L’operazione faceva parte del Progetto Lakhta, un ombrello legato al Cremlino che includeva il Patriot Media Group, proprietario della Federal News Agency (RIA FAN) e di altri media usati per riciclare propaganda, successivamente nominati nelle sanzioni statunitensi.
- Nelle elezioni presidenziali statunitensi del 2016, l’IRA ha condotto una campagna multipiattaforma su Facebook, Twitter, Instagram, YouTube e Reddit, raggiungendo oltre 126 milioni di americani e portando all’incriminazione di 13 operatori IRA nel 2018, con sanzioni contro il gruppo.
- Nel 2016–2017, operatori dell’IRA che si spacciavano per attivisti americani hanno organizzato manifestazioni reali negli Stati Uniti, tra cui una protesta a New York a favore di Donald Trump e un’altra contro di lui nello stesso giorno.
- Dal 2018 al 2020, l’IRA ha esternalizzato il trolling in inglese in Africa, gestendo una rete in Ghana e Nigeria che si spacciava per attivisti afroamericani, che Facebook e Twitter hanno poi disattivato nel 2020.
- Nel 2022, è emerso a San Pietroburgo il gruppo pubblico Cyber Front Z, che si coordinava tramite Telegram, operava da una vecchia fabbrica di armi e pagava influencer di TikTok per amplificare i messaggi del Cremlino, impegnandosi anche in brigading e manipolazione di sondaggi.
- Nel 2024, le campagne di IA e Doppelgänger erano diventate centrali, con Google che ha segnalato oltre 400 azioni di contrasto nel 2023 contro reti di influenza legate all’IRA e gli analisti che hanno notato la continuazione delle operazioni dopo la rivolta e la morte di Prigozhin nel 2023.
Cosa sono le troll farm? Il motore della disinformazione
Le troll farm sono gruppi organizzati di operatori online pagati che usano identità false per inondare internet di propaganda e contenuti divisivi. Operando in ambienti simili a uffici, questi team creano profili falsi che impersonano persone reali, pubblicando sui social media, nei commenti alle notizie e nei forum. Il loro obiettivo è manipolare l’opinione pubblica – alcuni troll diffondono messaggi che mostrano un falso sostegno popolare per certe idee, mentre altri diffondono voci progettate per seminare confusione e sfiducia nelle istituzioni newslit.org. Spesso lavorando in turni coordinati, il personale delle troll farm pubblica commenti incendiari, “notizie” fuorvianti e teorie del complotto su larga scala, amplificando punti di vista estremi ben oltre la portata organica. Molti usano account sockpuppet (più identità online), talvolta assistiti da social bot (account automatizzati), per far sembrare che numerose persone comuni condividano queste opinioni marginali en.wikipedia.org. In realtà, una manciata di operatori può gestire centinaia di account – una catena di montaggio segreta di propaganda che produce disinformazione su richiesta.
Mentre il concetto può sembrare tratto da un film di fantascienza, le troll farm sono molto reali e sono state trasformate in armi dagli stati. La Russia, in particolare, ha tristemente adottato le troll farm come uno strumento centrale del suo arsenale di guerra informativa. Inondando gli spazi online con narrazioni pro-Cremlino e commenti ostili, le troll farm russe mirano a distorcere le percezioni e a minare il dibattito nei paesi bersaglio. Le loro attività spaziano da interferenze elettorali e agitazione politica all’estero al rafforzamento della propaganda in patria. La maggior parte del mondo ha sentito parlare per la prima volta delle troll farm russe quando emerse la notizia della loro interferenza nelle elezioni presidenziali statunitensi del 2016 newslit.org. Tuttavia, questa tattica è precedente al 2016 e non è esclusiva della Russia: anche altri governi e gruppi hanno copiato metodi simili. Resta il fatto che sono le operazioni russe ad aver creato il modello della moderna troll farm: sponsorizzata dallo stato, organizzata centralmente e con portata globale. Le aziende dei social media hanno avuto difficoltà a limitare questi account falsi, talvolta eliminando grandi reti (ad esempio, Facebook e Twitter hanno rimosso nel 2020 una rete di troll russa con base in Ghana che aveva raccolto oltre 300.000 follower alimentando le tensioni razziali negli Stati Uniti newslit.org). Tuttavia, questo probabilmente rappresenta solo “la punta dell’iceberg” newslit.org. Le troll farm continuano a evolversi, trovando nuovi modi per sfuggire al rilevamento e sfruttare le piattaforme online.Dentro le fabbriche di troll russe: organizzazione e attori chiave
La più famigerata fabbrica di troll della Russia è la Internet Research Agency (IRA), un’azienda con sede a San Pietroburgo un tempo guidata e finanziata dall’oligarca Yevgeny Prigozhin – un alleato stretto di Putin spesso soprannominato “il cuoco di Putin”. L’IRA (nota nello slang russo come i “troll di Olgino”) è stata fondata intorno al 2013 e si è sviluppata in un’operazione professionalizzata con centinaia di dipendenti spyscape.com. Nel 2015, secondo quanto riferito, l’IRA contava circa 400 membri dello staff che lavoravano su turni di 12 ore, incluso un gruppo d’élite di circa 80 troll con conoscenza dell’inglese dedicati esclusivamente a prendere di mira il sistema politico statunitense spyscape.com. Somigliava a un’agenzia di marketing online – ma dedicata agli obiettivi del Cremlino. Un team di gestione supervisionava diversi dipartimenti (grafica, IT, ottimizzazione dei motori di ricerca, finanza, ecc.) e monitorava ossessivamente le metriche spyscape.com. Secondo un’indagine del Senato degli Stati Uniti, i manager monitoravano persino i dipendenti tramite telecamere a circuito chiuso ed erano “ossessionati” da visualizzazioni di pagina, like e quote di commenti come misure di influenza spyscape.com.La vita come troll russo è stata descritta dagli insider come un lavoro d’ufficio ad alta pressione. Lyudmila Savchuk, una giornalista che si è infiltrata sotto copertura nell’IRA, ha rivelato che ogni troll aveva rigide quote giornaliere – ad esempio, 5 post politici, 10 post non politici (per sembrare autentici) e 150-200 commenti su altri contenuti per turno spyscape.com. I troll lavoravano molte ore per uno stipendio modesto (circa 40.000 rubli, ovvero circa 700-800 dollari al mese) e venivano pagati in contanti spyscape.com. Operavano in “squadre” segrete focalizzate su diversi pubblici e argomenti. Ad esempio, gruppi separati erano assegnati alla politica statunitense, a questioni europee, all’Ucraina, ecc., ciascuno elaborando messaggi su misura per quei pubblici. Ex dipendenti dell’IRA hanno raccontato di aver ricevuto l’ordine di guardare popolari serie TV americane come House of Cards per imparare riferimenti culturali statunitensi spyscape.com. Ricevevano formazione in lingua inglese e guide sullo slang americano per fingersi meglio commentatori autentici degli Stati Uniti spyscape.com. Per nascondere le proprie origini russe, usavano VPN e server proxy per mascherare la posizione e curavano con attenzione false identità (con tanto di foto profilo rubate o generate dall’IA, dettagli sulla “città natale” e nomi realistici) spyscape.com. Nel corso di settimane e mesi, questi account falsi costruivano gradualmente un’identità e un seguito – unendosi a gruppi Facebook, twittando sulla vita quotidiana o sullo sport – prima di passare alla propaganda politica una volta diventati abbastanza credibili. “Col tempo, quegli account ottengono follower e diventano più influenti,” osserva un rapporto spyscape.com.
L’IRA di Prigozhin non operava in isolamento, ma come parte di un più ampio ecosistema di influenza legato al Cremlino. Giornalisti russi e atti d’accusa statunitensi hanno svelato un’iniziativa ombrello chiamata “Project Lakhta”, sotto la quale l’IRA e entità correlate lavoravano per “distruggere il processo democratico statunitense, diffondere sfiducia, incitare disordini civili e polarizzare gli americani” – soprattutto aggravando le divisioni razziali e sociali spyscape.com. Per garantire la negabilità, questo progetto utilizzava una rete di società di comodo e fronti mediatici. Ad esempio, la holding di Prigozhin, “Patriot Media Group”, possedeva la Federal News Agency (RIA FAN) e altri pseudo-siti di notizie che diffondevano propaganda, fungendo anche da copertura per operazioni segrete di trollaggio cloud.google.com. Le entità di Project Lakhta includevano la stessa IRA e siti “giornalistici” nominali come Nevskiy News, Economy Today e International News Agency, tutti successivamente nominati nelle sanzioni statunitensi per aver ospitato attività di disinformazione spyscape.com. Questa commistione sfumata di canali di propaganda palesi e squadre di troll occulte permetteva alle operazioni di influenza russe di “ripulire” la disinformazione – ad esempio, un troll diffondeva una notizia falsa tramite una persona fittizia, che veniva poi ripresa dai siti di Patriot Media come “notizia” e infine amplificata da altri troll e bot.
In particolare, le operazioni di trolling russe andavano oltre tastiere e schermi. L’IRA e i suoi associati a volte assumevano inconsapevoli residenti locali nei paesi bersaglio per organizzare eventi reali che rispecchiassero la loro agitazione online. Gli investigatori statunitensi hanno scoperto che nel 2016–2017, operatori dell’IRA che si spacciavano per attivisti americani riuscirono a organizzare vere manifestazioni politiche negli Stati Uniti – arrivando persino a organizzare una protesta a New York City a sostegno di Donald Trump e un’altra contro di lui nello stesso giorno, per massimizzare la divisione spyscape.com. I troll russi si fingevano organizzatori di base, reclutando veri americani tramite gruppi Facebook e pagandoli per portare striscioni o costruire scenografie, mentre quei cittadini non avevano idea di rispondere a direttive russe spyscape.com. Questa tattica – usare troll per creare movimenti “AstroTurf” di finto attivismo popolare – mostra fino a che punto si spingano queste operazioni di influenza. Combinando la disinformazione online con azioni offline, cercavano di trasformare la rabbia digitale in caos reale.
L’Internet Research Agency è diventata famosa in tutto il mondo dopo che la sua ingerenza nella politica statunitense è stata resa pubblica. Nel 2018, il Dipartimento di Giustizia degli Stati Uniti ha incriminato gli operatori dell’IRA per interferenza criminale nelle elezioni del 2016, descrivendo in dettaglio come abbiano creato migliaia di account sui social media (spacciandosi per americani di ogni tipo), raggiunto milioni di persone con meme e notizie false, e persino finanziato pubblicità politiche e manifestazioni businessinsider.com. (L’uso da parte dell’IRA di identità statunitensi rubate e frodi finanziarie per finanziare le operazioni ha portato a ulteriori accuse businessinsider.com.) Sebbene la Russia abbia negato le accuse, Prigozhin ha infine ammesso il suo ruolo: “Non sono mai stato solo un finanziatore dell’IRA. L’ho inventata, l’ho creata, l’ho gestita per molto tempo,” si è vantato Prigozhin all’inizio del 2023, affermando che era stata fondata per “proteggere lo spazio informativo russo dalla… propaganda anti-russa aggressiva dell’Occidente.” spyscape.com. Questa confessione schietta da parte della mente dietro l’operazione sottolinea la doppia missione dell’IRA: attaccare online gli avversari della Russia mentre protegge il Cremlino in patria.
A parte l’IRA, altre operazioni di trollaggio sono emerse o si sono evolute in Russia. Nel 2022, dopo che la Russia ha lanciato la sua invasione su larga scala dell’Ucraina, una nuova organizzazione con sede a San Pietroburgo che si fa chiamare “Cyber Front Z” ha iniziato a reclutare apertamente collaboratori “patriottici” per inondare internet di commenti a favore della guerra theguardian.com. Situata in uno spazio affittato all’interno di una vecchia fabbrica di armi, questa “fabbrica di troll” (come descritta dall’intelligence britannica) era collegata alla rete di Prigozhin e coordinata tramite un canale Telegram chiamato “Cyber Front Z” theguardian.com. Gli operatori di Cyber Front Z prendevano di mira le pagine social dei leader occidentali e le sezioni commenti dei siti di notizie, dirottando le discussioni per lodare Putin e demonizzare l’Ucraina theguardian.com. Secondo ricerche citate dal governo britannico, pagavano persino alcuni influencer di TikTok per amplificare i messaggi del Cremlino theguardian.com. Questo suggerisce che le operazioni di trollaggio russe si siano adattate a nuove piattaforme e a un pubblico più giovane – espandendosi da Facebook e Twitter a Instagram, YouTube e TikTok, dove i ricercatori hanno riscontrato un’alta concentrazione di attività nel 2022 theguardian.com. I membri di Cyber Front Z si impegnavano in “brigading” coordinato, commentando in massa per indirizzare le conversazioni online verso la linea del Cremlino, e persino manipolando sondaggi online (ad esempio, alterando i voti nei sondaggi dei media occidentali sul sostegno alle sanzioni contro la Russia) theguardian.com. A differenza della segreta IRA, Cyber Front Z era sfacciatamente pubblico riguardo al proprio patriottismo, giustificando il trollaggio online come un dovere civico in tempo di guerra theguardian.com.
Strumenti e tattiche: come i troll russi diffondono la propaganda
Le fabbriche di troll russe impiegano un ampio arsenale di tecniche per iniettare e amplificare la disinformazione online. Alcuni degli strumenti e delle tattiche chiave includono:
- Falsi profili e account burattino (sockpuppet): I troll creano centinaia di identità online fittizie, complete di foto profilo rubate o generate dall’IA, e fingono di essere cittadini comuni en.wikipedia.org. Spesso imitano anche le demografie locali (ad esempio, fingendosi americani di diversi orientamenti politici, o europei di specifici paesi) per mimetizzarsi. Questi account burattino popolano tutte le principali piattaforme – Facebook, Twitter (ora X), Instagram, YouTube, TikTok, Reddit e reti russe come VKontakte spyscape.com. Per evitare segnali evidenti di falsità, i troll pubblicano regolarmente contenuti non politici con queste identità (battute sportive, foto di cibo, ecc.) e copiano attentamente i comportamenti reali dei social media. Col tempo costruiscono credibilità, poi diffondono propaganda o contenuti fuorvianti all’interno delle comunità.
- Amplificazione sui social media e “brigading”: Le troll farm mirano a far sembrare che poche voci siano una folla. Coordinano ondate di post e commenti affinché una certa narrazione domini le conversazioni o tenda artificialmente. Ad esempio, un gruppo di troll può rispondere contemporaneamente al tweet di un politico con gli stessi argomenti, dando la falsa impressione che il sentimento pubblico sia schiacciante e unilaterale. Nelle sezioni commenti degli articoli di notizie, si mettono like a vicenda e si rispondono per soffocare il dibattito genuino theguardian.com. Su piattaforme come Facebook, i troll hanno gestito grandi pagine a tema (ad es. “Secured Borders” o falsi gruppi di attivisti) che attiravano veri follower, per poi inserire sottilmente propaganda polarizzante in quei feed. Sono anche noti per dirottare hashtag o lanciare campagne coordinate di hashtag su Twitter per farli entrare tra i trend. Coreografando i post su dozzine di account, le troll farm possono brigare sondaggi online, forum e feed social per far sembrare popolari idee marginali theguardian.com.
- Bot e Reti Automatizzate: Oltre alle persone gestite da esseri umani, le operazioni russe utilizzano reti di bot – account automatizzati o semi-automatizzati – per amplificare il loro messaggio. Questi bot possono retwittare o condividere contenuti migliaia di volte in pochi minuti, distorcere gli algoritmi dei trend e molestare utenti presi di mira. Durante varie elezioni ed eventi, gli investigatori hanno riscontrato sciami di tweet/post provenienti da account sospetti di essere bot collegati alla Russia washingtonpost.com. Ad esempio, la Spagna ha segnalato una “valanga di bot” che diffondevano fake news durante il referendum per l’indipendenza della Catalogna del 2017, con oltre la metà degli account bot rintracciati fino a origini russe washingtonpost.com. I bot spesso amplificano i messaggi dei troll mettendo “mi piace” e ripubblicandoli in massa. La combinazione di bot e troll umani fa sembrare la campagna più ampia e organica di quanto non sia realmente – un moltiplicatore di forza per la disinformazione.
- Contenuti di Disinformazione & Manipolazione dei Media: Le “troll farm” sono specializzate nella produzione di disinformazione condivisibile – da articoli di fake news e immagini manipolate a meme e video fuorvianti. Spesso gestiscono pseudo-siti di notizie che sfornano pezzi di propaganda, che i troll poi fanno circolare in gruppi e nei thread dei commenti. Gli operatori russi hanno falsificato screenshot di tweet, documenti governativi e diffuso meme complottisti per sostenere le loro narrazioni. Negli ultimi anni, hanno anche iniziato a utilizzare deepfake e altri media generati dall’IA. Un esempio noto si è verificato nel marzo 2022, quando un video deepfake del presidente ucraino Volodymyr Zelensky è stato diffuso, mostrandolo falsamente mentre diceva alle truppe ucraine di arrendersi reuters.com. Il video era realizzato male e rapidamente smentito, ma gli esperti hanno avvertito che “potrebbe essere un presagio di inganni più sofisticati in arrivo” reuters.com. Le reti di troll possono agganciarsi a questi contenuti falsi – o crearne di propri – e spingerli aggressivamente verso un pubblico ignaro. Diffondendo bufale virali (da false accuse di brogli elettorali a cure fasulle per il COVID-19), mirano a fuorviare e infiammare l’opinione pubblica.
- Cooptare di influencer e voci locali: Un’altra tattica consiste nel ripulire la propaganda attraverso voci legittime. Le campagne di influenza russe sono state scoperte a reclutare o ingannare terze parti inconsapevoli – ad esempio, contattando giornalisti freelance all’estero per scrivere articoli che riecheggiano i punti di vista del Cremlino, o pagando influencer sui social media per promuovere determinate narrazioni theguardian.com. Nel 2020, un’operazione soprannominata “Peace Data” ha visto troll russi creare una finta testata giornalistica online di sinistra e assumere veri scrittori freelance (molti in Occidente) per contribuire con articoli, senza sapere la reale affiliazione della piattaforma. Allo stesso modo, ricercatori britannici nel 2022 hanno scoperto che alcuni influencer su TikTok e Instagram sono stati pagati per diffondere messaggi pro-Russia sull’Ucraina theguardian.com. Sfruttando la credibilità delle voci locali, i troll possono diffondere propaganda in una forma più accettabile, nascosta all’interno di contenuti che appaiono indipendenti. Questo aggiunge un livello di negabilità e rende più difficile l’individuazione, poiché il messaggio proviene da individui apparentemente autentici invece che da evidenti account troll.
In combinazione, queste tattiche permettono alle fabbriche di troll russe di condurre “guerra dell’informazione” su più fronti – iniettando contenuti falsi o di parte, amplificandoli artificialmente e distorcendo l’ambiente informativo online. L’obiettivo finale non è semplicemente convincere una persona o l’altra di una singola menzogna; è erodere la fiducia in generale – fiducia nei media, nei processi elettorali, nelle norme sociali – inquinando il dibattito con così tanta disinformazione e astio che la verità oggettiva e un confronto sano diventano difficili da trovare. Come ha detto un esperto, queste operazioni di troll sono un “strumento per Putin per controllare le narrazioni” e per soffocare le voci dissidenti propublica.org. Che si tratti di inondare i forum in lingua russa con consenso pro-Cremlino o di sommergere i social media occidentali con teorie del complotto, le fabbriche di troll cercano di sopraffare la verità con il rumore.
Obiettivi: perché il Cremlino gestisce le fabbriche di troll
Le campagne delle fabbriche di troll russe servono obiettivi strategici fissati dal Cremlino, che rientrano in generale nelle categorie di influenza politica, destabilizzazione degli avversari e guerra di propaganda. Gli obiettivi principali includono:
- Minare le elezioni e i processi politici: Una delle missioni principali dei troll russi è stata quella di interferire nelle elezioni democratiche all’estero. Il loro ormai famigerato ruolo nelle elezioni statunitensi del 2016 mirava a polarizzare gli elettori americani, sopprimere alcuni voti e favorire esiti preferiti. I documenti interni della IRA descrivevano uno sforzo “per interferire con le elezioni e i processi politici” negli Stati Uniti propublica.org. Allo stesso modo, durante le votazioni europee, l’attività dei troll russi ha cercato di promuovere candidati pro-Cremlino o di estrema destra e di seminare dubbi sui centristi pro-UE. Il Primo Ministro britannico Theresa May ha avvertito alla fine del 2017 che la Russia stava tentando di “minare le società libere e seminare discordia” in Occidente, schierando i suoi troll e le sue testate di fake news washingtonpost.com. Le autorità spagnole hanno accusato reti legate alla Russia di aver interferito nel referendum catalano in Spagna e hanno notato sovrapposizioni nella disinformazione durante la Brexit e le elezioni francesi, con l’obiettivo di fratturare l’unità europea washingtonpost.com. In sostanza, manipolando l’opinione pubblica durante elezioni o referendum stranieri, il Cremlino spera di insediare leader più favorevoli, indebolire gli avversari internazionali o semplicemente creare caos (poiché il caos nelle democrazie rivali è di per sé una vittoria per Putin). I funzionari statunitensi hanno affermato che l’obiettivo della Russia è spesso quello di “alimentare narrazioni divisive” intorno alle elezioni – sfruttando questioni sensibili come razza, immigrazione o criminalità – affinché le società si rivoltino contro se stesse reuters.com. Anche quando i candidati specifici non vincono, i troll hanno successo se convincono abbastanza cittadini a dubitare dell’integrità delle elezioni o a provare risentimento verso gli altri elettori.
- Seminare divisione e sfiducia: Al di là di una singola elezione, le fabbriche di troll russe lavorano per infiammare le divisioni esistenti nei paesi bersaglio sul lungo termine. Spingendo costantemente contenuti polarizzanti su punti sensibili sociali (sinistra vs. destra, urbano vs. rurale, tensioni etniche e religiose, ecc.), cercano di allargare le fratture all’interno di una società. Un’indagine del Senato degli Stati Uniti ha rilevato che un progetto dell’IRA si concentrava fortemente su “promuovere questioni socialmente divisive con enfasi sulle divisioni razziali e l’ineguaglianza” in America spyscape.com. L’obiettivo è indebolire gli avversari della Russia dall’interno: una nazione impantanata in conflitti interni è meno in grado di presentare un fronte unito a livello internazionale. Questa strategia è stata osservata in tutto l’Occidente – dalla promozione di sentimenti secessionisti in Catalogna, Spagna washingtonpost.com, all’alimentare l’indignazione anti-immigrati e anti-UE in Europa, fino a amplificare la discordia razziale e le controversie sui vaccini negli Stati Uniti. Diffondendo teorie del complotto e retorica estrema, i troll mirano a far perdere fiducia nelle fonti di informazione tradizionali e persino a spingere le persone contro i propri governi. Come ha avvertito il Segretario di Stato della Georgia (Stato USA) nel 2024, le false storie su brogli elettorali che improvvisamente appaiono sui social media sono probabilmente “interferenze straniere che cercano di seminare discordia e caos” – spesso ricondotte alle fabbriche di troll russe reuters.com.
- Sostenere la politica estera e gli obiettivi militari russi: Le fabbriche di troll servono anche come soldati digitali per l’agenda geopolitica del Cremlino. Quando la Russia è coinvolta in conflitti o crisi, i troll si attivano per plasmare la narrazione online. Ad esempio, dall’aggressione iniziale della Russia in Ucraina nel 2014, e soprattutto dopo l’invasione su larga scala nel 2022, i troll russi hanno diffuso con vigore propaganda a favore della guerra. Amplificano affermazioni che giustificano le azioni della Russia (come false accuse di aggressione della NATO o di “nazisti” in Ucraina) mentre minimizzano o negano le atrocità commesse dalle forze russe propublica.org. Una ricerca britannica del 2022 ha rivelato un’operazione coordinata di troll per aumentare il sostegno all’invasione dell’Ucraina da parte di Putin, prendendo di mira non solo il pubblico russo ma anche i social media occidentali con messaggi contro le sanzioni e la leadership ucraina theguardian.com. I troll hanno persino preso di mira figure di alto profilo – ad esempio inondando i commenti del Primo Ministro britannico e di altri funzionari con argomentazioni pro-Cremlino theguardian.com – nella speranza di influenzare l’opinione pubblica. In sostanza, ogni volta che la Russia vuole proiettare potere o mascherare le proprie aggressioni, scatena i troll per attaccare il panorama informativo: per confondere le persone sui fatti, promuovere teorie del complotto alternative e radunare scettici internazionali dalla parte della Russia. Come ha osservato il ricercatore della Clemson University Darren Linvill, Putin non ha necessariamente bisogno di “vincere” la guerra dell’informazione in modo netto; gli basta annebbiare le acque abbastanza da mantenere la posizione, e gli account troll sono uno strumento per farlo propublica.org. Sul fronte interno, questo obiettivo si estende al rafforzamento della versione degli eventi del Cremlino affinché i cittadini russi rimangano favorevoli o almeno scettici verso l’Occidente.
- Sostenere il regime a livello interno: Sebbene molta attenzione sia rivolta ai troll russi all’estero, una parte significativa dei loro sforzi è in realtà indirizzata al pubblico russo interno. L’IRA è stata originariamente creata per gestire l’immagine e l’agenda di Putin all’interno di Runet (l’internet russo) propublica.org. Inondando i social media russi e i forum di commenti con messaggi patriottici e attacchi ai critici del Cremlino, le fabbriche di troll aiutano a soffocare le voci dell’opposizione e a fabbricare un senso di diffuso sostegno pubblico a Putin. Ad esempio, durante le ondate di COVID-19 e le difficoltà economiche in Russia, i troll interni hanno promosso aggressivamente la narrazione secondo cui eventuali fallimenti erano dovuti alle sanzioni occidentali o a sabotaggi, e non a una cattiva gestione del governo. Dopo l’invasione dell’Ucraina, gli account troll in lingua russa hanno lavorato per convincere i concittadini che la guerra fosse giustificata e stesse andando bene, ripetendo le frasi della TV di stato e screditando chi esprimeva dubbi propublica.org. “È un modo per [Putin] di mentire al suo stesso popolo e controllare la conversazione,” spiega Linvill propublica.org. Manipolando l’opinione pubblica interna, le fabbriche di troll aiutano a mantenere la stabilità sociale e la lealtà, rafforzando il regime di Putin. In questo senso, sono un braccio della propaganda usato internamente per contrastare qualsiasi informazione fattuale che possa minare la narrazione del Cremlino (come notizie di battute d’arresto militari russe o scandali di corruzione). L’obiettivo del Cremlino qui è la propaganda classica: “tenere il punto” nella guerra dell’informazione interna, assicurandosi che i russi credano nelle sue politiche o almeno dubitino di qualsiasi punto di vista alternativopropublica.org.
In sintesi, le fabbriche di troll russe operano con obiettivi chiari: indebolire gli avversari del Cremlino, sia all’esterno che all’interno, manipolando l’informazione. Che si tratti di distorcere i dibattiti elettorali, frammentare le società, migliorare l’immagine della Russia o sopprimere il dissenso, il tema comune è l’informazione come arma. O, come ha detto Theresa May in un avvertimento pubblico a Mosca: “Sappiamo cosa state facendo. E non ci riuscirete.” washingtonpost.com
Operazioni di rilievo: dalle elezioni USA alla guerra in Ucraina
Nel corso dell’ultimo decennio, le fabbriche di troll russe sono state collegate a importanti operazioni di influenza in tutto il mondo, spesso in tandem con altre attività informatiche e di intelligence. Alcuni dei casi più significativi includono:
- Interferenza nelle elezioni statunitensi del 2016: La campagna dell’IRA per interferire nella corsa presidenziale americana del 2016 rappresenta l’esempio per eccellenza dell’interferenza delle fabbriche di troll. A partire già dal 2014, i troll di San Pietroburgo crearono una vasta rete di false identità su Facebook, Twitter, Instagram, YouTube e Reddit – impersonando attivisti liberali, elettori conservatori, sostenitori di Black Lives Matter, separatisti del sud, gruppi musulmani, e molti altri spyscape.com, en.wikipedia.org. Questi account diffusero milioni di post con l’obiettivo di infiammare entrambe le parti su questioni divisive (relazioni razziali, diritto alle armi, immigrazione) e denigrare Hillary Clinton mentre favorivano Donald Trump. Crearono persino pagine Facebook per organizzazioni fittizie e acquistarono annunci mirati a specifici segmenti demografici degli stati in bilico businessinsider.com. Entro il giorno delle elezioni, i contenuti delle pagine controllate dall’IRA avevano raggiunto oltre 126 milioni di americani su Facebook, secondo rivelazioni successive, e i loro tweet venivano citati dai media tradizionali. L’obiettivo, come descritto nelle incriminazioni statunitensi, era “seminare discordia nel sistema politico degli Stati Uniti” e, in ultima analisi, aiutare ad eleggere un candidato più favorevole al Cremlino washingtonpost.com. Le agenzie di intelligence statunitensi hanno concluso che questa operazione di influenza, diretta dal governo russo, ha segnato una nuova era della guerra dell’informazione. Nel 2018, il Tesoro degli Stati Uniti ha sanzionato l’IRA e Prigozhin per questa interferenza businessinsider.com, e il procuratore speciale Robert Mueller ha incriminato 13 operatori dell’IRA. Sebbene nessuno sia stato processato (poiché sono rimasti in Russia), l’incriminazione ha rivelato dettagli approfonditi su come la fabbrica di troll abbia orchestrato manifestazioni, rubato identità americane e sfruttato gli algoritmi dei social media su una scala senza precedenti businessinsider.com, spyscape.com.
- 2018–2020: Continuazione delle operazioni negli Stati Uniti e in Africa: Nonostante la reazione negativa del 2016, i troll russi non cessarono le attività. In vista delle elezioni statunitensi del 2020, l’IRA sperimentò l’outsourcing del trolling in lingua inglese a intermediari in Africa. In un caso notevole scoperto nel 2020, una fabbrica di troll in Ghana e Nigeria (presumibilmente gestita da operatori russi) gestiva dozzine di account sui social media che si spacciavano per attivisti afroamericani, pubblicando su questioni razziali per alimentare la divisione negli Stati Uniti. newslit.org. Facebook e Twitter, avvisati da ricercatori e dalla CNN, alla fine disabilitarono la rete newslit.org. Nel frattempo, l’intelligence statunitense avvertiva che la Russia continuava a diffondere narrazioni fuorvianti durante la campagna del 2020 – anche se un monitoraggio più rigoroso delle piattaforme e una maggiore consapevolezza pubblica rendevano più difficile per i troll avere lo stesso impatto del 2016. In particolare, l’IRA si adattò anche creando delle “franchigie”: invece di gestire tutti gli account da San Pietroburgo, fornivano contenuti e indicazioni a individui simpatizzanti o assunti all’estero, più difficili da rintracciare. Ad esempio, diverse incriminazioni statunitensi nel 2020 rivelarono uno sforzo russo per reclutare americani (incluso un attivista politico in Florida) affinché pubblicassero articoli scritti da false identità e organizzassero proteste. Il manuale operativo delle fabbriche di troll stava quindi evolvendo, ma gli obiettivi rimanevano coerenti. Il Cyber Command statunitense arrivò persino al punto di hackerare i server dell’IRA alla fine del 2018 per interrompere le loro attività durante le elezioni di metà mandato, mettendo temporaneamente offline la fabbrica di troll spyscape.com. La tregua fu temporanea – secondo i rapporti si riorganizzarono in seguito – ma dimostrò che i governi occidentali erano sempre più disposti a intraprendere azioni offensive contro i troll.
- 2016–2017 Brexit e campagne europee: In Europa, i troll russi hanno preso di mira eventi cruciali come il referendum sulla Brexit nel Regno Unito nel 2016 e le elezioni presidenziali francesi nel 2017. In Gran Bretagna, le indagini hanno rilevato che account Twitter collegati al Cremlino (inclusi profili IRA noti identificati da Twitter) avevano promosso messaggi pro-Brexit e storie incendiarie sull’immigrazione nei giorni precedenti al voto washingtonpost.com. La portata era inferiore rispetto agli Stati Uniti, portando gli analisti a valutare che i troll russi non abbiano influenzato in modo decisivo il risultato della Brexit, ma l’intento di interferire era evidente washingtonpost.com. Contemporaneamente, durante le elezioni francesi del 2017, operatori russi (tramite troll e hacker) hanno diffuso e amplificato i cosiddetti “Macron leaks” – una raccolta di email hackerate dalla campagna del candidato Emmanuel Macron – insieme a disinformazione su Macron, nel tentativo di favorire la sua avversaria di estrema destra Marine Le Pen. Il monitoraggio informatico francese ha rilevato che molti degli account social che promuovevano #MacronLeaks su Twitter erano stati appena creati o ricondotti a reti di influenza russe. In Germania, le autorità si sono preparate a possibili interferenze simili in vista delle elezioni federali del 2017. Sebbene una grande campagna di troll non si sia concretizzata (forse scoraggiata dagli avvertimenti del governo tedesco), la mano russa è stata sospettata in altri episodi – come una storia di propaganda del 2016 che affermava falsamente che una ragazza russo-tedesca, “Lisa”, fosse stata violentata da migranti a Berlino, notizia ampiamente promossa sui social russi e che ha scatenato proteste. I leader europei hanno preso atto: alla fine del 2017, la premier May ha accusato pubblicamente la Russia di interferenze in tutta Europa, e il premier spagnolo Mariano Rajoy ha rivelato dati secondo cui durante la crisi catalana per l’indipendenza del 2017, gran parte delle attività online false provenivano dalla Russia o dal Venezuela washingtonpost.com. Tutti questi sforzi servivano l’interesse di Mosca a indebolire l’UE e la NATO rafforzando i movimenti nazionalisti e separatisti.
- Propaganda in Ucraina e negli Stati vicini: L’uso delle fabbriche di troll da parte della Russia ha preso piede per la prima volta durante le sue interferenze nel vicino estero. Quando la Russia ha annesso la Crimea nel 2014 e ha fomentato la guerra nell’Ucraina orientale, un esercito di troll si è attivato online per giustificare le azioni di Mosca e denigrare il governo ucraino. I social network in lingua russa, così come le piattaforme occidentali, sono stati inondati da messaggi ripetitivi che riprendevano le narrazioni del Cremlino: che il governo di Kiev fosse una “giunta fascista”, che venissero commesse atrocità (spesso inventate) contro i russofoni, e che le sanzioni occidentali si sarebbero ritorte contro chi le imponeva. Questi troll cercavano di “flood the zone” con la versione dei fatti del Cremlino, rendendo difficile per gli osservatori occasionali distinguere la verità. Avanti veloce fino al 2022 e all’invasione totale dell’Ucraina: i troll russi si sono nuovamente attivati su scala globale. Nei giorni successivi all’invasione, gli analisti hanno identificato reti di account non autentici su Twitter, TikTok e Instagram che diffondevano disinformazione – come affermazioni secondo cui i filmati delle città ucraine bombardate fossero falsi propublica.org. ProPublica e i ricercatori della Clemson University hanno monitorato dozzine di account in lingua russa che, nel marzo 2022, hanno pubblicato contemporaneamente lo stesso video fuorviante (che “smascherava” falsamente una scena di vittime civili inscenata in Ucraina) – un segno distintivo di un’operazione di troll coordinata propublica.org. Questi account mostravano chiari segni riconducibili all’IRA, inclusi orari di attività allineati al fuso orario di Mosca e pause nei fine settimana e durante le festività russe propublica.org. Con il progredire della guerra, i contenuti dei troll si sono adattati: inizialmente confusi, poi in linea con la propaganda ufficiale, attribuendo la colpa della guerra alla NATO e negando qualsiasi fallimento militare russo propublica.org. I troll hanno anche preso di mira il pubblico internazionale per indebolire il sostegno all’Ucraina – sostenendo nei commenti occidentali che le sanzioni contro la Russia danneggiassero di più l’Europa, o amplificando le voci dell’estrema destra europea contrarie all’invio di armi all’Ucraina theguardian.com. In uno studio finanziato dal Regno Unito, gli analisti hanno notato che l’operazione di troll a San Pietroburgo (Cyber Front Z) prendeva spunto da movimenti complottisti come QAnon nel modo in cui diffondeva i suoi messaggi e cercava di radunare simpatizzanti online theguardian.com. La guerra in Ucraina è stata quindi accompagnata da una parallela guerra dell’informazione, con le fabbriche di troll russe che hanno svolto un ruolo centrale nella diffusione globale di “bugie pro-guerra” theguardian.com. Il loro impatto è evidente nella persistenza di narrazioni favorevoli al Cremlino in alcuni segmenti dell’opinione pubblica, nonostante resoconti fattuali contrari.
- Pandemia di COVID-19 e altre questioni globali: I troll russi hanno approfittato opportunisticamente delle crisi e delle controversie globali, dalla pandemia di COVID-19 alle proteste per la giustizia sociale, come terreno fertile per la disinformazione. Durante la pandemia, account di troll allineati allo stato hanno diffuso una miriade di teorie del complotto – sostenendo che il coronavirus fosse un’arma biologica statunitense, promuovendo disinformazione sui vaccini e aumentando la sfiducia nelle istituzioni sanitarie pubbliche thebulletin.org. L’obiettivo non era presentare un’alternativa coerente, ma “amplificare il dubbio” e la disfunzione nelle società occidentali in un momento di incertezza thebulletin.org. Allo stesso modo, nel 2020, mentre negli Stati Uniti si assisteva a storiche proteste per la giustizia razziale, le fabbriche di troll russe hanno raddoppiato gli sforzi per infiammare le divisioni razziali – da un lato fingendosi voci di estrema destra che condannavano le proteste, dall’altro spacciandosi per attivisti di sinistra per incoraggiare sentimenti più estremi, giocando così su entrambi i fronti per alimentare il caos. Questi casi dimostrano che, oltre a politica e guerra, qualsiasi questione divisiva può diventare un campo di battaglia per le operazioni di influenza guidate dai troll. Dai dibattiti sul cambiamento climatico ai mandati sui vaccini, i troll russi hanno iniettato false affermazioni per rendere tossico il discorso pubblico. Peggiorando la polarizzazione su ogni fronte, perseguono l’obiettivo di Mosca di un Occidente indebolito e litigioso.
Approfondimenti ed esposti di esperti
Numerose indagini da parte di giornalisti, accademici e agenzie di intelligence hanno sollevato il velo sulle fabbriche di troll russe. Gli esperti sottolineano che queste operazioni rappresentano una nuova tipologia di minaccia con cui le democrazie devono confrontarsi. “Il 2016 è stato solo l’inizio,” osserva un rapporto della PBS – da allora, gli operatori online del Cremlino sono diventati più sofisticati e abili nell’imitare persone reali pbs.org.
I ricercatori che studiano le tattiche delle troll farm hanno fornito osservazioni sorprendenti. Darren Linvill, professore alla Clemson University, ha passato anni ad analizzare gli account dell’IRA. Nota schemi rivelatori: “Durante le festività russe e nei fine settimana, l’attività [di certi account troll] diminuiva,” indicando che i postatori seguivano un orario di lavoro retribuito piuttosto che essere veri volontari spyscape.com. L’analisi del suo team con ProPublica ha confermato che i post degli account sospetti IRA apparivano in “orari definiti coerenti con la giornata lavorativa dell’IRA.” spyscape.com. In altre parole, i veri attivisti di base non si prendono tutti il fine settimana libero allo stesso tempo – ma i dipendenti delle troll factory sì. Linvill ha concluso, “Questi account mostrano tutti gli indicatori che abbiamo per suggerire che provengano dall’Internet Research Agency.” spyscape.com Se per caso non fossero dell’IRA, ha scherzato, “sarebbe peggio, perché non so chi lo stia facendo.” propublica.org. La sua analisi ha sottolineato quanto fosse diventata coerente e professionalizzata la macchina della disinformazione russa.
Anche testimonianze interne hanno fatto luce sulle operazioni. Il coraggioso gesto da whistleblower della giornalista Lyudmila Savchuk nel 2015 ha fornito una prima occhiata all’interno degli uffici della “troll factory” dell’IRA. Ha descritto un ambiente quasi surreale: giovani impiegati in cubicoli che postavano incessantemente sotto false identità, con direttive di propaganda trasmesse come incarichi editoriali ogni mattina. “All’inizio non riuscivo a credere fosse reale… è stato uno shock culturale,” ha raccontato un altro infiltrato a Radio Free Europe rferl.org. Hanno parlato di un’atmosfera da catena di montaggio, dove la creatività era meno apprezzata dell’obbedienza ai temi narrativi quotidiani stabiliti dai supervisori.
I governi occidentali sono diventati più espliciti nel denunciare questa attività. Nell’aprile 2022, il Ministro degli Esteri britannico Liz Truss ha condannato la nuova campagna di troll della Russia riguardo alla guerra in Ucraina, affermando: “Non possiamo permettere al Cremlino e alle sue oscure fabbriche di troll di invadere i nostri spazi online con le loro menzogne sulla guerra illegale di Putin.” theguardian.com. Il governo britannico è arrivato al punto di finanziare pubblicamente una ricerca sull’operazione di San Pietroburgo e di condividere i risultati con le piattaforme social per facilitare le repressioni theguardian.com. La stessa ricerca ha rivelato la volontà dei troll di innovare – ad esempio, amplificando post legittimi di utenti reali che per caso si allineavano alle posizioni del Cremlino, evitando così una facile individuazione poiché il contenuto non era sempre fabbricato theguardian.com. Questo gioco del gatto e del topo tra le fabbriche di troll e i moderatori delle piattaforme è qualcosa di cui le agenzie di intelligence sono ben consapevoli. Negli Stati Uniti, l’FBI e il Dipartimento della Sicurezza Interna hanno ripetutamente avvertito che gli agenti russi si adattano rapidamente ai ban delle piattaforme, riapparendo con nuovi account e nuove tattiche.Un funzionario dell’FBI nel 2020 ha osservato che gli operatori russi erano “persistenti e creativi”, utilizzando prestanome e proxy per oscurare il proprio coinvolgimento dopo che le aziende dei social media avevano iniziato a bannare in massa gli account. Ad esempio, dopo che Facebook e Twitter hanno eliminato migliaia di account IRA dopo il 2016, i troll sono riemersi tramite paesi terzi (come si è visto con l’operazione in Ghana) o spostandosi su piattaforme alternative con una moderazione più blanda. La loro resilienza ha spinto il Dipartimento di Giustizia degli Stati Uniti nel 2020 a sanzionare più individui e persino siti collegati alle fabbriche di troll (come SouthFront e NewsFront) per tagliare i loro finanziamenti e l’hosting.
Think tank e accademici hanno anche evidenziato l’evoluzione dei strumenti tecnologici a disposizione dei troll. Un rapporto del 2018 dell’Institute for the Future avvertiva che il trolling su larga scala dovrebbe essere trattato come una violazione dei diritti umani a causa del danno che provoca alle società, ma lamentava la mancanza di meccanismi per punire i responsabili newslit.org. Avanzando rapidamente al 2024, gli analisti osservano che i contenuti generati dall’IA rappresentano la nuova frontiera. In uno studio dell’UE sulla disinformazione, gli esperti hanno sottolineato che le precedenti tattiche russe “facevano affidamento su strategie a bassa tecnologia come le fabbriche di troll e le reti di bot,” mentre nel 2024 le campagne sfruttano sempre più spesso la IA generativa per creare “contenuti iper-mirati” più difficili da individuare carleton.ca. Le operazioni di influenza russe hanno iniziato a utilizzare l’IA per generare immagini deepfake, video e testi realistici su larga scala, consentendo narrazioni false ancora più potenti. Il Servizio europeo per l’azione esterna ha osservato nel 2023 che molte delle recenti campagne di disinformazione del Cremlino, incluse le cosiddette operazioni di informazione “Doppelgänger” (che clonano siti di notizie reali per diffondere storie false), possono essere ricondotte a entità finanziate da agenzie statali russe e ora potenziate con capacità di IAcarleton.ca. Questo sottolinea che il modello delle fabbriche di troll non è statico – aggiorna continuamente le sue tecniche, dai semplici meme copiati e incollati nel 2016 ai contenuti creati dall’IA nel 2024 e oltre.
2024–2025: Ultimi sviluppi e prospettive
A partire dal 2024 e 2025, le operazioni delle fabbriche di troll russe restano un bersaglio mobile, reagendo agli eventi geopolitici e ai cambiamenti di potere interni. Uno sviluppo drammatico è stato il destino della Internet Research Agency stessa. Nel giugno 2023, Yevgeny Prigozhin – il fondatore dell’IRA – ha inscenato una breve rivolta contro la leadership militare russa con le sue forze mercenarie Wagner. Il fallimento della ribellione e la successiva morte di Prigozhin in un sospetto incidente aereo (agosto 2023) hanno portato il Cremlino a mettere sotto controllo le sue vaste imprese. Sono emerse notizie secondo cui, già a luglio 2023, le operazioni dell’IRA a San Pietroburgo erano state ufficialmente chiuse in seguito alla caduta in disgrazia di Prigozhin businessinsider.com. In effetti, la stessa società mediatica di Prigozhin, Patriot Media, ha annunciato che “stava lasciando lo spazio informativo del paese” mentre il governo si muoveva per smantellare i suoi organi di influenza businessinsider.com. Prigozhin ha persino confermato in un’intervista poco prima che aveva creato e gestito l’IRA, apparentemente cercando di prendersi il merito della sua missione “patriottica” spyscape.com. All’inizio di luglio 2023, i media statali russi hanno riferito che la famigerata fabbrica di troll era stata sciolta – uno sviluppo notato anche dai media occidentalibusinessinsider.com.Tuttavia, questa “fine” dell’IRA non ha significato la fine delle operazioni di trolling russe. Gli analisti ritengono che il Cremlino abbia semplicemente assorbito o ristrutturato queste capacità affidandole ad altri soggetti. Un rapporto del Threat Analysis Group di Google del marzo 2024 ha osservato che, sebbene l’attività diretta dell’IRA sulle piattaforme Google sia diminuita dopo la morte di Prigozhin, componenti delle campagne di influenza legate a Prigozhin “sono rimaste attive” e probabilmente continuano sotto una gestione diversa cloud.google.com. I ricercatori di Mandiant hanno notato che diverse operazioni informative russe di lunga data hanno mostrato “gradi disomogenei di cambiamento” dopo Prigozhin, con alcune interruzioni ma molte risorse ancora attive, suggerendo che il Cremlino abbia redistribuito il controllo invece di chiudere tutto cloud.google.com. Da notare che, per tutto il 2023, Google e Meta hanno continuato a rimuovere un gran numero di account falsi collegati a reti di disinformazione russe. Google ha segnalato oltre 400 azioni di enforcement nel 2023 contro operazioni di influenza legate all’IRA cloud.google.com. E alla fine del 2024, in vista di elezioni cruciali, le autorità statunitensi lanciavano ancora l’allarme: l’FBI e altre agenzie avvertivano che la Russia intendeva pienamente interferire nelle elezioni presidenziali statunitensi del 2024 utilizzando la manipolazione dei social media, anche se la strategia doveva essere adattata senza il centro operativo originario dell’IRAreuters.com.
In effetti, sono già stati osservati tentativi di interferenza elettorale in vista del 2024. Un esempio eclatante si è verificato nell’ottobre 2024, quando funzionari dello stato della Georgia, negli Stati Uniti, hanno segnalato un video virale di disinformazione che falsamente mostrava un “immigrato illegale” vantarsi di aver votato più volte. L’ufficio del Segretario di Stato della Georgia ha dichiarato direttamente: “Questo è falso… È probabilmente un’interferenza straniera che tenta di seminare discordia e caos alla vigilia delle elezioni.” reuters.com Hanno esortato le aziende dei social media a rimuovere il video, sottolineando che “Probabilmente si tratta di una produzione di fattorie di troll russe.” reuters.com. Questo episodio – avvenuto poco prima di un’elezione statunitense molto combattuta – dimostra che i troll russi sono ancora in gioco nel 2024, usando video virali ingannevoli su piattaforme come X (Twitter) per minare la fiducia nel voto reuters.com. Agenzie federali come CISA hanno indagato sull’incidente, che ha ricordato che anche senza la leadership originale dell’IRA, l’apparato dell’influenza online russa può rapidamente avviare nuove campagne ad hoc quando necessario.Guardando al 2025, gli esperti valutano che le operazioni delle fattorie di troll russe continueranno ad adattarsi piuttosto che scomparire. Con Mosca impegnata in una lunga guerra in Ucraina e sotto pressioni interne, il Cremlino ha un forte incentivo a continuare a usare l’arma “a basso costo ma efficace” della manipolazione online. Possiamo aspettarci che gli operatori russi adottino sempre più le tecnologie emergenti – in particolare l’IA. Analisti europei hanno osservato che, entro la fine del 2024, la pura scala e velocità della disinformazione russa era aumentata grazie agli strumenti di IA generativa, rendendo più facile produrre contenuti falsi su larga scala carleton.ca. Questo significa che le future tattiche delle fattorie di troll potrebbero coinvolgere “persone” generate dall’IA (per foto profilo perfettamente realistiche e persino video deepfake), oltre a propaganda personalizzata tramite algoritmi per colpire con precisione specifiche comunità. La corsa agli armamenti tra piattaforme e troll probabilmente si intensificherà: man mano che le aziende migliorano nel bannare le firme note dei troll, questi ultimi sfruttano l’IA per creare identità e contenuti sempre più convincenti.
Sul palcoscenico geopolitico, le fabbriche di troll russe (sotto qualsiasi nuova veste) probabilmente prenderanno di mira tutti i principali eventi rilevanti per gli interessi del Cremlino. Le prossime elezioni nei paesi occidentali, i dibattiti sul sostegno all’Ucraina e persino questioni come crisi energetiche o conflitti internazionali potrebbero tutti diventare teatri di rinnovate offensive di disinformazione. Le agenzie di sicurezza dell’Unione Europea hanno rafforzato il monitoraggio della “Manipolazione e Interferenza di Informazioni Straniere” (FIMI), pubblicando periodicamente rapporti sulle minacce che quasi invariabilmente evidenziano le operazioni russe. I funzionari della NATO e dell’UE avvertono che la Russia cercherà di frammentare l’unità occidentale sull’Ucraina alimentando narrazioni estremiste e isolazioniste tramite i social media (ad esempio, promuovendo voci contrarie all’aiuto all’Ucraina o favorevoli a politiche filorusse). In effetti, le elezioni del Parlamento europeo del 2024 hanno visto un’ondata di messaggi – inclusi siti di fake news clonati in una campagna “Doppelgänger” – che spingevano temi anti-Ucraina e anti-UE, che gli analisti hanno collegato a gruppi di disinformazione russi carleton.ca. L’influenza di tali sforzi è difficile da quantificare, ma ha coinciso con i successi di blocchi politici di estrema destra e filorussi, indicando un certo effettocarleton.ca.Nella sfera interna russa, è probabile che il Cremlino mantenga una stretta presa sulla narrazione con ogni mezzo necessario – comprese le fabbriche di troll o i loro successori. Dopo la rivolta di Prigozhin, Putin ha imparato il rischio di lasciare che un attore privato controlli troppo la macchina della propaganda. Non sarebbe sorprendente se i servizi di sicurezza russi (come l’FSB o l’intelligence militare) avessero preso il controllo di parte delle operazioni di trolling per garantire lealtà e supervisione diretta. Il tono del trolling domestico russo dalla fine del 2023 è cambiato per cancellare la memoria di Prigozhin (dato il suo tradimento) e rafforzare la statura di Putin in mezzo alle sfide della guerra tandfonline.com. Qualsiasi russo che esprima stanchezza per la guerra o critichi il governo online può aspettarsi di essere sommerso da commentatori “patriottici” – in molti casi, troll – che lo attaccano come traditore, raffreddando così il dissenso. Questo indica che la tattica delle fabbriche di troll rimane un pilastro della propaganda interna, solo più centralizzata dallo Stato.
In conclusione, le fabbriche di troll russe si sono evolute da un esperimento marginale a un vero e proprio strumento di potere statale nell’era dell’informazione. Operano come fabbriche di propaganda del XXI secolo, diffondendo bugie, paura e discordia con un semplice clic del mouse. Nell’ultimo decennio, sono intervenute nelle elezioni, hanno alimentato conflitti e inquinato innumerevoli discussioni online. E nonostante la maggiore esposizione e le sanzioni, non mostrano segni di voler fermarsi – cambiano solo forma. Finché le società aperte si affideranno alle piattaforme online per informarsi e dibattere, i troll del Cremlino cercheranno di sfruttare questa apertura. Combattere questa minaccia richiederà vigilanza costante, consapevolezza pubblica e cooperazione internazionale. Il mondo si è reso conto della strategia delle fabbriche di troll russe; la sfida ora è impedire a questi “soldati digitali” di dirottare la conversazione globale con manipolazione e malizia.