Avslöjar Rysslands trollfabriksimperium: Inuti Kremls globala desinformationsmaskin

september 11, 2025
Unmasking Russia’s Troll Farm Empire: Inside the Kremlin’s Global Disinformation Machine
Kremlin’s Global Disinformation Machine
  • Internet Research Agency (IRA), Rysslands ledande trollfabrik, är baserad i Sankt Petersburg och grundades omkring 2013. Den växte till cirka 400 anställda år 2015 som arbetade 12-timmarspass.
  • IRA-personal arbetade under strikta kvoter: 5 politiska inlägg, 10 opolitiska inlägg och 150–200 kommentarer per skift.
  • Trollarna tjänade ungefär 40 000 rubel per månad (cirka 700–800 dollar) och fick betalt kontant.
  • De dolde sitt ursprung med VPN, proxyservrar, stulna eller AI-genererade profilbilder och falska identiteter för att verka autentiska.
  • Operationen var en del av Project Lakhta, ett Kreml-kopplat paraply som inkluderade Patriot Media Group som ägde Federal News Agency (RIA FAN) och andra kanaler som användes för att tvätta propaganda, senare namngivna i amerikanska sanktioner.
  • Vid det amerikanska presidentvalet 2016 drev IRA en kampanj på flera plattformar över Facebook, Twitter, Instagram, YouTube och Reddit, nådde mer än 126 miljoner amerikaner och ledde till att 13 IRA-operatörer åtalades 2018, med sanktioner mot gruppen.
  • Under 2016–2017 utgav sig IRA-operatörer för att vara amerikanska aktivister och organiserade verkliga demonstrationer i USA, inklusive en protest i New York City till stöd för Donald Trump och en annan mot honom samma dag.
  • Från 2018–2020 outsourcade IRA engelskspråkig trolling till Afrika, drev ett nätverk i Ghana och Nigeria som utgav sig för att vara svarta amerikanska aktivister, vilket Facebook och Twitter senare stängde ner 2020.
  • År 2022 dök den publika gruppen Cyber Front Z upp i Sankt Petersburg, koordinerade via Telegram, verkade från en gammal vapenfabrik och betalade TikTok-influencers för att förstärka Kremls budskap samtidigt som de ägnade sig åt brigadering och manipulation av omröstningar.
  • År 2024 hade AI- och Doppelgänger-kampanjer blivit centrala, med Google som rapporterade över 400 åtgärder 2023 mot IRA-kopplade påverkansnätverk och analytiker noterade fortsatt verksamhet efter Prigozjins myteri och död 2023.

Vad är trollfabriker? Desinformationens motor

Trollfabriker är organiserade grupper av betalda nätoperatörer som använder falska identiteter för att översvämma internet med propaganda och splittrande innehåll. De arbetar från kontorsliknande miljöer där dessa team skapar falska profiler som utger sig för att vara riktiga personer och postar på sociala medier, nyhetskommentarer och forum. Deras mål är att manipulera den allmänna opinionen – vissa troll sprider budskap som visar på falskt folkligt stöd för vissa idéer, medan andra sprider rykten som syftar till att så förvirring och misstro mot institutioner newslit.org. Ofta arbetar trollfabrikspersonal i koordinerade skift och postar provocerande kommentarer, vilseledande “nyheter” och konspirationer i stor skala, förstärker extrema åsikter långt utöver organisk räckvidd. Många använder sockpuppet-konton (flera onlineidentiteter), ibland med hjälp av sociala botar (automatiserade konton), för att få det att verka som om många vanliga människor delar dessa extrema åsikter en.wikipedia.org. I verkligheten kan ett fåtal operatörer ligga bakom hundratals konton – ett dolt propaganda-löpande band som producerar desinformation på beställning.

Även om konceptet låter som en sci-fi-historia är trollfabriker mycket verkliga och har använts som vapen av stater. Ryssland har i synnerhet ökänt anammat trollfabriker som ett centralt verktyg i sitt informationskrigsföringsarsenal. Genom att översvämma nätforum med pro-Kreml-narrativ och fientliga kommentarer, syftar ryska trollfabriker till att snedvrida uppfattningar och undergräva diskursen i målländer. Deras aktiviteter sträcker sig från valpåverkan och politisk agitation utomlands till att förstärka propaganda på hemmaplan. De flesta i världen hörde först talas om ryska trollfabriker när nyheten kom om deras inblandning i det amerikanska presidentvalet 2016 newslit.org. Men taktiken är äldre än 2016 och är inte exklusiv för Ryssland – andra regeringar och grupper har kopierat liknande metoder. Ändå är det ryska operationer som satt mallen för den moderna trollfabriken: statssponsrad, centralt organiserad och global till sin räckvidd. Sociala medieföretag har haft svårt att stoppa dessa falska konton och har ibland tagit ner stora nätverk (till exempel tog Facebook och Twitter bort ett Ghana-baserat ryskt trollnätverk 2020 som hade samlat över 300 000 följare samtidigt som det eldade på rasliga spänningar i USA newslit.org). Men detta representerar troligen bara ”toppen av isberget” newslit.org. Trollfabriker fortsätter att utvecklas, hittar nya sätt att undvika upptäckt och utnyttja nätplattformar.

Inuti Rysslands trollfabriker: Organisation och nyckelaktörer

Rysslands mest ökända trollfabrik är Internet Research Agency (IRA), ett företag baserat i Sankt Petersburg som en gång leddes och finansierades av oligarken Yevgeny Prigozhin – en nära allierad till Putin som ofta kallas “Putins kock.” IRA (känt på ryskt slang som “trollen från Olgino”) grundades omkring 2013 och växte till en professionaliserad verksamhet med hundratals anställda spyscape.com. År 2015 hade IRA enligt uppgift omkring 400 anställda som arbetade i 12-timmarsskift, inklusive en elitgrupp på cirka 80 engelskkunniga troll som var uteslutande dedikerade till att rikta in sig på det amerikanska politiska systemet spyscape.com. Det liknade en online-marknadsföringsbyrå – men ägnad åt Kremls mål. Ett ledningsteam övervakade flera avdelningar (grafisk design, IT, sökmotoroptimering, ekonomi, etc.) och följde noggrant upp mätvärden spyscape.com. Enligt en amerikansk senatsutredning övervakade chefer till och med anställda via CCTV och var “besatta” av sidvisningar, gilla-markeringar och kommentarskvoter som mått på inflytande spyscape.com.

Livet som en rysk troll beskrevs av insatta som ett högtrycks-kontorsjobb. Lyudmila Savchuk, en journalist som gick undercover på IRA, avslöjade att varje troll hade strikta dagliga kvoter – till exempel 5 politiska inlägg, 10 icke-politiska inlägg (för att verka äkta), och 150-200 kommentarer på annat innehåll per skift spyscape.com. Trollen arbetade långa dagar för en blygsam lön (ungefär 40 000 rubel, cirka 700-800 dollar i månaden) och fick betalt kontant spyscape.com. De arbetade i hemliga “team” med fokus på olika målgrupper och ämnen. Till exempel hade separata grupper ansvar för amerikansk politik, europeiska frågor, Ukraina, etc., där varje grupp utformade budskap anpassade till dessa målgrupper. Tidigare IRA-anställda berättade att de blev instruerade att titta på populära amerikanska TV-serier som House of Cards för att lära sig amerikanska kulturella referenser spyscape.com. De fick utbildning i engelska och guider om amerikanskt slang för att bättre kunna utge sig för att vara genuina amerikanska kommentatorer spyscape.com. För att dölja sitt ryska ursprung använde de VPN och proxyservrar för att maskera sin plats och noggrant skapade falska identiteter (med stulna eller AI-genererade profilbilder, “hemstads”-detaljer och realistiska namn) spyscape.com. Under veckor och månader byggde dessa falska konton gradvis upp en identitet och följarskara – gick med i Facebook-grupper, twittrade om vardagsliv eller sport – innan de bytte till politisk propaganda när de var tillräckligt trovärdiga. “Med tiden får dessa konton följare och blir mer inflytelserika,” noterar en rapport spyscape.com.

Prigozjins IRA agerade inte isolerat, utan som en del av ett större Kreml-kopplat påverkansnätverk. Ryska journalister och amerikanska åtal har avslöjat en paraplyinsats kallad “Project Lakhta,” under vilken IRA och relaterade enheter arbetade för att “störa den amerikanska demokratiska processen, sprida misstro, hetsa till civila oroligheter och polarisera amerikaner” – särskilt genom att förvärra rasliga och sociala motsättningar spyscape.com. För att möjliggöra förnekbarhet använde detta projekt ett nätverk av brevlådeföretag och mediefronter. Till exempel ägde Prigozjins holdingbolag “Patriot Media Group” Federal News Agency (RIA FAN) och andra pseudo-nyhetssajter som pumpade ut propaganda, samtidigt som de fungerade som täckmantel för dolda trolloperationer cloud.google.com. Project Lakhta-enheter inkluderade själva IRA och nominella “nyhetssajter” som Nevskiy News, Economy Today och International News Agency, vilka alla senare nämndes i amerikanska sanktioner för att ha hyst desinformationsaktiviteter spyscape.com. Denna suddiga blandning av öppna propaganda-kanaler och dolda trollteam gjorde det möjligt för ryska påverkansoperationer att “tvätta” desinformation – till exempel kunde ett troll plantera en falsk nyhet via en fejkad persona, som sedan plockades upp av Patriot Medias sajter som “nyhet” och slutligen förstärktes av andra troll och botar.

Anmärkningsvärt är att Rysslands trolloperationer inte stannade vid tangentbord och skärmar. IRA och dess samarbetspartners anlitade ibland ovetande lokalbefolkning i målländer för att iscensätta verkliga händelser som matchade deras agitation online. Amerikanska utredare fann att IRA-operatörer som utgav sig för att vara amerikanska aktivister lyckades organisera faktiska politiska demonstrationer i USA 2016–2017 – till och med så att en protest i New York City stödde Donald Trump och en annan motsatte sig honom samma dag, för att maximera splittringen spyscape.com. De ryska trollen utgav sig för att vara gräsrotsorganisatörer, rekryterade verkliga amerikaner via Facebook-grupper och betalade dem för att bära banderoller eller bygga rekvisita, allt medan dessa medborgare inte hade någon aning om att de svarade på ryska direktiv spyscape.com. Denna taktik – att använda troll för att skapa “AstroTurf”-rörelser, alltså fejkade gräsrotsrörelser – visar hur långt dessa påverkansoperationer är beredda att gå. Genom att kombinera desinformation online med handlingar offline försökte de omvandla ilska på nätet till verkligt kaos.

Internet Research Agency blev ökänd världen över efter att dess inblandning i amerikansk politik avslöjades. År 2018 åtalade det amerikanska justitiedepartementet IRA-operatörer för brottsligt ingripande i valet 2016, och beskrev hur de skapade tusentals sociala mediekonton (utgav sig för att vara amerikaner av alla slag), nådde miljontals människor med memes och falska berättelser, och till och med finansierade politiska annonser och demonstrationer businessinsider.com. (IRAs användning av stulna amerikanska identiteter och ekonomiskt bedrägeri för att finansiera verksamheten ledde till ytterligare åtal businessinsider.com.) Även om Ryssland förnekade anklagelserna, erkände Prigozjin till slut sin roll: ”Jag har aldrig bara varit en finansiär av IRA. Jag uppfann det, jag skapade det, jag ledde det under lång tid,” skröt Prigozjin i början av 2023, och hävdade att det grundades för att ”skydda det ryska informationsutrymmet från… aggressiv antirysk propaganda från väst.” spyscape.com. Detta uppriktiga erkännande från hjärnan bakom verksamheten understryker IRAs dubbla uppdrag – att attackera Rysslands motståndare online samtidigt som Kreml skyddas på hemmaplan.

Förutom IRA har andra trolloperationer dykt upp eller utvecklats i Ryssland. År 2022, efter att Ryssland inledde sin fullskaliga invasion av Ukraina, började en ny organisation baserad i Sankt Petersburg som kallade sig “Cyber Front Z” öppet rekrytera “patriotiska” medarbetare för att översvämma internet med pro-krigskommentarer theguardian.com. Baserad i en hyrd lokal i en gammal vapenfabrik, var denna “trollfabrik” (som beskrivs av brittisk underrättelsetjänst) kopplad till Prigozjins nätverk och koordinerades via en Telegram-kanal vid namn “Cyber Front Z” theguardian.com. Cyber Front Z:s operatörer riktade in sig på västerländska ledares sociala mediesidor och kommentarsfält på nyhetssajter, kapade diskussioner för att hylla Putin och demonisera Ukraina theguardian.com. Enligt forskning som citeras av den brittiska regeringen betalade de till och med vissa TikTok-influencers för att förstärka Kremls budskap theguardian.com. Detta tyder på att Rysslands trolloperationer anpassade sig till nya plattformar och yngre målgrupper – och expanderade från Facebook och Twitter till Instagram, YouTube och TikTok, där forskare fann hög koncentration av aktivitet under 2022 theguardian.com. Cyber Front Z-medlemmar deltog i koordinerad “brigadering”, masskommenterade för att styra nätkonversationer mot Kremls linje, och manipulerade till och med online-omröstningar (till exempel genom att snedvrida röster i västerländska medieundersökningar om stöd för sanktioner mot Ryssland) theguardian.com. Till skillnad från den hemlighetsfulla IRA var Cyber Front Z öppet offentlig med sin patriotism och rättfärdigade nättrollande som en medborgerlig plikt under krigstid theguardian.com.

Verktyg och taktiker: Hur ryska troll sprider propaganda

Ryska trollfabriker använder sig av ett brett arsenal av tekniker för att injicera och förstärka desinformation online. Några av de viktigaste verktygen och taktikerna inkluderar:

  • Falska personligheter och sockpuppetskonton: Trollfabriker skapar hundratals fiktiva onlineidentiteter, komplett med stulna eller AI-genererade profilbilder, och låtsas vara vanliga medborgare en.wikipedia.org. De imiterar ofta lokala demografier (till exempel utger de sig för att vara amerikaner med olika politiska bakgrunder, eller européer från specifika länder) för att smälta in. Dessa sockpuppetskonton finns på alla stora plattformar – Facebook, Twitter (numera X), Instagram, YouTube, TikTok, Reddit och ryska nätverk som VKontakte spyscape.com. För att undvika uppenbara tecken på fejk, postar trollen regelbundet icke-politiskt innehåll under dessa personligheter (sportprat, matbilder, etc.) och kopierar noggrant verkliga sociala mediebeteenden. Med tiden bygger de upp trovärdighet, och släpper sedan in propaganda eller vilseledande innehåll i gemenskaper inifrån.
  • Sociala mediers förstärkning & “Brigading”: Trollfabriker försöker få några röster att låta som en folkmassa. De samordnar vågor av inlägg och kommentarer så att en viss berättelse dominerar samtal eller trendar på konstgjord väg. Till exempel kan ett team av troll samtidigt svara på en politikers tweet med samma argument, vilket ger det falska intrycket att den allmänna opinionen är överväldigande ensidig. I kommentarsfält på nyhetsartiklar röstar de upp varandras inlägg och fyller på med svar för att dränka äkta debatt theguardian.com. På plattformar som Facebook har troll drivit stora tematiska sidor (t.ex. “Secured Borders” eller falska aktivistgrupper) som lockat riktiga följare, och sedan subtilt injicerat polariserande propaganda i dessa flöden. De har också varit kända för att kapa hashtags eller starta samordnade hashtagkampanjer på Twitter för att få dem att trenda. Genom att koreografera inlägg över dussintals konton kan trollfabriker brigadera omröstningar, forum och sociala flöden online för att få extrema idéer att verka populära theguardian.com.
  • Botar och automatiserade nätverk: Förutom personor som drivs av människor använder ryska operationer botnätverk – automatiserade eller semi-automatiserade konton – för att förstärka sitt budskap. Dessa botar kan retweeta eller dela innehåll tusentals gånger inom några minuter, snedvrida trendalgoritmer och trakassera utvalda användare. Under olika val och händelser har utredare funnit svärmar av tweets/inlägg från misstänkta botkonton kopplade till Ryssland washingtonpost.com. Till exempel rapporterade Spanien om en ”lavin av botar” som spred falska nyheter under Kataloniens folkomröstning om självständighet 2017, där över hälften av botkontona spårades till ryskt ursprung washingtonpost.com. Botar förstärker ofta trollens budskap genom att gilla och återposta dem i stor skala. Blandningen av botar och mänskliga troll får kampanjen att framstå som större och mer organisk än den är – en kraftmultiplikator för desinformation.
  • Desinformationsinnehåll & mediamanipulation: Trollfabriker är specialiserade på att producera delningsbar desinformation – från falska nyhetsartiklar och manipulerade bilder till vilseledande memes och videor. Ofta driver de pseudo-nyhetssajter som pumpar ut propagandamaterial, som troll sedan sprider i grupper och kommentarsfält. Ryska operatörer har förfalskat skärmdumpar av tweets, förfalskat myndighetsdokument och spridit konspirationsmemes för att stödja sina narrativ. Under de senaste åren har de också börjat använda deepfakes och annan AI-genererad media. Ett beryktat exempel inträffade i mars 2022, när en deepfake-video av Ukrainas president Volodymyr Zelenskyj spreds, där han felaktigt visades uppmana ukrainska trupper att kapitulera reuters.com. Videon var dåligt gjord och snabbt motbevisad, men experter varnade för att den ”kan vara en föraning om mer sofistikerade bedrägerier i framtiden” reuters.com. Trollnätverk kan haka på sådant falskt innehåll – eller skapa eget – och aggressivt sprida det till ovetande målgrupper. Genom att så virala bluffar (från falska påståenden om valfusk till påhittade COVID-19-botemedel) syftar de till att vilseleda och hetsa allmänheten.
  • Att använda influencers och lokala röster: En annan taktik är att tvätta propaganda genom legitima röster. Ryska påverkanskampanjer har avslöjats med att rekrytera eller lura ovetande tredje parter – till exempel genom att kontakta frilansjournalister utomlands för att skriva artiklar som återger Kremls ståndpunkter, eller betala sociala medie-influencers för att främja vissa narrativ theguardian.com. År 2020 såg en operation med namnet “Peace Data” ryska troll skapa en falsk vänsterorienterad nyhetssajt online och anlita riktiga frilansskribenter (många i väst) för att bidra med artiklar, utan att veta plattformens verkliga koppling. På liknande sätt fann brittiska forskare 2022 att vissa TikTok- och Instagram-influencers fick betalt för att sprida pro-ryska budskap om Ukraina theguardian.com. Genom att rida på trovärdigheten hos lokala röster kan trollen sprida propaganda i en mer tilltalande form, dold i innehåll som verkar oberoende. Detta lägger till ett lager av förnekbarhet och gör det svårare att upptäcka, eftersom budskapet kommer från till synes autentiska individer istället för uppenbara trollkonton.

I kombination gör dessa taktiker det möjligt för ryska trollfabriker att bedriva “informationskrigföring” på flera fronter – genom att injicera falskt eller partiskt innehåll, förstärka det artificiellt och förvränga den digitala informationsmiljön. Det yttersta målet är inte bara att övertyga enskilda personer om en enskild lögn; det är att urholka förtroendet i stort – förtroendet för medier, valprocesser och samhälleliga normer – genom att förorena diskursen med så mycket desinformation och hat att objektiv sanning och sund debatt blir svåra att hitta. Som en expert uttryckte det är dessa trolloperationer ett “verktyg för Putin att kontrollera narrativ” och för att dränka ut avvikande röster propublica.org. Oavsett om det handlar om att översvämma ryskspråkiga forum med pro-Kreml-konsensus eller att dränka västerländska sociala medier med konspirationsteorier, försöker trollfabrikerna överrösta sanningen med brus.

Mål: Varför Kreml driver trollfabriker

Ryska trollfabrikskampanjer tjänar strategiska mål som satts av Kreml, och faller i stort sett inom kategorierna politiskt inflytande, destabilisering av motståndare och propagandakrigföring. Viktiga mål inkluderar:

  • Underminera val och politiska processer: Ett huvuduppdrag för ryska troll har varit att störa demokratiska val utomlands. Deras numera ökända roll i det amerikanska valet 2016 syftade till att polarisera amerikanska väljare, undertrycka vissa röster och gynna önskade utfall. IRAs egna interna dokument beskrev en insats för “att störa val och politiska processer” i USA. propublica.org. På liknande sätt har rysk trollverksamhet vid europeiska val försökt främja pro-Kreml- eller högerextrema kandidater och så tvivel om pro-EU-centristiska. Storbritanniens premiärminister Theresa May varnade i slutet av 2017 för att Ryssland försökte “underminera fria samhällen och så split i väst genom att använda sina troll och fejkade nyhetskanaler washingtonpost.com. Spanska myndigheter anklagade ryskkopplade nätverk för att ha lagt sig i Spaniens Katalonien-folkomröstning och noterade överlappningar i desinformation under Brexit och det franska valet, allt med syfte att splittra europeisk enighet washingtonpost.com. I grund och botten hoppas Kreml, genom att manipulera den allmänna opinionen under utländska val eller folkomröstningar, att installera mer gynnsamma ledare, försvaga internationella motståndare eller helt enkelt skapa kaos (eftersom kaos i rivaliserande demokratier i sig är en seger för Putin). Amerikanska tjänstemän har sagt att Rysslands mål ofta är att “elda på splittrande narrativ” kring val – genom att utnyttja känsliga frågor som ras, invandring eller brottslighet – så att samhällen vänder sig mot varandra reuters.com. Även när specifika kandidater inte vinner, lyckas trollen om de får tillräckligt många medborgare att tvivla på valets integritet eller ogilla sina medväljare.
  • Så split och misstro: Utöver enskilda val arbetar ryska trollfabriker för att elda på befintliga motsättningar i målländer över lång tid. Genom att ständigt sprida polariserande innehåll kring sociala konfliktpunkter (vänster vs. höger, stad vs. landsbygd, etniska och religiösa spänningar, etc.) försöker de slita upp sprickorna i ett samhälle. En amerikansk senatsutredning noterade att ett IRA-projekt fokuserade starkt på ”att främja socialt splittrande frågor med betoning på rasliga motsättningar och ojämlikhet” i USA spyscape.com. Målet är att försvaga Rysslands motståndare inifrån: en nation som fastnat i interna konflikter har svårare att uppträda enat internationellt. Denna strategi har observerats i hela västvärlden – från att främja separatistiska känslor i Spaniens Katalonien washingtonpost.com, till att elda på anti-invandrings- och anti-EU-upprördhet i Europa, till att förstärka rasmotsättningar och vaccinrelaterade kontroverser i USA. Genom att sprida konspirationsteorier och extrem retorik försöker troll få människor att tappa förtroendet för etablerade informationskällor och till och med vända sig mot sina egna regeringar. Som Georgias (delstat i USA) statssekreterare varnade 2024, är falska berättelser om valfusk som plötsligt dyker upp i sociala medier sannolikt ”utländsk inblandning som försöker så split och kaos” – ofta spårade till ryska trollfabriker reuters.com.
  • Stödjer rysk utrikespolitik och militära mål: Trollfabriker fungerar också som digitala fotsoldater för Kremls geopolitiska agenda. När Ryssland är inblandat i konflikter eller kriser, ökar trollen sin aktivitet för att forma narrativet online. Till exempel, sedan Rysslands inledande aggression i Ukraina 2014, och särskilt efter den fullskaliga invasionen 2022, har ryska troll energiskt spridit pro-krigspropaganda. De förstärker påståenden som rättfärdigar Rysslands handlingar (som falska anklagelser om NATO-aggression eller “nazister” i Ukraina) samtidigt som de avfärdar eller förnekar övergrepp begångna av ryska styrkor propublica.org. Brittisk forskning 2022 avslöjade en samordnad trolloperation för att öka stödet för Putins invasion av Ukraina, riktad inte bara mot ryska mottagare utan även västerländska sociala medier med budskap mot sanktioner och Ukrainas ledarskap theguardian.com. Trollen riktade sig till och med mot specifika högt uppsatta personer – som att översvämma kommentarsfälten hos Storbritanniens premiärminister och andra tjänstemän med pro-Kreml-budskap theguardian.com – i hopp om att påverka den allmänna opinionen. I grund och botten, närhelst Ryssland vill projicera makt eller dölja sina aggressioner, släpper de loss trollen för att attackera informationslandskapet: för att förvirra människor om fakta på marken, för att främja konspiratoriska alternativ och för att samla internationella skeptiker på Rysslands sida. Som Clemson University-forskaren Darren Linvill observerade, behöver Putin inte nödvändigtvis “vinna” informationskriget helt och hållet; han behöver bara grumla vattnet tillräckligt för att behålla sin position, och trollkonton är ett verktyg för att göra det propublica.org. På hemmaplan sträcker sig detta mål till att förstärka Kremls version av händelserna så att ryska medborgare förblir stödjande eller åtminstone skeptiska till väst.
  • Att stödja regimen på hemmaplan: Även om mycket uppmärksamhet riktas mot ryska troll utomlands, är en betydande del av deras insats faktiskt riktad mot inhemska ryska målgrupper. IRA bildades ursprungligen för att hantera Putins image och agenda inom Runet (det ryska internetet) propublica.org. Genom att översvämma ryska sociala medier och kommentarsfält med patriotiska budskap och attacker mot Kremls kritiker, hjälper trollfabriker till att dränka oppositionens röster och fabricera en känsla av utbrett folkligt stöd för Putin. Till exempel, under Rysslands COVID-19-utbrott och ekonomiska problem, spred inhemska troll aggressivt narrativet att alla misslyckanden berodde på västerländska sanktioner eller sabotage, inte på regeringens misskötsel. Efter invasionen av Ukraina arbetade ryskspråkiga trollkonton för att övertyga medborgarna om att kriget var rättfärdigat och gick bra, genom att upprepa statliga TV-budskap och smutskasta dem som uttryckte tvivel propublica.org. ”Det är ett sätt för [Putin] att ljuga för sitt eget folk och kontrollera samtalet,” förklarar Linvill propublica.org. Genom att manipulera den allmänna opinionen på hemmaplan hjälper trollfabriker till att upprätthålla social stabilitet och lojalitet, vilket stärker Putins regim. På så sätt fungerar de som en propagandaarm som används internt för att motverka all faktisk information som kan underminera Kremls narrativ (såsom nyheter om ryska militära bakslag eller korruptionsskandaler). Kremls mål här är klassisk propaganda: att ”stå fast” i informationskriget på hemmaplan, och säkerställa att ryssar antingen tror på hans politik eller åtminstone tvivlar på alla alternativa synsättpropublica.org.

Sammanfattningsvis verkar Rysslands trollfabriker med tydliga mål: att försvaga Kremls motståndare, både externt och internt, genom att manipulera information. Oavsett om det handlar om att vinkla valdebatter, splittra samhällen, stärka Rysslands image eller undertrycka oliktänkande, är den gemensamma nämnaren information som vapen. Eller som Theresa May uttryckte det i en offentlig varning till Moskva: ”Vi vet vad ni gör. Och ni kommer inte att lyckas.” washingtonpost.com

Anmärkningsvärda operationer: Från USA-val till Ukraina-kriget

Under det senaste decenniet har ryska trollfabriker kopplats till stora påverkansoperationer runt om i världen, ofta i samverkan med andra cyber- och underrättelseaktiviteter. Några av de mest betydelsefulla fallen inkluderar:
  • 2016 års amerikanska valpåverkan: IRAs kampanj för att blanda sig i det amerikanska presidentvalet 2016 står som det främsta exemplet på trollfabrikernas inblandning. Redan så tidigt som 2014 skapade trollen i Sankt Petersburg ett omfattande nätverk av falska identiteter på Facebook, Twitter, Instagram, YouTube och Reddit – där de utgav sig för att vara liberala aktivister, konservativa väljare, Black Lives Matter-anhängare, sydstatsseparatister, muslimska grupper, och så vidare spyscape.com, en.wikipedia.org. Dessa konton pumpade ut miljontals inlägg med syfte att elda på båda sidor av splittrande frågor (rasrelationer, vapenrättigheter, immigration) och misskreditera Hillary Clinton samtidigt som de lyfte fram Donald Trump. De skapade till och med Facebooksidor för fiktiva organisationer och köpte annonser riktade mot viktiga demografiska grupper i nyckelstater businessinsider.com. På valdagen hade innehåll från IRA-kontrollerade sidor nått över 126 miljoner amerikaner på Facebook, enligt senare avslöjanden, och deras troll-tweets citerades av etablerade medier. Målet, som det beskrivs i amerikanska åtalsdokument, var att “så splittring i det amerikanska politiska systemet” och i slutändan hjälpa till att välja en mer Kreml-vänlig kandidat washingtonpost.com. Amerikanska underrättelsetjänster drog slutsatsen att denna påverkansoperation, styrd av den ryska regeringen, markerade en ny era av informationskrigföring. År 2018 införde det amerikanska finansdepartementet sanktioner mot IRA och Prigozjin för denna inblandning businessinsider.com, och särskilde åklagaren Robert Mueller åtalade 13 IRA-anställda. Ingen av dem ställdes dock inför rätta (eftersom de stannade kvar i Ryssland), men åtalet avslöjade omfattande detaljer om hur trollfabriken organiserade demonstrationer, stal amerikanska identiteter och utnyttjade sociala mediers algoritmer i en aldrig tidigare skådad skala businessinsider.com, spyscape.com.
  • 2018–2020: Fortsatta operationer i USA och Afrika: Trots motreaktionen från 2016 upphörde inte Rysslands troll med sina aktiviteter. Inför presidentvalet i USA 2020 experimenterade IRA med att lägga ut sitt engelskspråkiga trollande på entreprenad till mellanhänder i Afrika. I ett uppmärksammat fall som avslöjades 2020 drev en trollfabrik i Ghana och Nigeria (påstås ha styrts av ryska handledare) dussintals sociala mediekonton som utgav sig för att vara svarta amerikanska aktivister och publicerade inlägg om rasfrågor för att skapa splittring i USA newslit.org. Facebook och Twitter, som blev tipsade av forskare och CNN, stängde till slut ner nätverket newslit.org. Samtidigt varnade amerikansk underrättelsetjänst för att Ryssland fortsatte sprida vilseledande narrativ under kampanjen 2020 – även om striktare plattformsövervakning och hög medvetenhet i allmänheten gjorde det svårare för trollen att få samma genomslag som 2016. IRA anpassade sig också genom att skapa ”franchiser”: istället för att driva alla konton från Sankt Petersburg, tillhandahöll de innehåll och instruktioner till sympatisörer eller anlitade personer utomlands som var svårare att spåra. Till exempel avslöjade separata amerikanska åtal 2020 en rysk insats för att rekrytera amerikaner (inklusive en politisk aktivist i Florida) att publicera artiklar skrivna av falska personer och att organisera protester. Trollfabrikens arbetsmetoder utvecklades alltså, men målen förblev desamma. USA:s Cyber Command tog till och med steget att hacka IRA:s servrar i slutet av 2018 för att störa deras verksamhet under mellanårsvalet, vilket tillfälligt slog ut trollfabriken spyscape.com. Andhämtningspausen blev kortvarig – rapporter visade att de återhämtade sig senare – men det visade att västländer i allt högre grad var villiga att vidta offensiva åtgärder mot trollen.
  • 2016–2017 Brexit och europeiska kampanjer: I Europa riktade ryska troll in sig på avgörande händelser som Storbritanniens Brexit-folkomröstning 2016 och det franska presidentvalet 2017. I Storbritannien visade utredningar att Twitter-konton med koppling till Kreml (inklusive kända IRA-konton identifierade av Twitter) hade spridit pro-Brexit-budskap och uppseendeväckande immigrationshistorier inför omröstningen washingtonpost.com. Omfattningen var mindre än i USA, vilket fick analytiker att bedöma att ryska troll inte avgörande påverkade Brexit-resultatet, men avsikten att blanda sig i var tydlig washingtonpost.com. Samtidigt, under Frankrikes val 2017, spred och förstärkte ryska aktörer (via troll och hackare) de så kallade “Macron-läckorna” – en dumpning av hackade mejl från kandidaten Emmanuel Macrons kampanj – tillsammans med desinformation om Macron, i ett försök att gynna hans högerextrema motståndare Marine Le Pen. Fransk cyberövervakning fann att många av de sociala mediekonton som spred #MacronLeaks på Twitter var nyskapade eller kunde spåras till ryska påverkansnätverk. I Tyskland förberedde sig myndigheter på liknande inblandning inför förbundsdagsvalet 2017. Även om en större trollkampanj där uteblev (möjligen avskräckt av den tyska regeringens varningar), misstänktes Ryssland ligga bakom andra incidenter – såsom en propagandaberättelse från 2016 som felaktigt hävdade att en rysk-tysk flicka “Lisa” hade blivit våldtagen av migranter i Berlin, vilket kraftigt spreds på ryska sociala medier och ledde till protester. Europeiska ledare tog notis: i slutet av 2017 anklagade premiärminister May offentligt Ryssland för inblandning över hela Europa, och Spaniens premiärminister Mariano Rajoy avslöjade data som visade att under Kataloniens självständighetskris 2017 kom en stor del av den falska onlineaktiviteten från Ryssland eller Venezuela washingtonpost.com. Alla dessa insatser tjänade Moskvas intresse att försvaga EU och NATO genom att stärka nationalistiska och separatistiska rörelser.
  • Propaganda i Ukraina och grannländer: Rysslands användning av trollfabriker fick först genomslag under dess interventioner i närområdet. När Ryssland annekterade Krim 2014 och eldade på krig i östra Ukraina, satte en armé av troll igång online för att rättfärdiga Moskvas agerande och svartmåla den ukrainska regeringen. Ryskspråkiga sociala nätverk, liksom västerländska plattformar, bombarderades med upprepade meddelanden som papegojade Kremls narrativ: att regeringen i Kiev var en “fascistjunta”, att övergrepp (ofta påhittade) begicks mot rysktalande, och att västerländska sanktioner skulle slå tillbaka. Dessa troll försökte “översvämma zonen” med Kremls version av händelserna, vilket gjorde det svårt för vanliga betraktare att urskilja sanningen. Spola fram till 2022 och den fullskaliga invasionen av Ukraina: ryska troll aktiverades återigen på global nivå. Inom några dagar efter invasionen identifierade analytiker nätverk av oäkta konton på Twitter, TikTok och Instagram som spred desinformation – såsom påståenden om att bilder på bombade ukrainska städer var fejk propublica.org. ProPublica och forskare vid Clemson University spårade dussintals ryskspråkiga konton som i mars 2022 samtidigt publicerade samma vilseledande video (som falskt “avslöjade” en iscensatt civil offer-scen i Ukraina) – ett kännetecken för en koordinerad trolloperation propublica.org. Dessa konton visade tydliga IRA-spår, inklusive arbetstider som följde Moskvatid och pauser på helger och ryska helgdagar propublica.org. När kriget fortskred anpassades trollinnehållet: först i förvirring, sedan genom att återge officiell propaganda genom att skylla kriget på Nato och förneka ryska militära misslyckanden propublica.org. Troll riktade sig också mot internationella målgrupper för att försvaga stödet för Ukraina – de argumenterade i västerländska kommentarsfält att sanktioner mot Ryssland skadade Europa mer, eller förstärkte högerextrema röster i Europa som motsatte sig att beväpna Ukraina theguardian.com. I en brittiskfinansierad studie noterade analytiker att trolloperationen i Sankt Petersburg (Cyber Front Z) tog inspiration från konspirationsrörelser som QAnon i hur den spred sina budskap och försökte samla sympatisörer online theguardian.com. Kriget i Ukraina har alltså åtföljts av ett parallellt informationskrig, där ryska trollfabriker spelar en central roll i att sprida “pro-krigs-lögner” globalt theguardian.com. Deras påverkan är tydlig i den fortsatta förekomsten av Kreml-vänliga narrativ i vissa delar av den allmänna opinionen, trots faktabaserad rapportering som säger motsatsen.
  • COVID-19-pandemin och andra globala frågor: Ryska troll har opportunistiskt utnyttjat globala kriser och kontroverser, från COVID-19-pandemin till sociala rättviseprotester, som bördig mark för desinformation. Under pandemin spred statsanknutna trollkonton en mängd konspirationsteorier – påstod att coronaviruset var ett amerikanskt biovapen, spred antivaccin-misinformation och ökade misstron mot folkhälsoinstitutioner thebulletin.org. Målet var inte att presentera ett sammanhängande alternativ, utan att “förstärka tvivel” och dysfunktion i västerländska samhällen under en tid av osäkerhet thebulletin.org. På liknande sätt, 2020 när USA bevittnade historiska protester för rasrättvisa, fördubblade ryska trollfabriker sina ansträngningar att elda på rasmotsättningar – å ena sidan utgav de sig för att vara högerextrema röster som fördömde protesterna, och å andra sidan låtsades de vara vänsteraktivister för att uppmuntra mer extrema känslor, och spelade därmed på båda sidor för att skapa kaos. Dessa exempel visar att bortom politik och krig kan vilken splittrande fråga som helst bli en slagfält för trollstyrda påverkansoperationer. Från klimatdebatten till vaccinmandat har ryska troll injicerat falska påståenden för att göra diskussionen giftig. Genom att förvärra polariseringen på alla fronter främjar de Moskvas mål om ett försvagat, grälsjukt väst.

Expertinsikter och avslöjanden

Otalet undersökningar av journalister, akademiker och underrättelsetjänster har dragit undan ridån för Rysslands trollfabriker. Experter betonar att dessa operationer är ett nytt slags hot som demokratier måste hantera. “2016 var bara början,” noterar en rapport från PBS – sedan dess har Kremls nätoperatörer blivit mer sofistikerade och bättre på att efterlikna riktiga människor pbs.org.

Forskare som studerar trollfabrikernas taktik har gjort slående observationer. Darren Linvill, professor vid Clemson University, har tillbringat år med att analysera IRA-konton. Han noterar tydliga mönster: “Under ryska helgdagar och på helger minskade aktiviteten [hos vissa trollkonton],” vilket tyder på att de som postar följer ett avlönat arbetsschema snarare än att vara genuina frivilliga spyscape.com. Hans teams analys tillsammans med ProPublica bekräftade att inlägg från misstänkta IRA-konton dök upp vid “definierade tider som stämmer överens med IRA:s arbetsdag.” spyscape.com. Med andra ord, verkliga gräsrotsaktivister tar inte ledigt på helgerna samtidigt – men det gör trollfabrikens anställda. Linvill drog slutsatsen, “Dessa konton uppvisar alla tecken vi har som tyder på att de härstammar från Internet Research Agency.” spyscape.com. Om de mot förmodan inte var IRA, skämtade han, “är det värre, för då vet jag inte vem som gör det.” propublica.org. Hans analys underströk hur konsekvent och professionaliserad den ryska desinformationsmaskinen hade blivit.

Insiderberättelser har också kastat ljus över verksamheten. Journalisten Lyudmila Savchuks modiga visselblåsning 2015 gav en första inblick i IRA:s “trollfabrik”-kontor. Hon beskrev en nästan surrealistisk miljö: unga anställda i bås som obevekligt postar under falska identiteter, med propagandadirektiv som delades ut som redaktionella uppdrag varje morgon. “Först kunde jag inte tro att det var verkligt… det var en sorts kulturchock,” berättade en annan undercover-operatör för Radio Free Europe rferl.org. De talade om en löpande band-atmosfär där kreativitet värderades mindre än lydnad mot de dagliga narrativteman som sattes av cheferna.

Västerländska regeringar har blivit mer högljudda i att påtala denna aktivitet. I april 2022 fördömde Storbritanniens utrikesminister Liz Truss Rysslands nya trollkampanj kring Ukraina-kriget och sade: ”Vi kan inte tillåta Kreml och dess skumma trollfabriker att invadera våra digitala utrymmen med sina lögner om Putins olagliga krig.” theguardian.com. Den brittiska regeringen gick så långt som att offentligt finansiera forskning om operationen i Sankt Petersburg och dela resultaten med sociala medieplattformar för att underlätta ingripanden theguardian.com. Samma forskning visade trollens vilja att förnya sig – till exempel genom att förstärka legitima inlägg från verkliga användare som råkade sammanfalla med Kremls åsikter, vilket gjorde det svårare att upptäcka eftersom innehållet inte alltid var påhittat theguardian.com. Denna katt-och-råtta-lek mellan trollfabriker och plattformsmoderatorer är något underrättelsetjänster är mycket medvetna om. I USA har FBI och Department of Homeland Security upprepade gånger varnat för att ryska agenter snabbt anpassar sig till plattformsförbud, och återkommer med nya konton och nya taktiker.

En FBI-tjänsteman noterade 2020 att ryska operatörer var ”uthålliga och kreativa”, och använde mellanled och ombud för att dölja sitt engagemang efter att sociala medieföretag börjat massblockera konton. Till exempel, efter att Facebook och Twitter rensade tusentals IRA-konton efter 2016, dök trollen upp igen via tredjeländer (som sågs med Ghana-operationen) eller genom att byta till alternativa plattformar med svagare moderering. Deras motståndskraft fick det amerikanska justitiedepartementet att 2020 sanktionera fler individer och till och med trollfabrikskopplade sajter (som SouthFront och NewsFront) för att stoppa deras finansiering och hosting.

Tänkesmedjor och akademiker har också lyft fram de utvecklande teknologiska verktyg som trollen har till sitt förfogande. En rapport från 2018 av Institute for the Future varnade för att trolling i stor skala bör behandlas som ett människorättsbrott på grund av den skada det orsakar samhällen, men beklagade samtidigt bristen på mekanismer för att straffa förövare newslit.org. Spola fram till 2024, och analytiker observerar att AI-genererat innehåll är den nya frontlinjen. I en EU-studie om desinformation påpekade experter att tidigare ryska taktiker ”förlitade sig på låg-teknologiska strategier såsom trollfabriker och botnätverk,” medan kampanjer år 2024 i allt högre grad använder generativ AI för att skapa ”hyperriktat innehåll” som är svårare att upptäcka carleton.ca. Ryska påverkansoperationer har börjat använda AI för att generera realistiska deepfake-bilder, videor och text i stor skala, vilket möjliggör ännu kraftfullare falska narrativ. Europeiska utrikestjänsten noterade 2023 att många av de senaste desinformationskampanjerna från Kreml, inklusive de så kallade ”Doppelgänger”-informationsoperationerna (som klonar riktiga nyhetssajter för att sprida falska berättelser), kan spåras till enheter finansierade av ryska statliga organ och nu förstärkta med AI-kapacitet carleton.ca. Detta understryker att trollfabrikmodellen inte är statisk – den uppgraderar ständigt sina tekniker, från enkla copy-paste-memes 2016 till AI-skapade innehåll 2024 och framåt.

2024–2025: Senaste utvecklingen och framtidsutsikter

Från och med 2024 och 2025 förblir Rysslands trollfabriksoperationer ett rörligt mål, som reagerar på geopolitiska händelser och interna maktskiften. En dramatisk utveckling var ödet för Internet Research Agency själv. I juni 2023 iscensatte Jevgenij Prigozjin – IRA:s grundare – ett kortvarigt myteri mot Rysslands militära ledarskap med sina Wagner-legosoldater. Upprorets misslyckande och Prigozjins efterföljande död i en misstänkt flygkrasch (augusti 2023) ledde till att Kreml stramade åt hans vidsträckta företag. Det rapporterades att IRA:s verksamhet i Sankt Petersburg officiellt stängdes ner i kölvattnet av Prigozjins fall från nåd businessinsider.com. Prigozjins eget medieföretag, Patriot Media, meddelade faktiskt att det “lämnar landets informationsutrymme” när regeringen gick vidare med att montera ner hans inflytandeorgan businessinsider.com. Prigozjin bekräftade till och med i en intervju strax innan att han hade skapat och drivit IRA, tydligen i ett försök att ta åt sig äran för dess “patriotiska” uppdrag spyscape.com. I början av juli 2023 rapporterade ryska statliga medier att den ökända trollfabriken hade upplösts – en utveckling som även noterades av västerländska medierbusinessinsider.com.

Dock innebar detta ”slut” för IRA inte slutet för ryska trolloperations. Analytiker tror att Kreml helt enkelt absorberade eller omstrukturerade dessa kapaciteter till andra händer. En rapport från Googles Threat Analysis Group i mars 2024 observerade att även om direkt IRA-aktivitet på Googles plattformar minskade efter Prigozjins död, så har komponenter av Prigozjin-kopplade påverkanskampanjer ”fortsatt vara livskraftiga” och troligen fortsätter under annan ledning cloud.google.com. Forskare på Mandiant noterade att flera långvariga ryska informationsoperationer visade ”ojämna grader av förändring” efter Prigozjin, med viss störning men många tillgångar fortfarande aktiva, vilket tyder på att Kreml omfördelade kontrollen snarare än att stänga ner allt cloud.google.com. Anmärkningsvärt är att under hela 2023 fortsatte Google och Meta att ta ner stora mängder falska konton kopplade till ryska desinformationsnätverk. Google rapporterade över 400 åtgärder 2023 mot IRA-kopplade påverkansoperationer cloud.google.com. Och i slutet av 2024, inför avgörande val, slog amerikanska tjänstemän fortfarande larm: FBI och andra myndigheter varnade för att Ryssland fullt ut avsåg att blanda sig i det amerikanska presidentvalet 2024 genom manipulation av sociala medier, även om metoderna behövde justeras utan IRAs ursprungliga navreuters.com.

I själva verket har försök till valpåverkan redan observerats inför 2024. Ett tydligt exempel kom i oktober 2024, när tjänstemän i den amerikanska delstaten Georgia uppmärksammade en viral desinformationsvideo som felaktigt påstod visa en “illegal invandrare” som skröt om att ha röstat flera gånger. Georgias Secretary of State-kontor uttalade direkt: “This is false… It is likely foreign interference attempting to sow discord and chaos on the eve of the election.” reuters.com De uppmanade sociala medieföretag att ta bort videon och noterade “Likely it is a production of Russian troll farms.” reuters.com. Denna incident – som inträffade precis före ett omstritt amerikanskt val – visar att Russian trolls are still in the game in 2024, och använder vilseledande virala videor på plattformar som X (Twitter) för att underminera förtroendet för röstningen reuters.com. Federala myndigheter som CISA undersökte incidenten, och den fungerade som en påminnelse om att även utan IRAs ursprungliga ledarskap kan den ryska onlinepåverkan snabbt starta nya ad hoc-kampanjer vid behov.

Med blicken mot 2025 bedömer experter att Rysslands trollfabriker kommer att fortsätta anpassa sig snarare än att försvinna. Med Moskva fast i ett utdraget krig i Ukraina och under inrikespolitiskt tryck har Kreml starka incitament att fortsätta använda “cheap but effective” weapon of online manipulation. Vi kan förvänta oss att ryska aktörer i ännu högre grad tar till sig emerging technologies – särskilt AI. Europeiska analytiker noterade att i slutet av 2024 hade den rena scale and speed av rysk desinformation ökat tack vare generativa AI-verktyg, vilket gjorde det enklare att massproducera falskt innehåll carleton.ca. Det innebär att framtida trollfabriksmetoder kan involvera AI-genererade “personer” (för helt realistiska profilbilder och till och med deepfake-videokommentarer), samt algoritmiskt anpassad propaganda riktad mot specifika grupper med precision. Kapprustningen mellan plattformar och troll lär intensifieras: i takt med att företagen blir bättre på att blockera kända trollsignaturer, använder trollen AI för att skapa allt mer övertygande personligheter och innehåll.

På den geopolitiska scenen kommer Rysslands trollfabriker (oavsett vilken ny skepnad de antar) sannolikt att rikta in sig på alla större händelser som är relevanta för Kremls intressen. Kommande val i västländer, debatter om stöd till Ukraina och till och med frågor som energikriser eller internationella konflikter kan alla bli arenor för förnyade desinformationsoffensiver. Europeiska unionens säkerhetsorgan har förstärkt sin övervakning av ”Foreign Information Manipulation and Interference” (FIMI) och släpper regelbundna hotrapporter som nästan alltid lyfter fram ryska operationer. NATO- och EU-tjänstemän varnar för att Ryssland kommer försöka splittra västlig enighet om Ukraina genom att elda på extremistiska och isolationistiska narrativ via sociala medier (till exempel genom att lyfta fram röster som motsätter sig stöd till Ukraina eller som förespråkar Rysslandsvänliga policyer). Faktum är att valet till Europaparlamentet 2024 såg en ökning av budskap – inklusive klonade fejknyhetssajter i en ”Doppelgänger”-kampanj – som drev anti-ukrainska och anti-EU-teman, vilket analytiker kopplade till ryska desinformationsgrupper carleton.ca. Påverkan av sådana insatser är svår att kvantifiera, men de sammanföll med framgångar för högerextrema, rysslandsvänliga politiska block, vilket tyder på viss effektcarleton.ca.

På den ryska inrikesarenan kommer Kreml sannolikt att behålla ett hårt grepp om narrativet med alla tillgängliga medel – inklusive trollfabriker eller deras efterföljare. Efter Prigozjins myteri lärde sig Putin risken med att låta en privat aktör kontrollera för mycket av propagandamaskineriet. Det skulle inte vara förvånande om ryska säkerhetstjänster (som FSB eller militär underrättelsetjänst) har tagit över delar av trollverksamheten för att säkerställa lojalitet och direkt tillsyn. Tonen i rysk inhemsk trolling sedan slutet av 2023 har skiftat för att radera minnet av Prigozjin (med tanke på hans förräderi) och stärka Putins ställning mitt under krigets utmaningar tandfonline.com. Alla ryssar som uttrycker krigströtthet eller kritiserar regeringen online kan räkna med att bli överösta av ”patriotiska” kommentatorer – i många fall troll – som attackerar dem som förrädare, vilket därmed kyler ned oliktänkande. Detta visar att trollfabrikstaktiken förblir en grundpelare i den interna propagandan, men nu mer statligt centraliserad.

Sammanfattningsvis har Rysslands trollfabriker utvecklats från ett marginellt experiment till ett fullfjädrat instrument för statlig makt i informationsåldern. De fungerar som propagandafabriker för 2000-talet, som pumpar ut lögner, rädsla och splittring med ett musklick. Under det senaste decenniet har de lagt sig i val, eldat på konflikter och förorenat otaliga diskussioner online. Och trots ökad exponering och sanktioner visar de inga tecken på att sluta – bara på att byta skepnad. Så länge öppna samhällen förlitar sig på onlineplattformar för nyheter och debatt, kommer Kremls troll att försöka utnyttja denna öppenhet. Att bekämpa detta hot kommer att kräva ständig vaksamhet, allmän medvetenhet och internationellt samarbete. Världen har vaknat upp till Rysslands trollfabrikers handbok; utmaningen nu är att förhindra att dessa “digitala soldater” kapar det globala samtalet med manipulation och illvilja.

Former Russian trolls expose misinformation operations

Don't Miss