- Internet Research Agency (IRA), Russlands leiande trollfabrikk, har base i St. Petersburg og vart grunnlagt rundt 2013. Ho voks til om lag 400 tilsette innan 2015, som arbeidde 12-timars skift.
- IRA-tilsette arbeidde under strenge kvotar: 5 politiske innlegg, 10 ikkje-politiske innlegg, og 150–200 kommentarar per skift.
- Trollane tente om lag 40 000 rublar i månaden (rundt $700–$800) og fekk løna utbetalt kontant.
- Dei skjulte opphavet sitt med VPN-ar, proxy-tenarar, stolne eller AI-genererte profilbilete, og falske personar for å verke ekte.
- Operasjonen var del av Prosjekt Lakhta, ein Kreml-knytt paraply som inkluderte Patriot Media Group, som eigde Federal News Agency (RIA FAN) og andre medium brukte til å kvitvaske propaganda, seinare nemnde i amerikanske sanksjonar.
- I det amerikanske presidentvalet i 2016 dreiv IRA ein fleirplattforms-kampanje på Facebook, Twitter, Instagram, YouTube og Reddit, nådde over 126 millionar amerikanarar og førte til at 13 IRA-operatørar vart tiltalt i 2018, med sanksjonar mot gruppa.
- I 2016–2017 utgav IRA-operatørar seg for å vere amerikanske aktivistar og organiserte faktiske demonstrasjonar i USA, inkludert ein protest i New York City til støtte for Donald Trump og ein annan mot han på same dag.
- Frå 2018–2020 outsourca IRA engelskspråkleg trolling til Afrika, og dreiv eit nettverk i Ghana og Nigeria som utgav seg for å vere svarte amerikanske aktivistar, noko Facebook og Twitter seinare stengde i 2020.
- I 2022 dukka den offentlege Cyber Front Z-gruppa opp i St. Petersburg, koordinerte via Telegram, opererte frå ein gammal våpenfabrikk, og betalte TikTok-influensarar for å forsterke Kreml-bodskap medan dei dreiv med brigadering og manipulering av avstemmingar.
- I 2024 hadde AI- og Doppelgänger-kampanjar blitt sentrale, med Google som rapporterte over 400 tiltak i 2023 mot IRA-knytte påverknadsnettverk, og analytikarar merka seg vidare drift etter Prigozjin sitt mytteri og død i 2023.
Kva er trollfabrikkar? Motoren bak desinformasjon
Trollfabrikkar er organiserte grupper av lønna nettoperatørar som brukar falske identitetar for å oversvømme internett med propaganda og splittande innhald. Frå kontorliknande lokale lagar desse teama falske profilar som utgir seg for å vere ekte personar, og postar på sosiale medium, i kommentarfelt og på forum. Målet deira er å manipulere opinionen – nokre troll pressar bodskap som viser falsk grasrotstøtte til visse idear, medan andre spreier rykte for å skape forvirring og mistillit til institusjonar newslit.org. Ofte jobbar trollfabrikk-tilsette i koordinerte skift, postar provoserande kommentarar, misvisande “nyheiter” og konspirasjonar i stor skala, forsterkar ekstreme synspunkt langt utover det som ville skjedd organisk. Mange brukar sockpuppet-kontoar (fleire nettpersonar), av og til med hjelp av sosiale botar (automatiserte kontoar), for å få det til å sjå ut som om mange vanlege folk deler desse ytterliggåande meiningane en.wikipedia.org. I røynda kan eit fåtal operatørar stå bak hundrevis av kontoar – eit skjult propaganda samlebånd som produserer desinformasjon på bestilling.
Sjølv om konseptet høyrest ut som ein sci-fi-historie, er trollfabrikkar svært reelle og har blitt brukt som våpen av statar. Russland har spesielt berykta teke i bruk trollfabrikkar som eit kjerneverktøy i sitt informasjonskrigsarsenal. Ved å oversvømme nettstader med pro-Kreml-forteljingar og fiendtlege kommentarar, har russiske trollfabrikkar som mål å vri oppfatningar og undergrave diskursen i målretta land. Aktivitetane deira spenner frå valinnblanding og politisk agitasjon i utlandet til å forsterke propaganda på heimebane. Dei fleste i verda høyrde først om russiske trollfabrikkar då nyheiter kom om deira innblanding i presidentvalet i USA i 2016 newslit.org. Men taktikken er eldre enn 2016 og er ikkje unik for Russland – andre styresmakter og grupper har kopiert liknande metodar. Likevel er det russiske operasjonar som har sett malen for den moderne trollfabrikken: statsstøtta, sentralt organisert og med global rekkevidde. Sosiale medium-selskap har slite med å stoppe desse falske kontoane, og har av og til fjerna store nettverk (til dømes fjerna Facebook og Twitter eit russisk trollnettverk basert i Ghana i 2020 som hadde fått over 300 000 følgjarar medan det fyrte opp under rasespenningar i USA newslit.org). Likevel er dette truleg berre “toppen av isfjellet” newslit.org. Trollfabrikkar utviklar seg stadig, finn nye måtar å unngå oppdaging og utnytte nettplattformer på.
Inne i Russlands trollfabrikkar: Organisering og nøkkelaktørar
Russlands mest berykta trollfabrikk er Internet Research Agency (IRA), eit selskap i St. Petersburg som tidlegare vart leia og finansiert av oligarken Yevgeny Prigozhin – ein nær alliert av Putin, ofte kalla “Putins kokk.” IRA (kjend på russisk slang som “trolla frå Olgino”) vart grunnlagt rundt 2013 og voks til å bli ein profesjonalisert operasjon med hundrevis av tilsette spyscape.com. I 2015 hadde IRA etter rapportane om lag 400 tilsette som jobba i 12-timars skift, inkludert ei elitegruppe på om lag 80 engelskspråklege troll som arbeidde utelukkande med å påverke det amerikanske politiske systemet spyscape.com. Det likna eit marknadsføringsbyrå på nett – men med Kreml sine mål som fokus. Eit leiingsteam hadde ansvar for fleire avdelingar (grafisk design, IT, søkemotoroptimalisering, økonomi, osb.) og følgde nøye med på måltal spyscape.com. Ifølgje ei gransking frå det amerikanske senatet overvaka leiarane til og med dei tilsette via CCTV og var “besette” av sidevisningar, likes og kommentar-kvotar som mål på påverknad spyscape.com.Livet som ein russisk nettroll vart skildra av innsidarar som ein stressande kontorjobb. Lyudmila Savchuk, ein journalist som gjekk undercover hos IRA, avslørte at kvart nettroll hadde strenge daglege kvotar – til dømes 5 politiske innlegg, 10 ikkje-politiske innlegg (for å verke ekte), og 150-200 kommentarar på anna innhald per skift spyscape.com. Nettrolla arbeidde lange dagar for ei beskjeden løn (om lag 40 000 rublar, rundt 700-800 dollar i månaden) og fekk betalt kontant spyscape.com. Dei opererte i hemmelege “team” med fokus på ulike målgrupper og tema. Til dømes fekk eigne grupper ansvar for amerikansk politikk, europeiske saker, Ukraina osv., der kvar gruppe utforma bodskap tilpassa desse målgruppene. Tidlegare IRA-tilsette fortalde at dei fekk beskjed om å sjå på populære amerikanske TV-seriar som House of Cards for å lære amerikanske kulturreferansar spyscape.com. Dei fekk opplæring i engelsk og rettleiarar i amerikansk slang for å kunne late som dei var ekte amerikanske kommentatorar spyscape.com. For å skjule at dei var russarar, brukte dei VPN og proxy-tenarar for å skjule plasseringa si og laga nøye falske personar (med stolne eller AI-genererte profilbilete, “heimstad”-detaljar og realistiske namn) spyscape.com. Over veker og månader bygde desse falske kontoane gradvis opp ein identitet og følgjarskare – dei vart med i Facebook-grupper, tvitra om kvardagsliv eller sport – før dei byrja med politisk propaganda når dei var truverdige nok. “Med tida får desse kontoane følgjarar og blir meir innflytelsesrike,” heiter det i ein rapport spyscape.com.
Prigozjin sin IRA opererte ikkje isolert, men som del av eit større Kreml-knytt påverknadssystem. Russiske journalistar og amerikanske tiltalar har avslørt ein paraplyoperasjon kalla “Project Lakhta,” der IRA og tilknytte einingar arbeidde for å “forstyrre den amerikanske demokratiske prosessen, spreie mistillit, oppmode til uro, og polarisere amerikanarar” – særleg ved å forsterke rase- og sosiale skiljelinjer spyscape.com. For å mogleggjere fornektelse brukte dette prosjektet eit nettverk av stråselskap og mediefrontar. Til dømes eigde Prigozjin sitt holdingselskap “Patriot Media Group” Federal News Agency (RIA FAN) og andre pseudo-nyheitsnettstader som pumpa ut propaganda, samstundes som dei fungerte som dekke for hemmelege trolloperasjonar cloud.google.com. Project Lakhta-einingar inkluderte sjølve IRA og såkalla “nyheits”-nettstader som Nevskiy News, Economy Today, and International News Agency, alle seinare nemnde i amerikanske sanksjonar for å vere vertskap for desinformasjonsaktivitetar spyscape.com. Denne uklåre blandinga av opne propaganda-kanalar og skjulte trollteam gjorde det mogleg for russiske påverknadsoperasjonar å “vaske” desinformasjon – til dømes ved at eit troll planta ei falsk historie via ein falsk identitet, som så vart plukka opp av Patriot Media sine nettstader som “nyheit”, og til slutt forsterka av andre troll og botar.
Merkverdig nok strekte Russlands trolloperasjonar seg utover tastatur og skjerm. IRA og samarbeidspartnarar hyra av og til intetanande lokale i mållanda til å arrangere verkelege hendingar som samsvarte med deira nettbaserte agitasjon. Amerikanske etterforskarar fann at i 2016–2017 klarte IRA-operatørar som utgav seg for å vere amerikanske aktivistar å organisere faktiske politiske demonstrasjonar i USA – til og med å arrangere ein protest i New York City til støtte for Donald Trump og ein annan mot han på same dag, for å maksimere splid spyscape.com. Dei russiske trolla utgav seg for å vere grasrotorganisatorar, rekrutterte ekte amerikanarar via Facebook-grupper og betalte dei for å bære banner eller lage rekvisittar, alt medan desse borgarane ikkje visste at dei svarte på russiske ordre spyscape.com. Denne taktikken – å bruke troll for å skape “AstroTurf”-falske grasrotbevegelsar – viser kor langt desse påverknadsoperasjonane er villige til å gå. Ved å kombinere nettbasert desinformasjon med handlingar i den verkelege verda, prøvde dei å gjere nettbasert sinne om til kaos i røynda.
Internettforskningsbyrået vart verdskjent etter at innblandinga deira i amerikansk politikk vart avslørt. I 2018 reiste det amerikanske justisdepartementet tiltale mot IRA-operatørar for kriminell innblanding i valet i 2016, og la fram detaljar om korleis dei oppretta tusenvis av sosiale mediekontoar (der dei utgav seg for å vere amerikanarar av alle slag), nådde millionar av menneske med memar og falske historier, og til og med finansierte politiske annonser og demonstrasjonar businessinsider.com. (IRA si bruk av stolne amerikanske identitetar og økonomisk svindel for å finansiere operasjonar førte til fleire tiltalepunkt businessinsider.com.) Sjølv om Russland nekta for skuldingane, innrømde Prigozjin til slutt si rolle: «Eg har aldri berre vore ein finansierar av IRA. Eg fann det opp, eg skapte det, eg styrte det i lang tid», skrøyt Prigozjin tidleg i 2023, og hevda det vart grunnlagt for å «verne det russiske informasjonrommet mot… aggressiv antirussisk propaganda frå Vesten.» spyscape.com. Denne opne tilståinga frå hjernen bak understrekar IRA sitt todelte oppdrag – å angripe Russlands motstandarar på nett, samstundes som dei skjerma Kreml på heimebane.
Bortsett frå IRA, har andre trolloperasjonar dukka opp eller utvikla seg i Russland. I 2022, etter at Russland starta sin fullskala invasjon av Ukraina, byrja ei ny gruppe basert i St. Petersburg som kalla seg “Cyber Front Z” å rekruttere “patriotiske” bidragsytarar for å oversvømme internett med pro-krigs-kommentarar theguardian.com. Basert i eit leid lokale inne i ein gammal våpenfabrikk, vart denne “trollfabrikken” (som skildra av britisk etterretning) knytt til Prigozjin sitt nettverk og koordinert via ein Telegram-kanal kalla “Cyber Front Z” theguardian.com. Cyber Front Z sine operatørar retta seg mot sosiale medie-sider til vestlege leiarar og kommentarfelt på nyheitsnettstader, og kapra diskusjonar for å hylle Putin og demonisere Ukraina theguardian.com. Ifølgje forsking sitert av den britiske regjeringa, betalte dei til og med visse TikTok-influensarar for å forsterke Kreml sitt bodskap theguardian.com. Dette tyder på at Russlands trolloperasjonar tilpassa seg nye plattformer og yngre publikum – og utvida seg frå Facebook og Twitter til Instagram, YouTube og TikTok, der forskarar fann høg aktivitet i 2022 theguardian.com. Medlemmar av Cyber Front Z deltok i koordinert “brigadering”, massekommentering for å styre nettdebattar i retning av Kreml sitt syn, og til og med manipulering av nettavstemningar (til dømes ved å vri resultat i vestlege medieundersøkingar om støtte til sanksjonar mot Russland) theguardian.com. I motsetnad til den hemmelege IRA, var Cyber Front Z openbert offentleg om sin patriotisme, og rettferdiggjorde nettrollinga som ei borgarplikt i krigstid theguardian.com.
Verktøy og taktikk: Korleis russiske troll spreier propaganda
Russiske trollfabrikkar brukar eit breitt arsenal av teknikkar for å spreie og forsterke desinformasjon på nettet. Nokre av dei viktigaste verktøya og taktikkane er:
- Falske personar og sokkedukke-kontoar: Trollar lagar hundrevis av oppdikta nettidentitetar, med stolne eller AI-genererte profilbilete, og latar som dei er vanlege borgarar en.wikipedia.org. Dei etterliknar ofte lokal demografi (til dømes ved å utgi seg for å vere amerikanarar med ulike politiske bakgrunnar, eller som europearar frå bestemte land) for å gli inn. Desse sokkedukke-kontoane finst på alle store plattformer – Facebook, Twitter (no X), Instagram, YouTube, TikTok, Reddit, og russiske nettverk som VKontakte spyscape.com. For å unngå tydelege teikn på at dei er falske, postar trollane jamleg ikkje-politiske innlegg under desse personaene (sportsprat, matbilete, osb.) og kopierer nøye ekte åtferd på sosiale medium. Over tid byggjer dei opp truverd, og slepp så propaganda eller misvisande innhald inn i fellesskap frå innsida.
- Sosiale medium-forsterking og “brigadering”: Trollfabrikkar prøver å få nokre få stemmer til å høyrest ut som ein folkemengde. Dei koordinerer bølgjer av innlegg og kommentarar slik at eit visst narrativ dominerer samtalar eller trendar kunstig. Til dømes kan eit trollteam svare ein politikar sin tweet samtidig med dei same poenga, og gje inntrykk av at folkeopinionen er overveldande einsidig. I kommentarfelt på nyheitsartiklar oppmodar dei kvarandre og hopar seg opp i svar for å overrøysta ekte debatt theguardian.com. På plattformer som Facebook har trollar drive store temabaserte sider (t.d. “Secured Borders” eller falske aktivistgrupper) som har tiltrekt seg ekte følgjarar, og så forsiktig spreidd polariserande propaganda i desse straumane. Dei har òg vore kjende for å kapre emneknaggar eller starte koordinerte emneknagg-kampanjar på Twitter for å få dei til å trende. Ved å koreografere innlegg på tvers av dusinvis av kontoar, kan trollfabrikkar brigadere nettavstemningar, forum og sosiale straumar for å få ytterliggåande idear til å verke populære theguardian.com.
- Botar og automatiserte nettverk: I tillegg til menneskestyrte personaer, brukar russiske operasjonar bot-nettverk – automatiserte eller semi-automatiserte kontoar – for å forsterke bodskapen sin. Desse botane kan retweete eller dele innhald tusenvis av gonger på få minutt, forvrenge trend-algoritmar og trakassere utvalde brukarar. Under ulike val og hendingar har etterforskarar funne svermar av tweetar/innlegg frå mistenkte bot-kontoar knytt til Russland washingtonpost.com. Til dømes rapporterte Spania om ein “bot-lavine” som spreidde falske nyheiter under folkerøystinga om katalansk uavhengigheit i 2017, der over halvparten av bot-kontoane kunne sporast tilbake til russisk opphav washingtonpost.com. Botar forsterkar ofte meldingane til trolla ved å like og dele dei i stor skala. Blandinga av botar og menneskelege troll får kampanjen til å sjå større og meir organisk ut enn han eigentleg er – ein kraftmultiplikator for desinformasjon.
- Desinformasjonsinnhald og mediemanipulasjon: Trollfabrikkar spesialiserer seg på å produsere delbar desinformasjon – frå falske nyheitsartiklar og manipulerte bilete til misvisande memar og videoar. Ofte driv dei pseudo-nyheitssider som spyr ut propaganda, som troll deretter sirkulerer i grupper og kommentarfelt. Russiske operatørar har forfalska skjermbilete av tweetar, fabrikkert offentlege dokument og spreidd konspirasjonsmemar for å støtte sine narrativ. Dei siste åra har dei òg byrja å bruke deepfakes og anna AI-generert media. Eit berykta døme fann stad i mars 2022, då ein deepfake-video av Ukrainas president Volodymyr Zelensky sirkulerte, der han feilaktig vart vist medan han bad ukrainske soldatar overgje seg reuters.com. Videoen var dårleg laga og vart raskt avkrefta, men ekspertar åtvara om at han “kan vere ein forløpar for meir sofistikerte bedrag i framtida” reuters.com. Trollnettverk kan gripe tak i slikt falskt innhald – eller lage sitt eige – og presse det aggressivt ut til intetanande publikum. Ved å så virale bløffar (frå falske påstandar om valfusk til falske COVID-19-kurar), prøver dei å villeie og hisse opp folket.
- Å bruke influensarar og lokale stemmer: Ein annan taktikk er å vaske propaganda gjennom legitime stemmer. Russiske påverknadskampanjar har blitt avslørt i å rekruttere eller lure uvitande tredjepartar – til dømes ved å kontakte frilansjournalistar i utlandet for å skrive artiklar som gjentar Kreml sine synspunkt, eller betale sosiale medium-influensarar for å fremje visse narrativ theguardian.com. I 2020 såg ein operasjon kalla “Peace Data” russiske nettroll opprette eit falskt venstreorientert nettmedium og hyre inn ekte frilansskribentar (mange i Vesten) til å bidra med artiklar, utan å vite kven som eigde plattforma. På same måte fann britiske forskarar i 2022 at nokre TikTok- og Instagram-influensarar fekk betalt for å spreie pro-russiske bodskap om Ukraina theguardian.com. Ved å lene seg på truverdet til lokale stemmer, kan troll spreie propaganda i ein meir tiltalande form, gøymd i innhald som verkar uavhengig. Dette gir eit lag av truverdigheit og gjer det vanskelegare å oppdage, sidan bodskapen kjem frå tilsynelatande ekte personar i staden for opplagde trollkontoar.
I kombinasjon gjer desse taktikkane det mogleg for russiske trollfabrikkar å drive “informasjonskrigføring” på fleire frontar – ved å spreie falskt eller skeivt innhald, forsterke det kunstig, og forvrenge det digitale informasjonsmiljøet. Det endelege målet er ikkje berre å overtyde éin person eller ein annan om ei enkelt løgn; det er å undergrave tillit generelt – tillit til media, til valprosessar, til samfunnsnormer – ved å forureine debatten med så mykje desinformasjon og hatsk retorikk at objektiv sanning og sunn debatt blir vanskeleg å finne. Som ein ekspert sa, er desse trolloperasjonane eit “verktøy for Putin til å kontrollere narrativ” og til å drukne ut motstemmer propublica.org. Enten det er ved å oversvømme russiskspråklege forum med pro-Kreml-konsensus eller å fløyme vestlege sosiale medium med konspirasjonsteoriar, prøver trollfabrikkane å overdøyve sanninga med støy.
Mål: Kvifor Kreml driv trollfabrikkar
Russiske trollfabrikk-kampanjar tener strategiske mål sett av Kreml, og fell grovt sett inn i kategoriane politisk påverknad, destabilisering av motstandarar og propagandakrigføring. Viktige mål inkluderer:
- Undergraving av val og politiske prosessar: Eit hovudoppdrag for russiske troll har vore å blande seg inn i demokratiske val i utlandet. Deira no berykta rolle i det amerikanske valet i 2016 hadde som mål å polarisere amerikanske veljarar, undertrykke nokre stemmer, og fremje føretrekte utfall. IRA sine eigne interne dokument skildra ein innsats for “å blande seg inn i val og politiske prosessar” i USA propublica.org. På same måte har russisk trollaktivitet i europeiske val forsøkt å fremje pro-Kreml eller ytre høgre-kandidatar og så tvil om pro-EU-sentrister. Den britiske statsministeren Theresa May åtvara seint i 2017 om at Russland prøvde å “undergrave frie samfunn og så splid” i Vesten ved å bruke sine troll og falske nyheitskanalar washingtonpost.com. Spanske styresmakter skulda russisk-tilknytte nettverk for å blande seg inn i folkerøystinga i Catalonia i Spania og peika på overlappande desinformasjon under Brexit og det franske valet, alt med mål om å splitte europeisk eining washingtonpost.com. I hovudsak, ved å manipulere opinionen under utanlandske val eller folkerøystingar, håpar Kreml å få på plass meir gunstige leiarar, svekke internasjonale motstandarar, eller berre skape kaos (sidan kaos i rivaliserande demokrati i seg sjølv er ein siger for Putin). Amerikanske styresmakter har sagt at Russlands mål ofte er å “fyre opp under splittande forteljingar” rundt val – ved å utnytte sensitive tema som rase, innvandring eller kriminalitet – slik at samfunn vender seg mot seg sjølv reuters.com. Sjølv når spesifikke kandidatar ikkje vinn, lukkast trolla dersom dei får nok innbyggjarar til å tvile på valets integritet eller mislike sine medveljarar.
- Så splid og mistillit: Utover enkeltval, jobbar russiske trollfabrikkar for å fyre opp under eksisterande splittelsar i målretta land over lang tid. Ved stadig å spreie polariserande innhald om sosiale konfliktpunkt (venstre mot høgre, by mot land, etniske og religiøse spenningar, osv.), prøver dei å rive opp samfunnets svakaste punkt. Ein amerikansk senatsrapport peika på at eitt IRA-prosjekt fokuserte sterkt på “å fremje sosialt splittande saker med vekt på raseskilje og ulikskap” i USA spyscape.com. Målet er å svekke Russlands motstandarar innanfrå: eit land prega av indre konfliktar har mindre evne til å stå samla internasjonalt. Denne strategien er observert over heile Vesten – frå å fremje separatiststemningar i Catalonia i Spania washingtonpost.com, til å hisse opp anti-innvandrings- og anti-EU-raseri i Europa, til å forsterke rasekonfliktar og vaksinekontroversar i USA. Ved å spreie konspirasjonsteoriar og ekstrem retorikk, prøver troll å få folk til å miste tilliten til vanlege informasjonskjelder og til og med vende seg mot eigne styresmakter. Som Georgias (delstat i USA) utanriksminister åtvara i 2024, er falske historier om valfusk som plutseleg dukkar opp i sosiale medium truleg “utanlandsk innblanding som prøver å så splid og kaos” – ofte spora tilbake til russiske trollfabrikkar reuters.com.
- Støttar russisk utanrikspolitikk og militære mål: Trollfabrikkar fungerer òg som digitale fotsoldatar for Kreml sitt geopolitiske program. Når Russland er involvert i konfliktar eller kriser, aukar trollane aktiviteten for å forme forteljinga på nettet. Til dømes, sidan Russlands første aggresjon i Ukraina i 2014, og særleg etter fullskala-invasjonen i 2022, har russiske troll ivrig spreidd krigspropaganda. Dei forsterkar påstandar som rettferdiggjer Russlands handlingar (som falske skuldingar om NATO-aggresjon eller “nazistar” i Ukraina) samstundes som dei avviser eller nektar for overgrep utførte av russiske styrkar propublica.org. Britisk forsking i 2022 avdekte ein koordinert trolloperasjon for å styrke støtta til Putins invasjon av Ukraina, retta ikkje berre mot russiske publikum, men òg vestlege sosiale medium med bodskap mot sanksjonar og Ukrainas leiarskap theguardian.com. Trollane retta seg til og med mot spesifikke høgprofilerte personar – som å oversvømme kommentarfelta til den britiske statsministeren og andre embetsfolk med pro-Kreml-budskap theguardian.com – i håp om å påverke opinionen. I hovudsak, kvar gong Russland vil projisere makt eller skjule sine aggresjonar, slepp dei laus trollane for å angripe informasjonslandskapet: for å forvirre folk om fakta på bakken, for å fremje konspiratoriske alternativ, og for å samle internasjonale skeptikarar på Russlands side. Som forskar Darren Linvill ved Clemson University påpeika, treng ikkje Putin nødvendigvis å “vinne” informasjonskrigen heilt; han treng berre å gjere vatnet grumsete nok til å halde posisjonen sin, og trollkontoar er eit verktøy for det propublica.org. På heimebane handlar dette òg om å forsterke Kreml si versjon av hendingane slik at russiske borgarar held fram med å støtte, eller i det minste vere skeptiske til, Vesten.
- Å støtte opp om regimet innanlands: Sjølv om mykje merksemd er retta mot russiske troll i utlandet, er ein betydeleg del av innsatsen deira faktisk retta mot det russiske heimlege publikummet. IRA vart opphavleg danna for å handtere Putins image og agenda på Runet (det russiske internettet) propublica.org. Ved å oversvømme russiske sosiale medium og kommentarfelt med patriotiske meldingar og angrep på Kreml-kritikarar, hjelper trollfabrikkar til med å drukne ut opposisjonsstemmer og fabrikkere eit inntrykk av brei folkeleg støtte til Putin. Til dømes, under Russlands COVID-19-utbrot og økonomiske problem, promoterte innanlandske troll aggressivt narrativet om at alle feil skuldast vestlege sanksjonar eller sabotasje, ikkje dårleg styring frå regjeringa. Etter invasjonen av Ukraina arbeidde russiskspråklege trollkontoar for å overtyde medborgarar om at krigen var rettferdiggjort og gjekk bra, ved å gjenta linjer frå statleg TV og sverte dei som uttrykte tvil propublica.org. «Det er ein måte for [Putin] å lyge til sitt eige folk og kontrollere samtalen,» forklarer Linvill propublica.org. Ved å manipulere opinionen på heimebane, hjelper trollfabrikkar til med å oppretthalde sosial stabilitet og lojalitet, og styrker Putins regime. På denne måten er dei eit propagandaapparat brukt internt for å motverke all faktisk informasjon som kan undergrave Kreml sitt narrativ (som nyheiter om russiske militære tilbakeslag eller korrupsjonsskandalar). Kreml sitt mål her er klassisk propaganda: å «halde stand» i informasjonskrigen på heimebane, og sikre at russarar anten trur på politikken hans eller i det minste tvilar på alternative synspunktpropublica.org.
Oppsummert opererer Russlands trollfabrikkar med klare mål: å svekke Kreml sine motstandarar, både eksternt og internt, ved å manipulere informasjon. Enten det gjeld å vri valdebattar, splitte samfunn, styrke Russlands omdøme eller undertrykke opposisjon, er det gjennomgåande temaet informasjon som våpen. Eller som Theresa May sa i ei offentleg åtvaring til Moskva: «Vi veit kva de gjer. Og de vil ikkje lukkast.» washingtonpost.com
Merkverdige operasjonar: Frå USA-val til Ukraina-krig
I løpet av det siste tiåret har russiske trollfabrikkar blitt knytt til store påverknadsoperasjonar over heile verda, ofte i samspel med andre cyber- og etterretningsaktivitetar. Nokre av dei mest betydningsfulle sakene inkluderer:
- Innblanding i det amerikanske presidentvalet 2016: IRA si kampanje for å blande seg inn i det amerikanske presidentvalet i 2016 står som det fremste eksempelet på innblanding frå trollfabrikkar. Allereie frå 2014 oppretta troll frå St. Petersburg eit omfattande nettverk av falske personar på Facebook, Twitter, Instagram, YouTube og Reddit – dei utgav seg for å vere liberale aktivistar, konservative veljarar, Black Lives Matter-støttespelarar, sørstatsseparatistar, muslimske grupper, du nemner det spyscape.com, en.wikipedia.org. Desse kontoane pumpa ut millionar av innlegg med mål om å hisse opp begge sider i splittande saker (raserelasjonar, våpenrettar, immigrasjon) og sverte Hillary Clinton samstundes som dei fremja Donald Trump. Dei oppretta til og med Facebook-sider for oppdikta organisasjonar og kjøpte annonser retta mot sentrale veljargrupper i vippestatar businessinsider.com. Ved valdagen hadde innhald frå IRA-kontrollerte sider nådd over 126 millionar amerikanarar på Facebook, ifølgje seinare avsløringar, og troll-tweeta deira blei sitert av store mediehus. Målet, slik det er skildra i amerikanske tiltalar, var å “skape splid i det amerikanske politiske systemet” og til slutt hjelpe ein meir Kreml-vennleg kandidat til makta washingtonpost.com. Amerikanske etterretningsbyrå konkluderte med at denne påverknadsoperasjonen, styrt av russiske styresmakter, markerte ein ny æra for informasjonskrigføring. I 2018 sanksjonerte det amerikanske finansdepartementet IRA og Prigozjin for denne innblandinga businessinsider.com, og spesialetterforskar Robert Mueller reiste tiltale mot 13 IRA-operatørar. Sjølv om ingen av dei møtte i retten (dei blei verande i Russland), avslørte tiltalen omfattande detaljar om korleis trollfabrikken organiserte demonstrasjonar, stal amerikanske identitetar og utnytta algoritmane til sosiale medium i eit omfang som aldri før var sett businessinsider.com, spyscape.com.
- 2018–2020: Vidare amerikansk og afrikansk verksemd: Trass i motreaksjonane frå 2016, slutta ikkje Russlands troll med aktivitetane sine. I forkant av presidentvalet i USA i 2020, eksperimenterte IRA med å setje ut engelskspråkleg trolling til mellomledd i Afrika. I eitt særleg tilfelle som vart avdekt i 2020, dreiv ein trollfabrikk i Ghana og Nigeria (påstått styrt av russiske leiarar) dusinvis av sosiale mediekontoar som utgav seg for å vere svarte amerikanske aktivistar, og posta om rasespørsmål for å skape splid i USA newslit.org. Facebook og Twitter, varsla av forskarar og CNN, stengde til slutt nettverket newslit.org. Samstundes åtvara amerikansk etterretning om at Russland heldt fram med å spreie misvisande narrativ under valkampen i 2020 – sjølv om strengare plattformovervaking og høg offentleg merksemd gjorde det vanskelegare for trolla å få same påverknad som i 2016. Merkverdig nok tilpassa IRA seg òg ved å lage “franchisar”: i staden for å drifte alle kontoar frå St. Petersburg, leverte dei innhald og retning til sympatisørar eller innleigde personar i utlandet som var vanskelegare å spore. Til dømes avslørte separate amerikanske tiltalar i 2020 eit russisk forsøk på å rekruttere amerikanarar (inkludert ein politisk aktivist i Florida) til å publisere artiklar skrivne av falske personar og til å organisere protestar. Trollfabrikkens oppskrift var altså i utvikling, men måla var dei same. U.S. Cyber Command gjekk så langt som til å hacke IRA sine serverar seint i 2018 for å forstyrre aktivitetane deira under mellomvalet, og fekk trollfabrikken midlertidig ut av drift spyscape.com. Avbrotet var berre mellombels – rapportar tydde på at dei samla seg igjen seinare – men det synte at vestlege styresmakter i aukande grad var villige til å ta offensive grep mot trolla.
- 2016–2017 Brexit og europeiske kampanjar: I Europa retta russiske troll seg inn mot avgjerande hendingar som Brexit-avstemminga i Storbritannia i 2016 og det franske presidentvalet i 2017. I Storbritannia fann etterforskingar at Twitter-kontoar knytte til Kreml (inkludert kjende IRA-kontoar identifiserte av Twitter) hadde fremja pro-Brexit-bodskap og oppflammande innvandringshistorier i forkant av avstemminga washingtonpost.com. Omfanget var mindre enn i USA, noko som fekk analytikarar til å vurdere at russiske troll ikkje avgjerande påverka Brexit-resultatet, men intensjonen om å blande seg inn var tydeleg washingtonpost.com. Samstundes, under det franske valet i 2017, spreidde og forsterka russiske aktørar (via troll og hackarar) dei såkalla “Macron-lekkasjane” – ein dump med hacka e-postar frå kampanjen til kandidaten Emmanuel Macron – saman med desinformasjon om Macron, i eit forsøk på å hjelpe hans høgreekstreme motkandidat Marine Le Pen. Fransk cybersikkerheitsovervaking fann at mange av sosiale medier-kontoane som pusha #MacronLeaks på Twitter var nyskapt eller kunne sporast til russiske påverknadsnettverk. I Tyskland førebudde styresmaktene seg på liknande innblanding rundt forbundsdagsvalet i 2017. Sjølv om ein større trollkampanje ikkje materialiserte seg der (truleg avskrekka av åtvaringar frå den tyske regjeringa), vart Russlands hand mistenkt i andre hendingar – som ei propagandahistorie frå 2016 som feilaktig hevda at ei russisk-tysk jente “Lisa” vart valdteken av migrantar i Berlin, ei sak som vart sterkt promotert på russiske sosiale medium og utløyste protestar. Europeiske leiarar merka seg dette: mot slutten av 2017 skulda statsminister May offentleg Russland for innblanding over heile Europa, og Spanias statsminister Mariano Rajoy la fram data som viste at under Catalonia-krisa om sjølvstende i 2017, kom ein stor del av falsk nettaktivitet frå Russland eller Venezuela washingtonpost.com. Desse tiltaka tente alle Moskva sitt mål om å svekke EU og NATO ved å styrke nasjonalistiske og separatistiske rørsler.
- Propaganda i Ukraina og nabolanda: Russlands bruk av trollfabrikkar fekk først fotfeste under intervensjonane deira i nærområda. Då Russland annekterte Krim i 2014 og sette i gang krig i Aust-Ukraina, gjekk ein hær av troll til verks på nettet for å rettferdiggjere Moskva sine handlingar og sverte den ukrainske regjeringa. Russiskspråklege sosiale nettverk, så vel som vestlege plattformer, vart oversvømt av repeterande meldingar som gjentok Kremls narrativ: at regjeringa i Kyiv var ei “fascistjunta”, at overgrep (ofte fabrikerte) vart utførte mot russisktalande, og at vestlege sanksjonar ville slå tilbake. Desse trolla prøvde å “oversvømme sona” med Kremls versjon av hendingane, slik at det vart vanskeleg for tilfeldige observatørar å skilje sanning frå løgn. Spol fram til 2022 og fullskala invasjon av Ukraina: Russiske troll vart igjen aktiverte i global skala. Berre dagar etter invasjonen identifiserte analytikarar nettverk av uekte kontoar på Twitter, TikTok og Instagram som spreidde desinformasjon – som påstandar om at opptak av bomba ukrainske byar var falske propublica.org. ProPublica og forskarar ved Clemson University spora dusinvis av russiskspråklege kontoar som i mars 2022 samtidig posta den same misvisande videoen (som feilaktig “avslørte” ei iscenesett sivil offer-scene i Ukraina) – eit kjenneteikn på ein koordinert trolloperasjon propublica.org. Desse kontoane viste tydelege IRA-spor, inkludert arbeidstid tilpassa Moskva-tidssona og pausar i helger og russiske høgtider propublica.org. Etter kvart som krigen utvikla seg, tilpassa trollinnhaldet seg: først i forvirring, deretter ved å gjenta offisiell propaganda som skulda NATO for krigen og nekta for russiske militære nederlag propublica.org. Trolla retta seg òg mot internasjonale publikum for å svekke støtta til Ukraina – dei argumenterte i vestlege kommentarfelt for at sanksjonar mot Russland skada Europa meir, eller forsterka høgreekstreme røyster i Europa som var imot å væpne Ukraina theguardian.com. I ei britiskfinansiert studie noterte analytikarar at trolloperasjonen i St. Petersburg (Cyber Front Z) henta inspirasjon frå konspirasjonsrørsler som QAnon i måten dei spreidde bodskapa sine og prøvde å samle sympatisørar på nettet theguardian.com. Krigen i Ukraina har såleis vore følgd av ein parallell informasjonskrig, der russiske trollfabrikkar har spelt ei sentral rolle i å spreie “pro-krigs-løgner” globalt <a href=»https://www.theguardian.com/world/2022/may/01/troll-factory-spreading-russian-pro-war-lies-online-says-deira påverknad er tydeleg i vedvarande Kreml-vennlege forteljingar i nokre delar av den offentlege meininga, trass i faktabasert rapportering som seier det motsette.
- COVID-19-pandemien og andre globale problem: Russiske troll har opportunistisk kasta seg på globale kriser og kontroversar, frå COVID-19-pandemien til protestar for sosial rettferd, som fruktbar grunn for desinformasjon. Under pandemien spreidde statstilpassa trollkontoar ei mengd konspirasjonsteoriar – dei hevda at koronaviruset var eit amerikansk biovåpen, fremja feilinformasjon om vaksinar, og forverra mistillit til folkehelseinstitusjonar thebulletin.org. Målet var ikkje å presentere eit samanhengande alternativ, men å “forsterke tvil” og dysfunksjon i vestlege samfunn i ei tid med usikkerheit thebulletin.org. På same måte, i 2020 då USA opplevde historiske protestar for raserettferd, dobla russiske trollfabrikkar innsatsen for å forsterke rasemotsetnader – på den eine sida utgav dei seg for å vere høgreekstreme stemmer som fordømde protestane, og på den andre sida poserte dei som venstreorienterte aktivistar for å oppmuntre til meir ekstreme haldningar, og spelte slik på begge sider for å skape kaos. Desse tilfella viser at utover politikk og krig, kan kva som helst splittande sak bli ein slagmark for trollstyrte påverknadsoperasjonar. Frå klimadebattar til vaksinepåbod har russiske troll spreidd falske påstandar for å gjere debatten giftig. Ved å forverre polarisering på alle frontar, fremjar dei Moskva sitt mål om eit svekka, kranglevorent Vesten.
Ekspertinnsikt og avsløringar
Talrike undersøkingar frå journalistar, akademikarar og etterretningsbyrå har trekt frå forhenget på Russlands trollfabrikkar. Ekspertar understrekar at desse operasjonane er ein ny type trussel som demokratia må handtere. “2016 var berre byrjinga,” heiter det i ein PBS-rapport – sidan då har Kreml sine nettoperatørar blitt meir sofistikerte og flinkare til å etterlikne ekte menneske pbs.org.
Forskarar som studerer taktikkane til trollfabrikkar har kome med slående observasjonar. Darren Linvill, ein professor ved Clemson University, har brukt år på å analysere IRA-kontoar. Han peikar på avslørande mønster: «Under russiske høgtider og i helgene gjekk aktiviteten [til visse trollkontoar] ned,» noko som tyder på at dei som posta følgde ein løna arbeidstidsplan i staden for å vere ekte frivillige spyscape.com. Analysen til teamet hans saman med ProPublica stadfesta at innlegg frå mistenkte IRA-kontoar dukka opp på «faste tidspunkt som samsvarar med IRA sin arbeidsdag.» spyscape.com. Med andre ord: ekte grasrotaktivistar tek ikkje helg samstundes – men det gjer tilsette ved trollfabrikkar. Linvill konkluderte: «Desse kontoane viser alle teikn vi har som tyder på at dei stammar frå Internet Research Agency.» spyscape.com. Om dei mot formodning ikkje var IRA, spøkte han: «det er verre, for då veit eg ikkje kven som står bak.» propublica.org. Analysen hans understreka kor systematisk og profesjonalisert den russiske desinformasjonsmaskina hadde blitt.
Innsideforteljingar har òg kasta lys over operasjonane. Journalisten Lyudmila Savchuk sitt modige varslingsarbeid i 2015 gav eit første innblikk i IRA sine «trollfabrikk»-kontor. Ho skildra eit nærast surrealistisk miljø: unge tilsette i båsar som nådelaust posta under falske identitetar, med propagandadirektiv som vart delte ut som redaksjonelle oppgåver kvar morgon. «Først kunne eg ikkje tru det var ekte… det var eit slags kultursjokk,» fortalde ein annan undercover-operatør til Radio Free Europe rferl.org. Dei fortalde om ein samlebandsatmosfære der kreativitet var mindre verdsett enn lydnad til dei daglege narrativ-tema som vart fastsette av overordna.
Vestlege regjeringar har blitt meir høglydte i å påpeike denne aktiviteten. I april 2022 fordømde Storbritannias utanriksminister Liz Truss Russlands nye trollkampanje rundt Ukraina-krigen, og sa: «Vi kan ikkje la Kreml og deira skumle trollfabrikkar invadere våre nettrom med løgnene sine om Putins ulovlege krig.» theguardian.com. Den britiske regjeringa gjekk så langt som å offentleg finansiere forsking på operasjonen i St. Petersburg og dele funna med sosiale medieplattformer for å leggje til rette for nedslag theguardian.com. Den same forskinga avdekte trolla si vilje til å innovere – til dømes ved å forsterke legitime innlegg frå ekte brukarar som tilfeldigvis samsvarte med Kreml sine synspunkt, og slik unngå enkel oppdaging sidan innhaldet ikkje alltid var fabrikkert theguardian.com. Denne katt-og-mus-leiken mellom trollfabrikkar og plattformmoderatorar er noko etterretningstenestene er svært merksame på. I USA har FBI og Department of Homeland Security gjentekne gonger åtvara om at russiske agentar tilpassar seg raskt til plattformforbod, og dukkar opp att med nye kontoar og nye taktikkar.Ein FBI-tenestemann sa i 2020 at russiske operatørar var «uthaldande og kreative», og brukte mellommenn og mellombels aktørar for å skjule si involvering etter at sosiale medieselskap byrja å stenge kontoar i stor skala. Til dømes, etter at Facebook og Twitter fjerna tusenvis av IRA-kontoar etter 2016, dukka trolla opp att via tredjeland (som ein såg med Ghana-operasjonen) eller ved å flytte til alternative plattformer med lausare moderering. Deira motstandskraft førte til at det amerikanske justisdepartementet i 2020 sanksjonerte fleire personar og til og med trollfabrikk-tilknytte nettstader (som SouthFront og NewsFront) for å kutte deira finansiering og hosting.
Tankesmier og akademikarar har òg peika på dei stadig meir avanserte teknologiske verktøya trolla har til disposisjon. Ein rapport frå Institute for the Future i 2018 åtvara om at trolling i stor skala burde behandlast som eit menneskerettsbrot på grunn av skaden det gjer på samfunn, men sukka over mangelen på mekanismar for å straffe gjerningspersonar newslit.org. Spol fram til 2024, og analytikarar observerer at AI-generert innhald er den nye fronten. I ei EU-undersøking om desinformasjon peika ekspertar på at tidlegare russiske taktikkar “bygde på lågteknologiske strategiar som trollfabrikkar og bot-nettverk,” medan kampanjar i 2024 i aukande grad nyttar generativ AI til å lage “hyperretta innhald” som er vanskelegare å oppdage carleton.ca. Russiske påverknadsoperasjonar har byrja å bruke AI til å generere realistiske deepfake-bilete, videoar og tekst i stor skala, noko som gjer det mogleg å spreie endå meir kraftfulle falske narrativ. European External Action Service merka seg i 2023 at mange av dei siste desinformasjonskampanjane frå Kreml, inkludert dei såkalla “Doppelgänger”-operasjonane (som klonar ekte nyheitsnettstader for å spreie falske historier), kan sporast tilbake til aktørar finansiert av russiske statlege byrå og no forsterka med AI-kapasitetar carleton.ca. Dette understrekar at trollfabrikkmodellen ikkje er statisk – han oppgraderer stadig teknikkane sine, frå enkle kopier-og-lim-meme i 2016 til AI-forfalska innhald i 2024 og vidare.
2024–2025: Siste utviklingar og utsikter
Som i 2024 og 2025 er Russlands trollfabrikkoperasjonar framleis eit bevegeleg mål, som reagerer på geopolitiske hendingar og interne maktskifte. Ei dramatisk utvikling var lagnaden til Internet Research Agency sjølv. I juni 2023 gjennomførte Jevgenij Prigozjin – IRA-grunnleggaren – eit kortvarig mytteri mot Russlands militærleiing med sine Wagner-leigesoldatar. Opprøret mislukkast, og Prigozjin døydde deretter i eit mistenkjeleg flykrasj (august 2023), noko som førte til at Kreml stramma inn kontrollen over hans vidstrakte føretak. Det kom rapportar om at IRA sine operasjonar i St. Petersburg offisielt vart lagt ned i kjølvatnet av Prigozjin sitt fall frå nåde businessinsider.com. Prigozjin sitt eige medieselskap, Patriot Media, kunngjorde faktisk at det “trekkjer seg ut av landets informasjonsrom” då styresmaktene byrja å demontere hans påverknadsorgan businessinsider.com. Prigozjin stadfesta til og med i eit intervju kort tid før dette at han hadde oppretta og drive IRA, tydelegvis for å ta æra for dets “patriotiske” oppdrag spyscape.com. Tidleg i juli 2023 rapporterte russiske statlege medium at den berykta trollfabrikken var oppløyst – ei utvikling som òg vart merka av vestlege mediumbusinessinsider.com.Likevel betydde ikkje dette “slutten” på IRA slutten på russiske trolloperasjonar. Analytikarar meiner at Kreml rett og slett absorberte eller omstrukturerte desse kapasitetane til andre hender. Ein rapport frå Google si Threat Analysis Group i mars 2024 observerte at sjølv om direkte IRA-aktivitet på Google-plattformer gjekk ned etter Prigozjin sitt fall, har komponentar av Prigozjin-knytte påverknadskampanjar “halde seg levedyktige” og truleg held fram under anna leiing cloud.google.com. Mandiant-forskarar merka at fleire langvarige russiske informasjonsoperasjonar viste “ujevn grad av endring” etter Prigozjin, med noko forstyrring men mange ressursar framleis aktive, noko som tyder på at Kreml omfordelte kontrollen i staden for å stenge alt ned cloud.google.com. Merkverdig nok heldt Google og Meta fram gjennom 2023 med å fjerne store mengder falske kontoar knytt til russiske desinformasjonsnettverk. Google rapporterte over 400 handhevingstiltak i 2023 mot IRA-knytte påverknadsoperasjonar cloud.google.com. Og seint i 2024, i forkant av kritiske val, slo amerikanske styresmakter framleis alarm: FBI og andre byrå åtvara om at Russland fullt ut hadde til hensikt å blande seg inn i det amerikanske presidentvalet i 2024 ved å bruke manipulasjon av sosiale medium, sjølv om oppskrifta måtte justerast utan IRA sitt opphavlege knutepunktreuters.com.
Faktisk har forsøk på valpåverknad allereie blitt observert inn mot 2024. Eit tydeleg døme kom i oktober 2024, då myndigheiter i den amerikanske delstaten Georgia varsla om ein viral desinformasjonvideo som feilaktig hevda å vise ein “ulovleg innvandrar” som skrøyt av å ha stemt fleire gonger. Kontoret til Georgias utanriksminister uttalte direkte: “Dette er feil… Det er truleg utanlandsk påverknad som prøver å så splid og kaos rett før valet.” reuters.com Dei oppmoda sosiale medium-selskap om å fjerne videoen, og påpeikte “Truleg er det ein produksjon frå russiske trollfabrikkar.” reuters.com. Denne hendinga – som kom rett før eit omstridd amerikansk val – viser at russiske troll framleis er med i spelet i 2024, og brukar villedande virale videoar på plattformer som X (Twitter) for å undergrave tilliten til valprosessen reuters.com. Føderale byrå som CISA etterforska hendinga, og det vart ei påminning om at sjølv utan IRA si opphavlege leiing, kan apparatet for russisk påverknad på nett raskt setje i gang nye ad hoc-kampanjar ved behov.
Ser vi fram mot 2025, vurderer ekspertar at Russlands trollfabrikkar vil halde fram med å tilpasse seg i staden for å forsvinne. Med Moskva fastlåst i ein langvarig krig i Ukraina og under indre press, har Kreml sterke insentiv til å halde fram med å bruke “billig, men effektivt” våpen for manipulasjon på nett. Vi kan vente at russiske aktørar i aukande grad vil ta i bruk framveksande teknologiar – særleg KI. Europeiske analytikarar merka seg at mot slutten av 2024 hadde det enorme omfanget og tempoet på russisk desinformasjon auka takka vere generative KI-verktøy, noko som gjer det lettare å produsere falskt innhald i stor skala carleton.ca. Dette betyr at framtidige trollfabrikk-taktikkar kan involvere KI-genererte “personar” (for heilt realistiske profilbilete og til og med deepfake-videokommentarar), samt algoritmisk tilpassa propaganda retta mot bestemte samfunn med presisjon. Kappløpet mellom plattformer og troll vil truleg tilspisse seg: etter kvart som selskapa blir betre til å utestenge kjende troll-signaturar, vil trolla bruke KI for å lage stadig meir overtydande personar og innhald.
På den geopolitiske scenen vil Russlands trollfabrikkar (under kva for ei ny forkledning som helst) truleg retta seg mot alle større hendingar som er relevante for Kreml sine interesser. Komande val i vestlege land, debattar om støtte til Ukraina, og til og med saker som energikriser eller internasjonale konfliktar kan alle bli arenaer for fornya desinformasjonskampanjar. Tryggingsbyråa i Den europeiske unionen har styrkt overvakinga av “utanlandsk informasjonsmanipulasjon og innblanding” (FIMI), og gir jamleg ut trusselrapportar som nesten alltid peikar på russiske operasjonar. NATO- og EU-tenestemenn åtvarar om at Russland vil prøve å splitte vestleg eining om Ukraina ved å fyre opp under ekstreme og isolasjonistiske narrativ via sosiale medium (til dømes ved å fremje røyster som motset seg støtte til Ukraina eller som støttar Russland-vennlege politikkar). Faktisk såg valet til Europaparlamentet i 2024 ein auke i bodskap – inkludert klona falske nyheitssider i ein “Doppelgänger”-kampanje – som pressa anti-Ukraina- og anti-EU-tema, noko analytikarar knytte til russiske desinformasjonsmiljø carleton.ca. Kor stor påverknad slike forsøk har er vanskeleg å måle, men dei fall saman med framgang for høgreekstreme, Russland-vennlege politiske blokker, noko som tyder på ein viss effektcarleton.ca.
På den russiske innanriksscena vil Kreml truleg halde eit stramt grep om narrativet med alle nødvendige middel – inkludert trollfabrikkar eller deira etterfølgjarar. Etter Prigozjin sitt mytteri lærte Putin risikoen ved å la ein privat aktør kontrollere for mykje av propagandamaskineriet. Det ville ikkje vere overraskande om russiske tryggingstenester (som FSB eller militær etterretning) har teke over delar av trollverksemda for å sikre lojalitet og direkte kontroll. Tonen i russisk innanlandsk trolling sidan slutten av 2023 har endra seg for å viske ut minnet om Prigozjin (gitt sviket hans) og forsterke Putins posisjon midt i krigens utfordringar tandfonline.com. Alle russarar som ytrar krigstrøyttleik eller kritiserer styresmaktene på nett kan vente å bli overvelda av “patriotiske” kommentatorar – ofte troll – som angrip dei som forrædarar, og slik skremmer dei frå å ytre seg. Dette viser at trollfabrikk-taktikken framleis er ein bærebjelke i intern propaganda, berre meir statssentralisert.
Til slutt har Russlands trollfabrikkar utvikla seg frå eit marginalt eksperiment til eit fullskala verktøy for statsmakt i informasjonsalderen. Dei opererer som propagandafabrikkar for det 21. hundreåret, og pumpar ut løgner, frykt og splid med eit tastetrykk. Dei siste ti åra har dei blanda seg inn i val, fyrt opp under konfliktar, og forureina utallege nettdebattar. Og trass i auka avsløring og sanksjonar, viser dei ingen teikn til å stoppe – berre til å endre form. Så lenge opne samfunn er avhengige av nettplattformer for nyheiter og debatt, vil Kreml sine troll prøve å utnytte denne openheita. Å kjempe mot denne trusselen vil krevje kontinuerleg årvakenheit, offentleg medvit og internasjonalt samarbeid. Verda har vakna for Russlands trollfabrikk-taktikk; utfordringa no er å hindre desse “digitale troppane” frå å kapre den globale samtalen med manipulasjon og vondskap.