Demaskowanie imperium rosyjskich farm trolli: Wewnątrz globalnej machiny dezinformacyjnej Kremla

7 września, 2025
Unmasking Russia’s Troll Farm Empire: Inside the Kremlin’s Global Disinformation Machine
Kremlin’s Global Disinformation Machine
  • Internet Research Agency (IRA), sztandarowa rosyjska farma trolli, ma siedzibę w Petersburgu i została założona około 2013 roku, rozrastając się do około 400 pracowników do 2015 roku, pracujących na 12-godzinnych zmianach.
  • Pracownicy IRA działali według ścisłych norm: 5 postów politycznych, 10 niepolitycznych i 150–200 komentarzy na zmianę.
  • Trolle zarabiały około 40 000 rubli miesięcznie (około 700–800 dolarów) i były opłacane gotówką.
  • Ukrywali swoje pochodzenie za pomocą VPN-ów, serwerów proxy, skradzionych lub wygenerowanych przez AI zdjęć profilowych oraz fałszywych tożsamości, by wyglądać autentycznie.
  • Operacja była częścią Projektu Lakhta, powiązanego z Kremlem parasola, który obejmował Patriot Media Group będącą właścicielem Federal News Agency (RIA FAN) i innych mediów służących do prania propagandy, później wymienionych w amerykańskich sankcjach.
  • W wyborach prezydenckich w USA w 2016 roku IRA prowadziła wieloplatformową kampanię na Facebooku, Twitterze, Instagramie, YouTube i Reddicie, docierając do ponad 126 milionów Amerykanów i prowadząc do postawienia zarzutów 13 operatorom IRA w 2018 roku oraz nałożenia sankcji na grupę.
  • W latach 2016–2017 operatorzy IRA podszywający się pod amerykańskich aktywistów organizowali prawdziwe demonstracje w USA, w tym protest w Nowym Jorku popierający Donalda Trumpa i inny przeciwko niemu tego samego dnia.
  • W latach 2018–2020 IRA zlecała trolling w języku angielskim do Afryki, prowadząc sieć w Ghanie i Nigerii podszywającą się pod czarnoskórych amerykańskich aktywistów, którą Facebook i Twitter później zablokowały w 2020 roku.
  • W 2022 roku pojawiła się publiczna grupa Cyber Front Z w Petersburgu, koordynująca działania przez Telegram, działająca ze starej fabryki broni i płacąca influencerom z TikToka za wzmacnianie przekazów Kremla, jednocześnie angażując się w brigading i manipulację sondażami.
  • Do 2024 roku kampanie AI i Doppelgänger stały się kluczowe, a Google zgłosiło ponad 400 działań egzekucyjnych w 2023 roku przeciwko sieciom wpływu powiązanym z IRA, a analitycy zauważyli kontynuację działań po buncie i śmierci Prigożyna w 2023 roku.

Czym są farmy trolli? Silnik dezinformacji

Farmy trolli to zorganizowane grupy opłacanych operatorów internetowych, którzy używają fałszywych tożsamości, by zalewać internet propagandą i treściami dzielącymi społeczeństwo. Działając w warunkach przypominających biuro, te zespoły tworzą fałszywe profile podszywające się pod prawdziwe osoby, publikując w mediach społecznościowych, komentarzach pod wiadomościami i na forach. Ich celem jest manipulowanie opinią publiczną – niektórzy trolle promują przekazy udające oddolne poparcie dla określonych idei, inni szerzą plotki mające na celu zasiewanie zamętu i nieufności wobec instytucji newslit.org. Często pracując na skoordynowanych zmianach, pracownicy farm trolli publikują prowokacyjne komentarze, wprowadzające w błąd „wiadomości” i teorie spiskowe na masową skalę, wzmacniając skrajne poglądy daleko poza ich naturalny zasięg. Wielu używa kont typu sockpuppet (wielu tożsamości online), czasem wspieranych przez boty społeczne (zautomatyzowane konta), by sprawiać wrażenie, że liczni zwykli ludzie podzielają te skrajne opinie en.wikipedia.org. W rzeczywistości za setkami kont może stać garstka operatorów – tajna linia montażowa propagandy produkująca dezinformację na żądanie.

Chociaż koncepcja ta brzmi jak fabuła science fiction, farmy trolli są jak najbardziej realne i zostały wykorzystane jako broń przez państwa. Rosja w szczególności zyskała złą sławę, przyjmując farmy trolli jako kluczowe narzędzie swojego arsenału wojny informacyjnej. Zalewając przestrzenie internetowe prokremlowskimi narracjami i wrogimi komentarzami, rosyjskie farmy trolli dążą do zniekształcenia postrzegania i osłabienia debaty publicznej w krajach docelowych. Ich działania obejmują od manipulowania wyborami i podżegania politycznego za granicą po wzmacnianie propagandy w kraju. Większość świata po raz pierwszy dowiedziała się o rosyjskich farmach trolli, gdy pojawiły się doniesienia o ich ingerencji w wybory prezydenckie w USA w 2016 roku newslit.org. Jednak ta taktyka istniała już przed 2016 rokiem i nie jest wyłączną domeną Rosji – inne rządy i grupy skopiowały podobne metody. Mimo to to właśnie rosyjskie operacje wyznaczyły wzorzec nowoczesnej farmy trolli: sponsorowane przez państwo, centralnie zorganizowane i o globalnym zasięgu. Firmy mediów społecznościowych mają trudności z ograniczeniem działalności tych fałszywych kont, czasami usuwając duże sieci (na przykład Facebook i Twitter usunęły w 2020 roku sieć rosyjskich trolli z siedzibą w Ghanie, która zgromadziła ponad 300 000 obserwujących, podsycając napięcia rasowe w USA newslit.org). Jednak prawdopodobnie jest to tylko „wierzchołek góry lodowej” newslit.org. Farmy trolli wciąż się rozwijają, znajdując nowe sposoby na unikanie wykrycia i wykorzystywanie platform internetowych.

Wewnątrz rosyjskich fabryk trolli: organizacja i kluczowi gracze

Najbardziej znaną rosyjską fabryką trolli jest Internet Research Agency (IRA), firma z siedzibą w Petersburgu, którą niegdyś kierował i finansował oligarcha Jewgienij Prigożyn – bliski sojusznik Putina, często nazywany „kucharzem Putina”. IRA (znana w rosyjskim slangu jako „trolle z Olgino”) została założona około 2013 roku i rozwinęła się w profesjonalną operację z setkami pracowników spyscape.com. Do 2015 roku IRA miała podobno około 400 pracowników pracujących na 12-godzinnych zmianach, w tym elitarną grupę około 80 trolli biegle posługujących się angielskim, przeznaczonych wyłącznie do atakowania amerykańskiego systemu politycznego spyscape.com. Przypominała agencję marketingu internetowego – ale poświęconą celom Kremla. Zespół zarządzający nadzorował wiele działów (projektowanie graficzne, IT, optymalizacja wyszukiwarek, finanse itd.) i obsesyjnie śledził wskaźniki spyscape.com. Według śledztwa amerykańskiego Senatu, menedżerowie monitorowali nawet pracowników przez monitoring CCTV i byli „zafiksowani” na liczbie odsłon, polubień i limitach komentarzy jako miarach wpływu spyscape.com.

Życie jako rosyjski troll zostało opisane przez osoby z wewnątrz jako stresująca praca biurowa. Ludmiła Sawczuk, dziennikarka, która pracowała pod przykrywką w IRA, ujawniła, że każdy troll miał ścisłe dzienne normy – na przykład 5 postów politycznych, 10 postów niepolitycznych (by wyglądać autentycznie) oraz 150-200 komentarzy do innych treści na zmianę spyscape.com. Trolle pracowały długie godziny za skromną pensję (około 40 000 rubli, czyli mniej więcej 700-800 dolarów miesięcznie) i były opłacane gotówką spyscape.com. Działały w tajnych „zespołach” skupiających się na różnych grupach docelowych i tematach. Na przykład osobne grupy były przydzielane do polityki USA, spraw europejskich, Ukrainy itd., każda tworzyła przekazy dostosowane do tych odbiorców. Byli pracownicy IRA wspominali, że kazano im oglądać popularne amerykańskie seriale takie jak House of Cards, by poznać amerykańskie odniesienia kulturowe spyscape.com. Otrzymywali szkolenia z języka angielskiego i przewodniki po amerykańskim slangu, by lepiej udawać prawdziwych komentatorów z USA spyscape.com. Aby ukryć swoje rosyjskie pochodzenie, używali VPN-ów i serwerów proxy do maskowania lokalizacji oraz starannie tworzyli fałszywe tożsamości (z kradzionymi lub wygenerowanymi przez AI zdjęciami profilowymi, szczegółami o „mieście rodzinnym” i realistycznymi imionami) spyscape.com. Przez tygodnie i miesiące te fałszywe konta stopniowo budowały tożsamość i grono obserwujących – dołączając do grup na Facebooku, tweetując o codziennym życiu lub sporcie – zanim przeszły do propagandy politycznej, gdy stały się już wystarczająco wiarygodne. „Z czasem te konta zyskują obserwujących i stają się bardziej wpływowe,” zauważa jeden z raportów spyscape.com.

IRA Prigożyna nie działała w izolacji, lecz jako część większego ekosystemu wpływów powiązanego z Kremlem. Rosyjscy dziennikarze i amerykańskie akty oskarżenia ujawniły szeroko zakrojoną operację o nazwie „Projekt Lakhta”, w ramach której IRA i powiązane podmioty pracowały nad „zakłócaniem procesu demokratycznego w USA, szerzeniem nieufności, podżeganiem do niepokojów społecznych i polaryzowaniem Amerykanów” – zwłaszcza poprzez zaostrzanie podziałów rasowych i społecznych spyscape.com. Aby umożliwić wyparcie się udziału, projekt ten wykorzystywał sieć fikcyjnych firm i medialnych przykrywek. Na przykład holding Prigożyna „Patriot Media Group” był właścicielem Federalnej Agencji Informacyjnej (RIA FAN) i innych pseudoportali informacyjnych, które szerzyły propagandę, a jednocześnie służyły jako przykrywka dla tajnych operacji trolli cloud.google.com. Podmioty Projektu Lakhta obejmowały samą IRA oraz nominalne „portale informacyjne” takie jak Nevskiy News, Economy Today i International News Agency, które później zostały wymienione w amerykańskich sankcjach za prowadzenie działalności dezinformacyjnej spyscape.com. Ta niejasna mieszanka jawnych kanałów propagandowych i ukrytych zespołów trolli pozwalała rosyjskim operacjom wpływu „prać” dezinformację – na przykład troll rozpowszechniał fałszywą historię za pomocą fałszywej tożsamości, którą następnie podchwytywały portale Patriot Media jako „wiadomość”, a na końcu wzmacniały ją inne trolle i boty.

Co istotne, rosyjskie operacje trollingowe wykraczały poza klawiatury i ekrany. IRA i jej współpracownicy czasami zatrudniali nieświadomych lokalnych mieszkańców w krajach docelowych, aby organizowali wydarzenia w świecie rzeczywistym, odpowiadające ich internetowej agitacji. Amerykańscy śledczy ustalili, że w latach 2016–2017 agenci IRA podszywający się pod amerykańskich aktywistów zdołali zorganizować prawdziwe wiece polityczne w Stanach Zjednoczonych – nawet aranżując jednego dnia protest w Nowym Jorku popierający Donalda Trumpa i drugi przeciwko niemu, aby zmaksymalizować podziały spyscape.com. Rosyjscy trolle podszywali się pod oddolnych organizatorów, rekrutując prawdziwych Amerykanów przez grupy na Facebooku i płacąc im za noszenie transparentów lub budowanie rekwizytów, podczas gdy ci obywatele nie mieli pojęcia, że odpowiadają na rosyjskie polecenia spyscape.com. Ta taktyka – wykorzystywanie trolli do tworzenia fałszywych ruchów oddolnych typu „AstroTurf” – pokazuje, jak daleko mogą się posunąć te operacje wpływu. Łącząc dezinformację online z działaniami offline, dążyli do przekształcenia internetowej złości w realny chaos.

Internet Research Agency stała się znana na całym świecie po ujawnieniu jej ingerencji w politykę USA. W 2018 roku Departament Sprawiedliwości USA postawił operatywom IRA zarzuty karne za ingerencję w wybory w 2016 roku, opisując, jak tworzyli tysiące kont w mediach społecznościowych (podszywając się pod Amerykanów różnych środowisk), docierali do milionów ludzi za pomocą memów i fałszywych historii, a nawet finansowali reklamy polityczne i wiece businessinsider.com. (Wykorzystanie przez IRA skradzionych tożsamości amerykańskich oraz oszustw finansowych do finansowania operacji doprowadziło do dodatkowych zarzutów businessinsider.com.) Choć Rosja zaprzeczała oskarżeniom, Prigożyn ostatecznie przyznał się do swojej roli: „Nigdy nie byłem tylko finansistą IRA. To ja ją wymyśliłem, stworzyłem i przez długi czas zarządzałem,” przechwalał się Prigożyn na początku 2023 roku, twierdząc, że została założona, by „chronić rosyjską przestrzeń informacyjną przed… agresywną antyrosyjską propagandą Zachodu.” spyscape.com. To szczere wyznanie ze strony mózgu operacji podkreśla podwójną misję IRA – atakowanie przeciwników Rosji w internecie przy jednoczesnej ochronie Kremla w kraju.

Poza IRA, inne operacje trolli pojawiły się lub rozwinęły w Rosji. W 2022 roku, po rozpoczęciu przez Rosję pełnoskalowej inwazji na Ukrainę, nowa grupa z Petersburga, nazywająca siebie „Cyber Front Z”, zaczęła otwarcie rekrutować „patriotycznych” współpracowników do zalewania internetu prorosyjskimi komentarzami theguardian.com. Mieszcząca się w wynajmowanej przestrzeni w starej fabryce broni, ta „fabryka trolli” (jak określił to wywiad brytyjski) była powiązana z siecią Prigożyna i koordynowana przez kanał Telegram o nazwie „Cyber Front Z” theguardian.com. Operatorzy Cyber Front Z atakowali profile zachodnich przywódców w mediach społecznościowych oraz sekcje komentarzy na stronach informacyjnych, przejmując dyskusje, by wychwalać Putina i demonizować Ukrainę theguardian.com. Według badań cytowanych przez rząd brytyjski, płacili nawet niektórym influencerom TikTok, by wzmacniali przekaz Kremla theguardian.com. Sugeruje to, że rosyjskie operacje trolli dostosowały się do nowych platform i młodszych odbiorców – rozszerzając działalność z Facebooka i Twittera na Instagram, YouTube i TikTok, gdzie badacze odnotowali wysoką aktywność w 2022 roku theguardian.com. Członkowie Cyber Front Z angażowali się w skoordynowane „brigading”, masowo komentując, by kierować rozmowy w internecie na linię Kremla, a nawet manipulując internetowymi sondażami (na przykład przekłamując wyniki ankiet w zachodnich mediach dotyczących poparcia dla sankcji wobec Rosji) theguardian.com. W przeciwieństwie do tajnej IRA, Cyber Front Z otwarcie manifestował swój patriotyzm, uzasadniając trolling w internecie jako obywatelski obowiązek w czasie wojny theguardian.com.

Narzędzia i taktyki: Jak rosyjscy trolle szerzą propagandę

Rosyjskie farmy trolli stosują szeroki arsenał technik, by wprowadzać i wzmacniać dezinformację w internecie. Do kluczowych narzędzi i taktyk należą:

  • Fałszywe persony i konta marionetkowe: Trolle tworzą setki fikcyjnych tożsamości online, często z kradzionymi lub wygenerowanymi przez AI zdjęciami profilowymi, i udają zwykłych obywateli en.wikipedia.org. Często nawet naśladują lokalną demografię (na przykład podszywając się pod Amerykanów o różnych poglądach politycznych lub Europejczyków z konkretnych krajów), aby się wtopić. Te konta marionetkowe pojawiają się na każdej większej platformie – Facebooku, Twitterze (obecnie X), Instagramie, YouTube, TikToku, Reddicie oraz rosyjskich sieciach jak VKontakte spyscape.com. Aby uniknąć oczywistych oznak fałszerstwa, trolle publikują pod tymi personami regularne, niepolityczne treści (sportowe żarty, zdjęcia jedzenia itp.) i starannie kopiują prawdziwe zachowania w mediach społecznościowych. Z czasem budują wiarygodność, a następnie wprowadzają propagandę lub wprowadzające w błąd treści do społeczności od środka.
  • Wzmacnianie w mediach społecznościowych i „brigading”: Farmy trolli dążą do tego, by kilka głosów brzmiało jak tłum. Koordynują fale postów i komentarzy, aby określona narracja zdominowała rozmowy lub sztucznie stała się trendem. Na przykład zespół trolli może jednocześnie odpowiadać na tweeta polityka tymi samymi argumentami, sprawiając fałszywe wrażenie, że opinia publiczna jest przytłaczająco jednostronna. W sekcjach komentarzy pod artykułami informacyjnymi wzajemnie się „plusują” i zasypują odpowiedziami, aby zagłuszyć prawdziwą debatę theguardian.com. Na platformach takich jak Facebook trolle prowadziły duże tematyczne strony (np. „Secured Borders” lub fałszywe grupy aktywistyczne), które przyciągały prawdziwych obserwujących, a następnie subtelnie wprowadzały polaryzującą propagandę do tych kanałów. Wiadomo też, że potrafią przejąć hashtagi lub uruchomić skoordynowane kampanie hashtagowe na Twitterze, by wypchnąć je na listy trendów. Poprzez koordynację postów na dziesiątkach kont farmy trolli mogą brigadować ankiety online, fora i kanały społecznościowe, by sprawiać wrażenie, że skrajne idee są popularne theguardian.com.
  • Boty i zautomatyzowane sieci: Oprócz person prowadzonych przez ludzi, rosyjskie operacje wykorzystują sieci botów – zautomatyzowane lub półautomatyczne konta – aby wzmocnić swój przekaz. Boty te mogą retweetować lub udostępniać treści tysiące razy w ciągu kilku minut, zniekształcać algorytmy trendów i nękać wybranych użytkowników. Podczas różnych wyborów i wydarzeń śledczy odkrywali roje tweetów/postów pochodzących z podejrzanych kont botów powiązanych z Rosją washingtonpost.com. Na przykład Hiszpania zgłosiła „lawinę botów” szerzących fałszywe wiadomości podczas referendum niepodległościowego w Katalonii w 2017 roku, przy czym ponad połowa kont botów została prześledzona do rosyjskich źródeł washingtonpost.com. Boty często wzmacniają przekaz trolli, masowo lajkując i udostępniając ich treści. Połączenie botów i ludzkich trolli sprawia, że kampania wydaje się większa i bardziej organiczna, niż jest w rzeczywistości – to mnożnik siły dla dezinformacji.
  • Treści dezinformacyjne i manipulacja mediami: Farmy trolli specjalizują się w produkowaniu łatwo udostępnianej dezinformacji – od fałszywych artykułów informacyjnych i przerobionych obrazów po wprowadzające w błąd memy i filmy. Często prowadzą pseudoportale informacyjne, które produkują propagandowe materiały, a trolle następnie rozpowszechniają je w grupach i w komentarzach. Rosyjscy operatorzy fałszowali zrzuty ekranu tweetów, podrabiali dokumenty rządowe i szerzyli memy spiskowe, aby wspierać swoje narracje. W ostatnich latach zaczęli także wykorzystywać deepfake’i i inne media generowane przez AI. Słynny przykład miał miejsce w marcu 2022 roku, gdy rozpowszechniono deepfake’owe nagranie prezydenta Ukrainy Wołodymyra Zełenskiego, na którym rzekomo wzywał ukraińskich żołnierzy do poddania się reuters.com. Nagranie było słabo wykonane i szybko zostało obalone, ale eksperci ostrzegali, że „może to być zapowiedź bardziej wyrafinowanych oszustw w przyszłości” reuters.com. Sieci trolli mogą podchwycić takie fałszywe treści – lub tworzyć własne – i agresywnie promować je wśród nieświadomych odbiorców. Siejąc wirusowe mistyfikacje (od fałszywych twierdzeń o oszustwach wyborczych po rzekome lekarstwa na COVID-19), mają na celu wprowadzenie opinii publicznej w błąd i wzniecanie emocji.
  • Współpraca z influencerami i lokalnymi głosami: Inną taktyką jest przepuszczanie propagandy przez wiarygodne głosy. Kampanie wpływu prowadzone przez Rosję były przyłapywane na rekrutowaniu lub wprowadzaniu w błąd nieświadomych osób trzecich – na przykład kontaktowaniu się z niezależnymi dziennikarzami za granicą w celu pisania artykułów powielających przekaz Kremla lub płaceniu influencerom w mediach społecznościowych za promowanie określonych narracji theguardian.com. W 2020 roku operacja nazwana „Peace Data” polegała na tym, że rosyjscy trolle stworzyli fałszywy lewicowy portal informacyjny online i zatrudniali prawdziwych niezależnych autorów (wielu z Zachodu) do pisania artykułów, nie znając prawdziwego powiązania platformy. Podobnie, brytyjscy badacze w 2022 roku odkryli, że niektórzy influencerzy na TikToku i Instagramie otrzymywali wynagrodzenie za szerzenie prorosyjskich przekazów na temat Ukrainy theguardian.com. Podszywając się pod wiarygodność lokalnych głosów, trolle mogą rozpowszechniać propagandę w bardziej przystępnej formie, ukrytą w treściach, które wydają się niezależne. Dodaje to warstwę wyparcia się i utrudnia wykrycie, ponieważ przekaz pochodzi od pozornie autentycznych osób, a nie oczywistych kont trolli.

W połączeniu te taktyki pozwalają rosyjskim farmom trolli prowadzić „wojnę informacyjną” na wielu frontach – wprowadzając fałszywe lub stronnicze treści, sztucznie je wzmacniając i zniekształcając środowisko informacyjne w internecie. Ostatecznym celem nie jest po prostu przekonanie jednej czy drugiej osoby do konkretnego kłamstwa; chodzi o to, by osłabić zaufanie w ogóle – zaufanie do mediów, procesów wyborczych, norm społecznych – poprzez zalewanie debaty publicznej taką ilością dezinformacji i jadu, że obiektywna prawda i zdrowa dyskusja stają się trudne do odnalezienia. Jak ujął to jeden z ekspertów, te operacje trolli to „narzędzie Putina do kontrolowania narracji” i zagłuszania głosów sprzeciwu propublica.org. Niezależnie od tego, czy chodzi o zalewanie rosyjskojęzycznych forów prorządowym konsensusem, czy o zalewanie zachodnich mediów społecznościowych teoriami spiskowymi, farmy trolli dążą do zagłuszenia prawdy szumem.

Cele: Dlaczego Kreml prowadzi farmy trolli

Kampanie rosyjskich farm trolli służą celom strategicznym wyznaczonym przez Kreml, które ogólnie można podzielić na kategorie wpływu politycznego, destabilizacji przeciwników i wojny propagandowej. Kluczowe cele to:

  • Podważanie wyborów i procesów politycznych: Główną misją rosyjskich trolli była ingerencja w demokratyczne wybory za granicą. Ich obecnie już niesławna rola w wyborach prezydenckich w USA w 2016 roku miała na celu polaryzację amerykańskich wyborców, zniechęcanie części z nich do głosowania oraz wspieranie preferowanych rezultatów. Wewnętrzne dokumenty IRA opisywały działania mające na celu „ingerencję w wybory i procesy polityczne” w USA propublica.org. Podobnie w europejskich głosowaniach aktywność rosyjskich trolli miała na celu promowanie kandydatów prorosyjskich lub skrajnie prawicowych oraz sianie wątpliwości wobec proeuropejskich centrystów. Brytyjska premier Theresa May ostrzegała pod koniec 2017 roku, że Rosja próbuje „podważać wolne społeczeństwa i siać niezgodę na Zachodzie, wykorzystując do tego swoich trolli i fałszywe media washingtonpost.com. Władze hiszpańskie oskarżyły sieci powiązane z Rosją o ingerencję w referendum w Katalonii i zauważyły podobieństwa w dezinformacji podczas Brexitu i wyborów we Francji, wszystko to w celu rozbicia jedności europejskiej washingtonpost.com. W istocie, poprzez manipulowanie opinią publiczną podczas zagranicznych wyborów lub referendów, Kreml liczy na zainstalowanie bardziej przychylnych sobie przywódców, osłabienie międzynarodowych przeciwników lub po prostu wywołanie chaosu (ponieważ chaos w rywalizujących demokracjach sam w sobie jest zwycięstwem dla Putina). Amerykańscy urzędnicy twierdzą, że celem Rosji jest często „podsycanie podziałów” wokół wyborów – wykorzystywanie drażliwych tematów, takich jak rasa, imigracja czy przestępczość – tak, by społeczeństwa zwracały się przeciwko sobie reuters.com. Nawet jeśli konkretni kandydaci nie wygrywają, trolle odnoszą sukces, jeśli przekonają wystarczająco wielu obywateli do podważania uczciwości wyborów lub do niechęci wobec innych wyborców.
  • Sianie podziałów i nieufności: Poza pojedynczymi wyborami, rosyjskie farmy trolli działają, by podsycać istniejące podziały w krajach docelowych w dłuższej perspektywie. Poprzez nieustanne promowanie polaryzujących treści dotyczących społecznych punktów zapalnych (lewica kontra prawica, miasto kontra wieś, napięcia etniczne i religijne itp.), próbują rozrywać linie podziału w społeczeństwie. Dochodzenie Senatu USA wykazało, że jeden z projektów IRA koncentrował się głównie na „promowaniu społecznie dzielących tematów, ze szczególnym naciskiem na podziały rasowe i nierówności” w Ameryce spyscape.com. Celem jest osłabienie przeciwników Rosji od środka: naród pogrążony w konfliktach wewnętrznych jest mniej zdolny do prezentowania zjednoczonego frontu na arenie międzynarodowej. Tę strategię obserwowano w całym świecie zachodnim – od promowania nastrojów separatystycznych w Katalonii w Hiszpanii washingtonpost.com, przez podsycanie nastrojów antyimigranckich i antyunijnych w Europie, po wzmacnianie podziałów rasowych i kontrowersji wokół szczepionek w USA. Poprzez szerzenie teorii spiskowych i skrajnej retoryki, trolle dążą do tego, by ludzie tracili zaufanie do głównych źródeł informacji, a nawet zwracali się przeciwko własnym rządom. Jak ostrzegł sekretarz stanu Georgii (stan USA) w 2024 roku, fałszywe historie o oszustwach wyborczych, które nagle pojawiają się w mediach społecznościowych, to najprawdopodobniej „zagraniczna ingerencja mająca siać niezgodę i chaos” – często prowadząca do rosyjskich farm trolli reuters.com.
  • Wspieranie rosyjskiej polityki zagranicznej i celów militarnych: Farmy trolli służą również jako cyfrowi żołnierze Kremla realizujący jego geopolityczną agendę. Gdy Rosja jest zaangażowana w konflikty lub kryzysy, trolle pracują na pełnych obrotach, by kształtować narrację w internecie. Na przykład od czasu początkowej agresji Rosji na Ukrainę w 2014 roku, a zwłaszcza po pełnoskalowej inwazji w 2022 roku, rosyjskie trolle energicznie rozpowszechniały propagandę prowojenną. Wzmacniają twierdzenia uzasadniające działania Rosji (takie jak fałszywe oskarżenia o agresję NATO lub „nazistów” na Ukrainie), jednocześnie bagatelizując lub zaprzeczając zbrodniom popełnianym przez rosyjskie siły propublica.org. Badania w Wielkiej Brytanii z 2022 roku ujawniły skoordynowaną operację trolli mającą na celu zwiększenie poparcia dla inwazji Putina na Ukrainę, skierowaną nie tylko do rosyjskich odbiorców, ale także do zachodnich mediów społecznościowych z przekazami przeciwko sankcjom i przywództwu Ukrainy theguardian.com. Trolle atakowały nawet konkretne, znane osoby – na przykład zalewając komentarze premiera Wielkiej Brytanii i innych urzędników prokremlowskimi hasłami theguardian.com – licząc na zmianę nastrojów społecznych. W istocie, za każdym razem, gdy Rosja chce zademonstrować siłę lub ukryć swoje agresje, wypuszcza trolle, by zaatakowały krajobraz informacyjny: by wprowadzać ludzi w błąd co do faktów, promować alternatywne teorie spiskowe i pozyskiwać międzynarodowych sceptyków na stronę Rosji. Jak zauważył badacz z Uniwersytetu Clemson, Darren Linvill, Putin nie musi koniecznie „wygrać” wojny informacyjnej wprost; wystarczy, że wystarczająco zamąci sytuację, by utrzymać swoją pozycję, a konta trolli są do tego narzędziem propublica.org. Na krajowym podwórku ten cel obejmuje wzmacnianie wersji wydarzeń Kremla, by rosyjscy obywatele pozostali popierający lub przynajmniej sceptyczni wobec Zachodu.
  • Wspieranie reżimu na arenie krajowej: Podczas gdy wiele uwagi skupia się na rosyjskich trollach za granicą, znaczna część ich wysiłków jest w rzeczywistości skierowana do krajowej rosyjskiej publiczności. IRA została pierwotnie utworzona, aby zarządzać wizerunkiem Putina i jego agendą w Runecie (rosyjskim internecie) propublica.org. Zalewając rosyjskie media społecznościowe i fora komentarzy patriotycznymi przekazami oraz atakami na krytyków Kremla, farmy trolli pomagają zagłuszać głosy opozycji i tworzyć fałszywe wrażenie powszechnego poparcia społecznego dla Putina. Na przykład podczas wybuchów COVID-19 w Rosji i problemów gospodarczych, krajowi trolle agresywnie promowali narrację, że wszelkie niepowodzenia są wynikiem zachodnich sankcji lub sabotażu, a nie nieudolności rządu. Po inwazji na Ukrainę rosyjskojęzyczne konta trolli starały się przekonać współobywateli, że wojna jest uzasadniona i przebiega pomyślnie, powtarzając przekazy z państwowej telewizji i oczerniając tych, którzy wyrażali wątpliwości propublica.org. „To sposób, w jaki [Putin] okłamuje własny naród i kontroluje dyskusję,” wyjaśnia Linvill propublica.org. Poprzez manipulowanie opinią publiczną w kraju, farmy trolli pomagają utrzymać stabilność społeczną i lojalność, wzmacniając reżim Putina. W tym sensie są one wewnętrznym ramieniem propagandowym, wykorzystywanym do przeciwdziałania wszelkim faktom, które mogłyby podważyć narrację Kremla (takim jak wiadomości o niepowodzeniach rosyjskiej armii czy skandalach korupcyjnych). Celem Kremla jest tu klasyczna propaganda: „utrzymać pozycję” w wojnie informacyjnej na arenie krajowej, zapewniając, że Rosjanie albo wierzą w jego politykę, albo przynajmniej wątpią w jakikolwiek alternatywny punkt widzeniapropublica.org.

Podsumowując, rosyjskie farmy trolli działają z jasno określonymi celami: osłabiać przeciwników Kremla, zarówno na zewnątrz, jak i wewnątrz kraju, poprzez manipulację informacją. Niezależnie od tego, czy chodzi o wypaczanie debat wyborczych, dzielenie społeczeństw, poprawianie wizerunku Rosji, czy tłumienie sprzeciwu, wspólnym motywem jest informacja jako broń. Albo jak ujęła to Theresa May w publicznym ostrzeżeniu dla Moskwy: „Wiemy, co robicie. I nie odniesiecie sukcesu.” washingtonpost.com

Znaczące operacje: od wyborów w USA po wojnę na Ukrainie

W ciągu ostatniej dekady rosyjskie farmy trolli były powiązane z głównymi operacjami wpływu na całym świecie, często w tandemie z innymi działaniami cybernetycznymi i wywiadowczymi. Do najważniejszych przypadków należą:

  • Wpływanie na wybory w USA w 2016 roku: Kampania IRA mająca na celu ingerencję w amerykańskie wybory prezydenckie w 2016 roku jest sztandarowym przykładem ingerencji farmy trolli. Już od 2014 roku trolle z Petersburga stworzyły rozległą sieć fałszywych tożsamości na Facebooku, Twitterze, Instagramie, YouTube i Reddicie – podszywając się pod liberalnych aktywistów, konserwatywnych wyborców, zwolenników Black Lives Matter, południowych separatystów, grupy muzułmańskie, i wiele innych spyscape.com, en.wikipedia.org. Te konta publikowały miliony postów mających na celu podsycanie konfliktów po obu stronach polaryzujących tematów (stosunki rasowe, prawo do posiadania broni, imigracja) oraz oczernianie Hillary Clinton przy jednoczesnym wspieraniu Donalda Trumpa. Zakładali nawet strony na Facebooku dla fikcyjnych organizacji i kupowali reklamy skierowane do kluczowych grup demograficznych w stanach wahadłowych businessinsider.com. Według późniejszych ujawnień, do dnia wyborów treści z kontrolowanych przez IRA stron dotarły do ponad 126 milionów Amerykanów na Facebooku, a ich tweety były cytowane przez media głównego nurtu. Celem, jak opisano w amerykańskich aktach oskarżenia, było „sianie niezgody w amerykańskim systemie politycznym” i ostatecznie pomoc w wyborze kandydata bardziej przyjaznego Kremlowi washingtonpost.com. Amerykańskie agencje wywiadowcze uznały tę operację wpływu, kierowaną przez rząd rosyjski, za początek nowej ery wojny informacyjnej. W 2018 roku Departament Skarbu USA nałożył sankcje na IRA i Prigożyna za tę ingerencję businessinsider.com, a specjalny prokurator Robert Mueller postawił zarzuty 13 pracownikom IRA. Chociaż żaden z nich nie stanął przed sądem (pozostali w Rosji), akt oskarżenia ujawnił szczegółowo, jak farma trolli organizowała wiece, kradła tożsamości Amerykanów i wykorzystywała algorytmy mediów społecznościowych na niespotykaną dotąd skalę businessinsider.com, spyscape.com.
  • 2018–2020: Kontynuacja operacji w USA i Afryce: Pomimo negatywnej reakcji z 2016 roku, rosyjskie trolle nie zaprzestały działalności. Przed wyborami prezydenckimi w USA w 2020 roku, IRA eksperymentowała z outsourcingiem trollingu w języku angielskim do pośredników w Afryce. W jednym z głośnych przypadków ujawnionych w 2020 roku, farma trolli w Ghanie i Nigerii (rzekomo prowadzona przez rosyjskich koordynatorów) obsługiwała dziesiątki kont w mediach społecznościowych podszywających się pod czarnoskórych amerykańskich aktywistów, publikując treści na tematy rasowe w celu wzniecania podziałów w USA newslit.org. Facebook i Twitter, poinformowane przez badaczy i CNN, ostatecznie zablokowały tę sieć newslit.org. Tymczasem amerykański wywiad ostrzegał, że Rosja nadal rozpowszechnia wprowadzające w błąd narracje podczas kampanii w 2020 roku – choć ściślejszy monitoring platform i wysoka świadomość społeczna utrudniały trollom osiągnięcie takiego samego wpływu jak w 2016 roku. Warto zauważyć, że IRA dostosowała się również, tworząc „franczyzy”: zamiast prowadzić wszystkie konta z Petersburga, dostarczali treści i wskazówki sympatykom lub wynajętym osobom za granicą, które były trudniejsze do namierzenia. Na przykład, osobne akty oskarżenia w USA w 2020 roku ujawniły rosyjskie próby rekrutacji Amerykanów (w tym aktywisty politycznego z Florydy) do publikowania artykułów napisanych przez fałszywe tożsamości oraz do organizowania protestów. Podręcznik działania farm trolli ewoluował, ale cele pozostawały niezmienne. Amerykańskie Cyber Command posunęło się nawet do zhakowania serwerów IRA pod koniec 2018 roku, aby zakłócić ich działalność podczas wyborów uzupełniających, na krótko wyłączając fabrykę trolli z sieci spyscape.com. Ulga była tymczasowa – raporty wskazywały, że później się przegrupowali – ale pokazało to, że rządy zachodnie były coraz bardziej skłonne do podejmowania ofensywnych działań przeciwko trollom.
  • 2016–2017 Brexit i kampanie europejskie: W Europie rosyjscy trolle celowali w kluczowe wydarzenia, takie jak referendum w sprawie Brexitu w Wielkiej Brytanii w 2016 roku oraz wybory prezydenckie we Francji w 2017 roku. W Wielkiej Brytanii śledztwa wykazały, że powiązane z Kremlem konta na Twitterze (w tym znane profile IRA zidentyfikowane przez Twittera) promowały przekazy pro-brexitowe oraz podsycały kontrowersyjne historie o imigracji w okresie poprzedzającym głosowanie washingtonpost.com. Skala była mniejsza niż w USA, co skłoniło analityków do oceny, że rosyjskie trolle nie przesądziły o wyniku Brexitu, ale intencja ingerencji była oczywista washingtonpost.com. Jednocześnie podczas wyborów we Francji w 2017 roku rosyjscy agenci (za pośrednictwem trolli i hakerów) rozpowszechniali i wzmacniali tzw. „Macron leaks” – wyciek zhakowanych e-maili ze sztabu Emmanuela Macrona – wraz z dezinformacją na temat Macrona, próbując wesprzeć jego skrajną prawicową rywalkę Marine Le Pen. Francuski monitoring cyberprzestrzeni wykazał, że wiele kont w mediach społecznościowych promujących #MacronLeaks na Twitterze zostało założonych niedawno lub powiązanych było z rosyjskimi sieciami wpływu. W Niemczech urzędnicy przygotowywali się na podobną ingerencję podczas wyborów federalnych w 2017 roku. Choć szeroko zakrojona kampania trolli się tam nie pojawiła (być może zniechęcona ostrzeżeniami rządu niemieckiego), podejrzewano udział Rosji w innych incydentach – takich jak propagandowa historia z 2016 roku, fałszywie twierdząca, że rosyjsko-niemiecka dziewczynka „Lisa” została zgwałcona przez migrantów w Berlinie, która była szeroko promowana w rosyjskich mediach społecznościowych i wywołała protesty. Europejscy przywódcy zwrócili na to uwagę: pod koniec 2017 roku premier May publicznie oskarżyła Rosję o ingerencje w całej Europie, a premier Hiszpanii Mariano Rajoy ujawnił dane, że podczas kryzysu niepodległościowego w Katalonii w 2017 roku znaczna część fałszywej aktywności w sieci pochodziła z Rosji lub Wenezueli washingtonpost.com. Wszystkie te działania służyły interesom Moskwy w osłabianiu UE i NATO poprzez wzmacnianie ruchów nacjonalistycznych i separatystycznych.
  • Propaganda na Ukrainie i w państwach sąsiednich: Rosja zaczęła wykorzystywać farmy trolli podczas swoich interwencji w tzw. bliskiej zagranicy. Gdy Rosja anektowała Krym w 2014 roku i podsycała wojnę we wschodniej Ukrainie, armia trolli rozpoczęła działania online, by usprawiedliwić działania Moskwy i oczernić ukraiński rząd. Rosyjskojęzyczne sieci społecznościowe, jak i zachodnie platformy, były zalewane powtarzającymi się komunikatami powielającymi narracje Kremla: że rząd w Kijowie to „faszystowska junta”, że popełniane są (często sfabrykowane) okrucieństwa wobec rosyjskojęzycznych, oraz że zachodnie sankcje obrócą się przeciwko ich autorom. Trolle te starały się „zalać przestrzeń” wersją wydarzeń przedstawianą przez Kreml, utrudniając przypadkowym obserwatorom odróżnienie prawdy. Przeskakując do roku 2022 i pełnoskalowej inwazji na Ukrainę: rosyjskie trolle ponownie zostały uruchomione na skalę globalną. W ciągu kilku dni od inwazji analitycy zidentyfikowali sieci nieautentycznych kont na Twitterze, TikToku i Instagramie, które rozpowszechniały dezinformację – na przykład twierdzenia, że nagrania zbombardowanych ukraińskich miast są fałszywe propublica.org. ProPublica i badacze z Uniwersytetu Clemson śledzili dziesiątki rosyjskojęzycznych kont, które w marcu 2022 roku jednocześnie publikowały ten sam wprowadzający w błąd film (fałszywie „demaskujący” sfingowaną scenę ofiar cywilnych na Ukrainie) – co jest znakiem rozpoznawczym skoordynowanej operacji trolli propublica.org. Konta te wykazywały wyraźne ślady IRA, w tym godziny pracy zgodne z moskiewską strefą czasową oraz przerwy w weekendy i rosyjskie święta propublica.org. W miarę postępu wojny treści trolli się zmieniały: początkowo panował chaos, potem zaczęły powielać oficjalną propagandę, obwiniając NATO za wojnę i zaprzeczając jakimkolwiek rosyjskim niepowodzeniom militarnym propublica.org. Trolle atakowały także odbiorców międzynarodowych, by osłabić poparcie dla Ukrainy – argumentując w zachodnich komentarzach, że sankcje na Rosję bardziej szkodzą Europie, lub wzmacniając głosy skrajnej prawicy w Europie, które sprzeciwiały się zbrojeniu Ukrainy theguardian.com. W jednym z badań finansowanych przez Wielką Brytanię analitycy zauważyli, że operacja trolli w Petersburgu (Cyber Front Z) czerpała inspiracje z ruchów spiskowych, takich jak QAnon, w sposobie rozpowszechniania przekazów i próbach mobilizowania sympatyków online theguardian.com. Wojnie na Ukrainie towarzyszy więc równoległa wojna informacyjna, w której rosyjskie farmy trolli odgrywają kluczową rolę w szerzeniu na całym świecie „prowojennych kłamstw” theguardian.com. Ich wpływ jest widoczny w utrzymywaniu się narracji sprzyjających Kremlowi w niektórych segmentach opinii publicznej, pomimo faktów przedstawianych w rzetelnych doniesieniach.
  • Pandemia COVID-19 i inne globalne problemy: Rosyjscy trolle oportunistycznie wykorzystywali globalne kryzysy i kontrowersje, od pandemii COVID-19 po protesty na rzecz sprawiedliwości społecznej, jako podatny grunt dla dezinformacji. W czasie pandemii konta trolli powiązanych z państwem szerzyły mnóstwo teorii spiskowych – twierdząc, że koronawirus to amerykańska broń biologiczna, promując dezinformację antyszczepionkową i pogłębiając nieufność wobec instytucji zdrowia publicznego thebulletin.org. Celem nie było przedstawienie spójnej alternatywy, lecz „wzmacnianie wątpliwości” i dezorganizacji w społeczeństwach zachodnich w momencie niepewności thebulletin.org. Podobnie w 2020 roku, gdy w USA miały miejsce historyczne protesty na rzecz sprawiedliwości rasowej, rosyjskie farmy trolli podwoiły wysiłki, by podsycać podziały rasowe – z jednej strony podszywając się pod głosy skrajnej prawicy potępiające protesty, z drugiej udając lewicowych aktywistów, by zachęcać do bardziej skrajnych nastrojów, grając w ten sposób na obie strony, by wywołać chaos. Te przypadki pokazują, że poza polityką i wojną, każda kwestia wywołująca podziały może stać się polem bitwy dla operacji wpływu prowadzonych przez trolle. Od debat o zmianach klimatu po nakazy szczepień, rosyjskie trolle wprowadzały fałszywe twierdzenia, by zatruć dyskurs. Pogłębiając polaryzację na każdym froncie, realizują cel Moskwy, jakim jest osłabiony, skłócony Zachód.

Opinie ekspertów i śledztwa

Liczne śledztwa dziennikarzy, naukowców i agencji wywiadowczych odsłoniły kulisy działania rosyjskich farm trolli. Eksperci podkreślają, że są to nowy rodzaj zagrożenia, z którym muszą się zmierzyć demokracje. „2016 był dopiero początkiem,” zauważa jeden z raportów PBS – od tego czasu internetowi operatorzy Kremla stali się bardziej wyrafinowani i lepiej naśladują prawdziwych ludzi pbs.org.

Badacze zajmujący się taktykami farm trolli przedstawili uderzające obserwacje. Darren Linvill, profesor z Uniwersytetu Clemson, spędził lata analizując konta IRA. Zwraca uwagę na charakterystyczne wzorce: „Podczas rosyjskich świąt i w weekendy aktywność [niektórych kont trolli] spadała”, co wskazuje, że osoby publikujące były na etacie, harmonogram pracy, a nie prawdziwymi wolontariuszami spyscape.com. Analiza jego zespołu wraz z ProPublica potwierdziła, że posty z podejrzanych kont IRA pojawiały się w „określonych godzinach, zgodnych z dniem pracy IRA”. spyscape.com. Innymi słowy, prawdziwi oddolni aktywiści nie robią sobie przerwy w weekendy wszyscy naraz – ale pracownicy fabryki trolli już tak. Linvill podsumował, „Te konta wykazują wszystkie wskaźniki sugerujące, że pochodzą z Internet Research Agency.” spyscape.com. Gdyby jakimś cudem nie były to konta IRA, zażartował, „to gorzej, bo nie wiem, kto to robi.” propublica.org. Jego analiza podkreśliła, jak spójna i sprofesjonalizowana stała się rosyjska machina dezinformacyjna.

Relacje z pierwszej ręki również rzuciły światło na te operacje. Odważne ujawnienie dziennikarki Ludmiły Sawczuk w 2015 roku dało pierwszy wgląd do biur „fabryki trolli” IRA. Opisała niemal surrealistyczne środowisko: młodzi pracownicy w boksach nieustannie publikujący pod fałszywymi tożsamościami, z dyrektywami propagandowymi przekazywanymi jak redakcyjne zadania każdego ranka. „Na początku nie mogłam uwierzyć, że to prawda… to był rodzaj szoku kulturowego,” powiedział inny tajny pracownik Radiu Swoboda rferl.org. Mówili o atmosferze taśmy produkcyjnej, gdzie kreatywność była mniej ceniona niż posłuszeństwo wobec codziennych tematów narracyjnych ustalanych przez przełożonych.

Rządy krajów zachodnich coraz głośniej potępiają tego typu działania. W kwietniu 2022 roku brytyjska minister spraw zagranicznych Liz Truss potępiła nową kampanię trolli Rosji dotyczącą wojny na Ukrainie, stwierdzając: „Nie możemy pozwolić, by Kreml i jego podejrzane farmy trolli zalewały nasze przestrzenie internetowe kłamstwami na temat nielegalnej wojny Putina.” theguardian.com. Rząd Wielkiej Brytanii posunął się nawet do publicznego finansowania badań nad operacją w Petersburgu i dzielenia się wynikami z platformami społecznościowymi, aby ułatwić zwalczanie tego zjawiska theguardian.com. Te same badania ujawniły gotowość trolli do innowacji – na przykład poprzez wzmacnianie prawdziwych postów prawdziwych użytkowników, które przypadkowo były zgodne z poglądami Kremla, co pozwalało uniknąć łatwego wykrycia, ponieważ treści nie zawsze były sfabrykowane theguardian.com. Tę grę w kotka i myszkę między farmami trolli a moderatorami platform doskonale rozumieją agencje wywiadowcze. W USA FBI i Departament Bezpieczeństwa Wewnętrznego wielokrotnie ostrzegały, że agenci Rosji szybko dostosowują się do blokad na platformach, pojawiając się ponownie z nowymi kontami i nowymi taktykami.

Przedstawiciel FBI w 2020 roku zauważył, że rosyjscy operatorzy byli „wytrwali i kreatywni”, używając pośredników i podstawionych osób, aby ukryć swój udział po tym, jak firmy mediów społecznościowych zaczęły masowo blokować konta. Na przykład po tym, jak Facebook i Twitter usunęły tysiące kont IRA po 2016 roku, trolle pojawiły się ponownie za pośrednictwem krajów trzecich (jak pokazuje operacja w Ghanie) lub przenosząc się na alternatywne platformy z luźniejszą moderacją. Ich odporność skłoniła Departament Sprawiedliwości USA w 2020 roku do nałożenia sankcji na kolejne osoby, a nawet na {{T25}strony powiązane z farmami trolli (takie jak SouthFront i NewsFront), aby odciąć im finansowanie i hosting.

Think tanki i akademicy również zwrócili uwagę na ewoluujące narzędzia technologiczne dostępne dla trolli. Raport z 2018 roku opracowany przez Institute for the Future ostrzegał, że trolling na dużą skalę powinien być traktowany jako naruszenie praw człowieka ze względu na szkody wyrządzane społeczeństwom, jednocześnie ubolewając nad brakiem mechanizmów karania sprawców newslit.org. Przenosząc się do 2024 roku, analitycy zauważają, że treści generowane przez AI to nowa granica. W unijnym badaniu dotyczącym dezinformacji eksperci wskazali, że wcześniejsze rosyjskie taktyki „opierały się na mniej zaawansowanych technologiach, takich jak farmy trolli i sieci botów”, podczas gdy w 2024 roku kampanie coraz częściej wykorzystują generatywną AI do tworzenia „hiperukierunkowanych treści”, które trudniej wykryć carleton.ca. Rosyjskie operacje wpływu zaczęły wykorzystywać AI do generowania realistycznych deepfake’ów – obrazów, wideo i tekstów na dużą skalę, co umożliwia tworzenie jeszcze bardziej przekonujących fałszywych narracji. Europejska Służba Działań Zewnętrznych zauważyła w 2023 roku, że wiele ostatnich kampanii dezinformacyjnych Kremla, w tym tzw. operacje informacyjne „Doppelgänger” (które klonują prawdziwe serwisy informacyjne, by szerzyć fałszywe historie), można powiązać z podmiotami finansowanymi przez rosyjskie agencje państwowe, obecnie wspieranymi przez możliwości AI carleton.ca. Podkreśla to, że model farmy trolli nie jest statyczny – nieustannie udoskonala swoje techniki, od prostych memów kopiuj-wklej w 2016 roku po treści tworzone przez AI w 2024 roku i później.

2024–2025: Najnowsze wydarzenia i perspektywy

Na rok 2024 i 2025 operacje rosyjskich farm trolli pozostają ruchomym celem, reagując na wydarzenia geopolityczne i wewnętrzne zmiany władzy. Jednym z dramatycznych wydarzeń były losy samej Internet Research Agency. W czerwcu 2023 roku Jewgienij Prigożyn – założyciel IRA – przeprowadził krótkotrwały bunt przeciwko rosyjskiemu dowództwu wojskowemu ze swoimi siłami najemników Wagnera. Niepowodzenie rebelii i późniejsza śmierć Prigożyna w podejrzanej katastrofie lotniczej (sierpień 2023) doprowadziły do tego, że Kreml zaczął ograniczać jego rozległe przedsięwzięcia. Pojawiły się doniesienia, że do lipca 2023 roku działalność IRA w Petersburgu została oficjalnie zamknięta w następstwie upadku Prigożyna businessinsider.com. Rzeczywiście, własna grupa medialna Prigożyna, Patriot Media, ogłosiła, że „opuszcza krajową przestrzeń informacyjną”, gdy rząd przystąpił do demontażu jego organów wpływu businessinsider.com. Prigożyn nawet potwierdził w wywiadzie tuż przed tym, że stworzył i prowadził IRA, najwyraźniej chcąc przypisać sobie zasługi za jej „patriotyczną” misję spyscape.com. Na początku lipca 2023 roku rosyjskie media państwowe poinformowały, że słynna farma trolli została rozwiązana – wydarzenie to odnotowały także zachodnie mediabusinessinsider.com.

Jednakże to „zakończenie” IRA nie oznaczało końca rosyjskich operacji trollingowych. Analitycy uważają, że Kreml po prostu wchłonął lub zrestrukturyzował te zdolności w inne ręce. Raport Google Threat Analysis Group z marca 2024 roku zauważył, że choć bezpośrednia aktywność IRA na platformach Google spadła po śmierci Prigożyna, elementy powiązanych z Prigożynem kampanii wpływu „pozostały aktywne” i prawdopodobnie są kontynuowane pod innym zarządem cloud.google.com. Badacze z Mandiant zauważyli, że kilka długo trwających rosyjskich operacji informacyjnych wykazało „nierówny stopień zmian” po Prigożynie – z pewnymi zakłóceniami, ale wieloma aktywami wciąż działającymi, co sugeruje, że Kreml raczej rozdzielił kontrolę niż całkowicie wszystko zamknął cloud.google.com. Warto zauważyć, że przez cały 2023 rok Google i Meta nadal usuwały dużą liczbę fałszywych kont powiązanych z rosyjskimi sieciami dezinformacyjnymi. Google zgłosił ponad 400 działań egzekucyjnych w 2023 roku przeciwko operacjom wpływu powiązanym z IRA cloud.google.com. A pod koniec 2024 roku, przed kluczowymi wyborami, urzędnicy USA wciąż bili na alarm: FBI i inne agencje ostrzegały, że Rosja w pełni zamierza ingerować w wybory prezydenckie w USA w 2024 roku poprzez manipulację w mediach społecznościowych, nawet jeśli scenariusz musiał zostać dostosowany bez oryginalnego centrum IRAreuters.com.

W rzeczywistości, próby ingerencji w wybory zostały już zaobserwowane wchodząc w rok 2024. Jednym z wyrazistych przykładów była sytuacja z października 2024 roku, kiedy urzędnicy w amerykańskim stanie Georgia zgłosili wiralowy film dezinformacyjny, który fałszywie przedstawiał „nielegalnego imigranta” chwalącego się oddaniem wielu głosów. Biuro Sekretarza Stanu Georgii bezpośrednio oświadczyło: „To jest nieprawda… To prawdopodobnie zagraniczna ingerencja mająca na celu sianie niezgody i chaosu na dzień przed wyborami.” reuters.com Wezwali firmy mediów społecznościowych do usunięcia filmu, zauważając, że „Najprawdopodobniej jest to produkcja rosyjskich farm trolli.” reuters.com. Ten incydent – mający miejsce tuż przed burzliwymi wyborami w USA – pokazuje, że rosyjskie trolle wciąż są aktywne w 2024 roku, wykorzystując zwodnicze wiralowe filmy na platformach takich jak X (Twitter), by podważać zaufanie do głosowania reuters.com. Federalne agencje, takie jak CISA, badały ten incydent, a cała sytuacja przypomniała, że nawet bez oryginalnego kierownictwa IRA, aparat rosyjskiego wpływu online może szybko uruchomić nowe ad hoc kampanie, gdy zajdzie taka potrzeba.

Patrząc w przyszłość, na rok 2025, eksperci oceniają, że operacje rosyjskich farm trolli będą się raczej adaptować niż znikać. Ponieważ Moskwa jest uwikłana w przedłużającą się wojnę na Ukrainie i stoi w obliczu presji wewnętrznej, Kreml ma silną motywację, by nadal wykorzystywać „tanią, ale skuteczną” broń manipulacji online. Możemy się spodziewać, że rosyjscy operatorzy jeszcze chętniej będą wykorzystywać nowe technologie – zwłaszcza AI. Europejscy analitycy zauważyli, że pod koniec 2024 roku sama skala i szybkość rosyjskiej dezinformacji wzrosły dzięki narzędziom generatywnej AI, co ułatwiło masową produkcję fałszywych treści carleton.ca. Oznacza to, że przyszłe taktyki farm trolli mogą obejmować AI-generowane „osoby” (do perfekcyjnie realistycznych zdjęć profilowych, a nawet deepfake’owych komentarzy wideo), a także algorytmicznie dopasowaną propagandę precyzyjnie wymierzoną w konkretne społeczności. Wyścig zbrojeń między platformami a trollami prawdopodobnie się zaostrzy: gdy firmy będą coraz lepiej blokować znane sygnatury trolli, trolle będą wykorzystywać AI do tworzenia coraz bardziej przekonujących person i treści.

Na scenie geopolitycznej rosyjskie farmy trolli (pod jakąkolwiek nową postacią) najprawdopodobniej będą celować w każde ważne wydarzenia istotne z punktu widzenia interesów Kremla. Nadchodzące wybory w krajach zachodnich, debaty dotyczące wsparcia dla Ukrainy, a nawet kwestie takie jak kryzysy energetyczne lub konflikty międzynarodowe mogą stać się areną odnowionych ofensyw dezinformacyjnych. Agencje bezpieczeństwa Unii Europejskiej wzmocniły monitoring „zagranicznej manipulacji informacją i ingerencji” (FIMI), publikując okresowe raporty o zagrożeniach, które niemal zawsze podkreślają rosyjskie operacje. Przedstawiciele NATO i UE ostrzegają, że Rosja będzie próbowała rozbić jedność Zachodu w sprawie Ukrainy poprzez podsycanie narracji ekstremistycznych i izolacjonistycznych w mediach społecznościowych (na przykład promując głosy sprzeciwiające się pomocy dla Ukrainy lub popierające politykę przyjazną Rosji). Rzeczywiście, wybory do Parlamentu Europejskiego w 2024 roku przyniosły wzrost liczby przekazów – w tym klonowanych fałszywych stron informacyjnych w ramach kampanii „Doppelgänger” – promujących antyukraińskie i antyunijne treści, które analitycy powiązali z rosyjskimi ośrodkami dezinformacyjnymi carleton.ca. Wpływ takich działań jest trudny do zmierzenia, ale zbiegły się one ze wzrostem poparcia dla skrajnie prawicowych, prorosyjskich bloków politycznych, co wskazuje na pewien efektcarleton.ca.

W rosyjskiej sferze wewnętrznej Kreml najprawdopodobniej utrzyma ścisłą kontrolę nad narracją wszelkimi dostępnymi środkami – w tym farmami trolli lub ich następcami. Po buncie Prigożyna Putin przekonał się, jak ryzykowne jest pozwalanie prywatnemu podmiotowi na zbyt dużą kontrolę nad machiną propagandową. Nie byłoby zaskoczeniem, gdyby rosyjskie służby bezpieczeństwa (takie jak FSB czy wywiad wojskowy) przejęły część operacji trollingowych, by zapewnić lojalność i bezpośredni nadzór. Ton rosyjskiego trollingu wewnętrznego od końca 2023 roku zmienił się, by wymazać pamięć o Prigożynie (ze względu na jego zdradę) i wzmocnić pozycję Putina w obliczu wyzwań wojennych tandfonline.com. Każdy Rosjanin wyrażający w internecie zmęczenie wojną lub krytykujący rząd może spodziewać się ataku ze strony „patriotycznych” komentatorów – w wielu przypadkach trolli – oskarżających go o zdradę, co skutecznie tłumi sprzeciw. Wskazuje to, że taktyka farm trolli pozostaje filarem wewnętrznej propagandy, tylko bardziej scentralizowanym przez państwo.

Podsumowując, rosyjskie farmy trolli przekształciły się z marginalnego eksperymentu w pełnoprawne narzędzie władzy państwowej w erze informacji. Działają jako fabryki propagandy XXI wieku, produkując kłamstwa, strach i niezgodę za pomocą jednego kliknięcia myszką. W ciągu ostatniej dekady ingerowały w wybory, podsycały konflikty i zanieczyszczały niezliczone dyskusje online. I mimo większej świadomości oraz sankcji, nie wykazują oznak zatrzymania – jedynie zmieniają formę. Dopóki otwarte społeczeństwa będą polegać na platformach internetowych w kwestii wiadomości i debaty, trolle Kremla będą próbowały wykorzystać tę otwartość. Walka z tym zagrożeniem będzie wymagała stałej czujności, świadomości społecznej i współpracy międzynarodowej. Świat poznał już podręcznik działania rosyjskich farm trolli; wyzwaniem jest teraz powstrzymanie tych „cyfrowych żołnierzy” przed przejęciem globalnej rozmowy poprzez manipulację i złą wolę.

Former Russian trolls expose misinformation operations

Don't Miss