Разкриване на империята от тролове на Русия: Вътре в глобалната машина за дезинформация на Кремъл

септември 7, 2025
Unmasking Russia’s Troll Farm Empire: Inside the Kremlin’s Global Disinformation Machine
Kremlin’s Global Disinformation Machine
  • Агенцията за интернет изследвания (IRA), водещата руска фабрика за тролове, е базирана в Санкт Петербург и е основана около 2013 г., като до 2015 г. нараства до около 400 служители, работещи на 12-часови смени.
  • Служителите на IRA работят по строги квоти: 5 политически публикации, 10 неполитически публикации и 150–200 коментара на смяна.
  • Троловете печелят приблизително 40 000 рубли на месец (около $700–$800) и получават заплатите си в брой.
  • Те прикриват произхода си с VPN, прокси сървъри, откраднати или генерирани от изкуствен интелект профилни снимки и фалшиви самоличности, за да изглеждат автентични.
  • Операцията е част от проект Лахта, свързан с Кремъл чадър, който включва Patriot Media Group, притежаваща Федералната информационна агенция (RIA FAN) и други медии, използвани за пране на пропаганда, по-късно посочени в американски санкции.
  • На президентските избори в САЩ през 2016 г. IRA провежда многоплатформена кампания във Facebook, Twitter, Instagram, YouTube и Reddit, достигайки до над 126 милиона американци и водеща до обвинения срещу 13 служители на IRA през 2018 г., както и санкции срещу групата.
  • През 2016–2017 г. служители на IRA, представящи се за американски активисти, организират реални митинги в САЩ, включително протест в Ню Йорк в подкрепа на Доналд Тръмп и друг срещу него на същия ден.
  • От 2018 до 2020 г. IRA възлага на външни изпълнители тролене на английски език в Африка, управлявайки мрежа в Гана и Нигерия, представяща се за чернокожи американски активисти, която Facebook и Twitter по-късно деактивират през 2020 г.
  • През 2022 г. публичната група Cyber Front Z се появява в Санкт Петербург, координирайки се чрез Telegram, работейки от стара оръжейна фабрика и плащайки на TikTok инфлуенсъри да усилват кремълските послания, докато участват в бригадиране и манипулиране на анкети.
  • До 2024 г. кампаниите с изкуствен интелект и Doppelgänger стават централни, като Google съобщава за над 400 действия по прилагане на мерки през 2023 г. срещу мрежи за влияние, свързани с IRA, а анализатори отбелязват продължаващи операции след метежа и смъртта на Пригожин през 2023 г.

Какво представляват фабриките за тролове? Двигателят на дезинформацията

Фабриките за тролове са организирани групи от платени онлайн оператори, които използват фалшиви самоличности, за да заливат интернет с пропаганда и разединяващо съдържание. Работейки в офисна среда, тези екипи създават фалшиви профили, които се представят за истински хора, публикувайки в социални мрежи, коментари под новини и форуми. Тяхната цел е да манипулират общественото мнение – някои тролове разпространяват послания, показващи фалшива обществена подкрепа за определени идеи, докато други разпространяват слухове, предназначени да сеят объркване и недоверие към институциите newslit.org. Често работещи на координирани смени, служителите на фабриките за тролове публикуват провокативни коментари, подвеждащи „новини“ и конспирации в огромен мащаб, усилвайки крайни гледни точки далеч отвъд органичния им обхват. Мнозина използват sockpuppet акаунти (множество онлайн самоличности), понякога подпомагани от социални ботове (автоматизирани акаунти), за да изглежда, че много обикновени хора споделят тези маргинални мнения en.wikipedia.org. В действителност, шепа оператори може да стоят зад стотици акаунти – тайна пропагандна поточна линия, която произвежда дезинформация при поискване.

Докато концепцията звучи като сюжет от научна фантастика, трол фермите са напълно реални и са били използвани като оръжие от държави. Русия в частност печално е възприела трол фермите като основен инструмент в арсенала си за информационна война. Чрез заливане на онлайн пространствата с прокремълски наративи и враждебни коментари, руските трол ферми целят да изкривят възприятията и да подкопаят дискурса в целевите държави. Тяхната дейност варира от намеса в избори и политическа агитация в чужбина до засилване на пропагандата в страната. Повечето хора по света научиха за руските трол ферми, когато излезе новината за намесата им в президентските избори в САЩ през 2016 г. newslit.org. Въпреки това, тази тактика предхожда 2016 г. и не е изключителна за Русия – други правителства и групи са копирали подобни методи. Все пак именно руските операции задават шаблона за съвременната трол ферма: спонсорирана от държавата, централно организирана и с глобален обхват. Социалните мрежи се затрудняват да ограничат тези фалшиви акаунти, като понякога премахват големи мрежи (например, Facebook и Twitter премахнаха базирана в Гана руска трол мрежа през 2020 г., която беше събрала над 300 000 последователи, докато разпалваше расово напрежение в САЩ newslit.org). Въпреки това, това вероятно представлява само „върхът на айсберга“ newslit.org. Трол фермите продължават да се развиват, намирайки нови начини да избягват засичане и да експлоатират онлайн платформите.

Вътре в руските трол фабрики: организация и ключови играчи

Най berитата фабрика за тролове в Русия е Internet Research Agency (IRA), компания със седалище в Санкт Петербург, която някога е била ръководена и финансирана от олигарха Yevgeny Prigozhin – близък съюзник на Путин, често наричан „готвачът на Путин“. IRA (известна на руски жаргон като „троловете от Олгино“) е основана около 2013 г. и се разраства в професионална организация със стотици служители spyscape.com. До 2015 г. се съобщава, че IRA е имала около 400 служители, работещи на 12-часови смени, включително елитна група от ~80 трола с добър английски, посветени изключително на атакуване на политическата система на САЩ spyscape.com. Тя приличала на онлайн маркетингова агенция – но посветена на целите на Кремъл. Мениджърски екип наблюдавал няколко отдела (графичен дизайн, ИТ, оптимизация за търсачки, финанси и др.) и обсесивно следял метриките spyscape.com. Според разследване на Сената на САЩ, мениджърите дори наблюдавали служителите чрез видеонаблюдение и били „обсебени“ от броя на прегледите, харесванията и квотите за коментари като мерки за влияние spyscape.com.

Животът като руски трол беше описан от вътрешни лица като работа на бюро под голямо напрежение. Людмила Савчук, журналистка, която работи под прикритие в ИРА, разкрива, че всеки трол имал строги дневни норми – например, 5 политически публикации, 10 неполитически публикации (за да изглеждат автентични) и 150-200 коментара върху друго съдържание на смяна spyscape.com. Троловете работели дълги часове за скромна заплата (около 40 000 рубли, приблизително 700-800 долара на месец) и получавали парите в брой spyscape.com. Те работели в тайни „екипи“, фокусирани върху различни целеви аудитории и теми. Например, отделни групи били разпределени по американска политика, европейски въпроси, Украйна и др., като всяка създавала послания, насочени към съответната аудитория. Бивши служители на ИРА разказват, че им било нареждано да гледат популярни американски телевизионни предавания като House of Cards, за да научат американски културни препратки spyscape.com. Получавали обучение по английски език и ръководства за американски жаргон, за да се представят по-убедително като истински американски коментатори spyscape.com. За да скрият руския си произход, използвали VPN и прокси сървъри, за да прикрият местоположението си, и внимателно създавали фалшиви профили (със откраднати или генерирани от изкуствен интелект снимки, подробности за „роден град“ и реалистични имена) spyscape.com. В продължение на седмици и месеци тези фалшиви акаунти постепенно изграждали идентичност и последователи – присъединявали се към Facebook групи, туитвали за ежедневието или спорта – преди да преминат към политическа пропаганда, когато станат достатъчно достоверни. „С течение на времето тези акаунти печелят последователи и стават по-влиятелни,“ отбелязва един доклад spyscape.com.

ИРА на Пригожин не действаше изолирано, а като част от по-голяма екосистема за влияние, свързана с Кремъл. Руски журналисти и обвинения в САЩ разкриха обща инициатива, наречена „Проект Лахта“, под която ИРА и свързани с нея структури работеха за „нарушаване на демократичния процес в САЩ, разпространяване на недоверие, подбуждане на граждански безредици и поляризиране на американците“ – особено чрез изостряне на расови и социални разделения spyscape.com. За да се осигури възможност за отричане, този проект използваше мрежа от кухи фирми и медийни прикрития. Например, холдинговата компания на Пригожин „Патриот Медия Груп“ притежаваше Федералната информационна агенция (РИА ФАН) и други псевдо-новинарски сайтове, които разпространяваха пропаганда, като същевременно служеха за прикритие на тайни тролски операции cloud.google.com. Структурите на Проект Лахта включваха самата ИРА и номинални „новинарски“ сайтове като Nevskiy News, Economy Today и International News Agency, всички от които по-късно бяха посочени в американски санкции за участие в дезинформационни дейности spyscape.com. Тази размита комбинация от явни пропагандни източници и скрити тролски екипи позволи на руските операции за влияние да „перат“ дезинформация – например, трол пуска фалшива история чрез фалшива самоличност, която след това се подхваща от сайтовете на Patriot Media като „новина“ и накрая се усилва от други тролове и ботове.

Забележително е, че руските тролски операции не се ограничаваха само до клавиатури и екрани. ИРА и сътрудници понякога наемаха неподозиращи местни жители в целевите държави, за да организират реални събития, съответстващи на онлайн агитацията им. Американски следователи установиха, че през 2016–2017 г. оперативни работници на ИРА, представящи се за американски активисти, са успели да организират реални политически митинги в САЩ – дори да уредят протест в Ню Йорк в подкрепа на Доналд Тръмп и друг срещу него в същия ден, за да се максимизира разделението spyscape.com. Руските тролове се представяли за местни организатори, набирали истински американци чрез Facebook групи и им плащали да носят транспаранти или да изработват реквизит, докато тези граждани нямали представа, че отговарят на руски указания spyscape.com. Тази тактика – използване на тролове за създаване на фалшиви „AstroTurf“ движения – показва докъде могат да стигнат тези операции за влияние. Чрез комбиниране на онлайн дезинформация с офлайн действия, те се стремят да превърнат онлайн гнева в реален хаос.

Интернет изследователската агенция стана печално известна по целия свят, след като намесата ѝ в американската политика беше разкрита. През 2018 г. Министерството на правосъдието на САЩ повдигна обвинения срещу служители на IRA за престъпна намеса в изборите през 2016 г., като подробно описа как са създали хиляди акаунти в социалните мрежи (представяйки се за американци от всякакви среди), достигнали до милиони хора с мемета и фалшиви истории, и дори са финансирали политически реклами и митинги businessinsider.com. (Използването от страна на IRA на откраднати американски самоличности и финансови измами за финансиране на операциите доведе до допълнителни обвинения businessinsider.com.) Въпреки че Русия отрече обвиненията, Пригожин в крайна сметка призна ролята си: „Никога не съм бил просто финансиращ на IRA. Аз я измислих, аз я създадох, аз я управлявах дълго време“, похвали се Пригожин в началото на 2023 г., твърдейки, че е основана, за да „защитава руското информационно пространство от… агресивна антируска пропаганда от Запада.“ spyscape.com. Това откровено признание от страна на мозъка подчертава двойната мисия на IRA – да атакува противниците на Русия онлайн, докато защитава Кремъл у дома.

Освен ИРА, други тролски операции се появиха или еволюираха в Русия. През 2022 г., след като Русия започна пълномащабното си нахлуване в Украйна, нова организация със седалище в Санкт Петербург, наричаща себе си „Кибер Фронт Z“, започна открито да набира „патриотични“ сътрудници, за да залеят интернет с коментари в подкрепа на войната theguardian.com. Базирана в наето помещение в стара оръжейна фабрика, тази „тролска фабрика“ (както е описана от британското разузнаване) беше свързана с мрежата на Пригожин и координирана чрез Telegram канал на име „Кибер Фронт Z“ theguardian.com. Оперативните работници на Кибер Фронт Z насочваха действията си към социалните мрежи на западни лидери и секциите за коментари на новинарски сайтове, като отвличаха дискусиите, за да хвалят Путин и демонизират Украйна theguardian.com. Според изследвания, цитирани от британското правителство, те дори са плащали на определени TikTok инфлуенсъри, за да усилват прокремълски послания theguardian.com. Това показва, че руските тролски операции са се адаптирали към нови платформи и по-млада аудитория – разширявайки се от Facebook и Twitter към Instagram, YouTube и TikTok, където изследователите откриват висока концентрация на активност през 2022 г. theguardian.com. Членовете на Кибер Фронт Z са участвали в координирано „бригададжийство“, масово коментиране с цел насочване на онлайн разговорите към кремълската линия, и дори манипулиране на онлайн анкети (например, изкривяване на гласувания в западни медийни проучвания относно подкрепата за санкции срещу Русия) theguardian.com. За разлика от потайната ИРА, Кибер Фронт Z открито демонстрираше патриотизма си, оправдавайки онлайн тролването като граждански дълг по време на война theguardian.com.

Инструменти и тактики: Как руските тролове разпространяват пропаганда

Руските тролски ферми използват широк арсенал от техники, за да внедряват и усилват дезинформация онлайн. Някои от основните инструменти и тактики включват:

  • Фалшиви личности и куклени акаунти: Троловете създават стотици измислени онлайн идентичности, често със откраднати или генерирани от изкуствен интелект профилни снимки, и се представят за обикновени граждани en.wikipedia.org. Често дори имитират местната демография (например, представят се за американци с различен политически произход или за европейци от конкретни държави), за да се слеят с околните. Тези куклени акаунти присъстват във всяка голяма платформа – Facebook, Twitter (сега X), Instagram, YouTube, TikTok, Reddit и руски мрежи като VKontakte spyscape.com. За да избегнат очевидни признаци на фалш, троловете публикуват редовно неполитическо съдържание чрез тези личности (спортни закачки, снимки на храна и др.) и внимателно копират реално поведение в социалните мрежи. С течение на времето изграждат достоверност, след което пускат пропаганда или подвеждащо съдържание в общностите отвътре.
  • Усилване в социалните мрежи и „бригададжийство“: Фабриките за тролове целят да накарат няколко гласа да звучат като тълпа. Те координират вълни от публикации и коментари, така че даден наратив доминира разговорите или изкуствено да става популярен. Например, екип от тролове може едновременно да отговори на туит на политик със същите опорни точки, създавайки фалшиво впечатление, че общественото мнение е изцяло едностранно. В коментарните секции на новинарски статии си гласуват един на друг и се надпреварват с отговори, за да заглушат истинския дебат theguardian.com. В платформи като Facebook троловете са управлявали големи тематични страници (напр. „Secured Borders“ или фалшиви активистки групи), които привличат реални последователи, а след това внимателно вкарват поляризираща пропаганда в тези потоци. Известно е също, че отвличат хаштагове или стартират координирани хаштаг кампании в Twitter, за да ги изведат в трендинг списъците. Чрез хореографиране на публикации през десетки акаунти, фабриките за тролове могат да бригададжийстват онлайн анкети, форуми и социални потоци, за да изглеждат маргинални идеи като популярни theguardian.com.
  • Ботове и автоматизирани мрежи: Освен профили, управлявани от хора, руските операции използват бот мрежи – автоматизирани или полуавтоматизирани акаунти – за да усилят своето послание. Тези ботове могат да ретуитват или споделят съдържание хиляди пъти в рамките на минути, да изкривяват алгоритмите за тенденции и да тормозят определени потребители. По време на различни избори и събития, разследващи са открили рояци от туитове/постове, идващи от заподозрени бот акаунти, свързани с Русия washingtonpost.com. Например, Испания съобщи за „лавина от ботове“, които разпространяват фалшиви новини по време на референдума за независимост на Каталуния през 2017 г., като над половината от бот акаунтите са проследени до руски произход washingtonpost.com. Ботовете често усилват посланията на троловете, като ги харесват и препубликуват масово. Смесицата от ботове и човешки тролове кара кампанията да изглежда по-голяма и по-органична, отколкото е в действителност – мултипликатор на сила за дезинформацията.
  • Дезинформационно съдържание и манипулация на медии: Фабриките за тролове са специализирани в създаване на споделяема дезинформация – от фалшиви новинарски статии и манипулирани изображения до подвеждащи мемета и видеа. Често те управляват псевдо-новинарски сайтове, които бълват пропагандни материали, които троловете след това разпространяват в групи и в коментари. Руските оперативни лица са фалшифицирали скрийншотове на туитове, подправяли са правителствени документи и са разпространявали конспиративни мемета, за да подкрепят своите наративи. През последните години те започнаха да използват и дълбоки фалшификации (deepfakes) и други медии, генерирани от изкуствен интелект. Известен пример се случи през март 2022 г., когато дълбоко фалшифицирано видео на украинския президент Володимир Зеленски беше разпространено, като невярно показваше как той казва на украинските войски да се предадат reuters.com. Видеото беше зле направено и бързо опровергано, но експерти предупредиха, че „може да е предвестник на по-усъвършенствани измами в бъдеще“ reuters.com. Трол мрежите могат да се захванат за такова фалшиво съдържание – или да създадат свое собствено – и агресивно да го разпространяват към нищо неподозиращи аудитории. Като разпространяват вирусни измами (от фалшиви твърдения за изборни измами до измамни „лекове“ за COVID-19), те целят да заблудят и разпалят обществото.
  • Въвличане на инфлуенсъри и местни гласове: Друга тактика е пропагандата да се препредава чрез легитимни гласове. Руски кампании за влияние са били уличавани в наемане или заблуждаване на нищо неподозиращи трети страни – например, като се свързват с чуждестранни фрийланс журналисти, за да пишат статии, повтарящи кремълски тези, или като плащат на инфлуенсъри в социалните мрежи да промотират определени наративи theguardian.com. През 2020 г. операция с кодово име „Peace Data“ видя руски тролове да създадат фалшива онлайн ляво-ориентирана медия и да наемат истински фрийланс автори (много от Запада) да пишат статии, без да знаят за истинската принадлежност на платформата. По подобен начин, британски изследователи през 2022 г. откриха, че някои TikTok и Instagram инфлуенсъри са били платени да разпространяват про-руски послания за Украйна theguardian.com. Като се възползват от доверието към местни гласове, троловете могат да разпространяват пропаганда в по-приемлива форма, скрита в съдържание, което изглежда независимо. Това добавя слой на отричане и прави разкриването по-трудно, тъй като посланията идват от привидно автентични личности, а не от очевидни тролски акаунти.

В комбинация, тези тактики позволяват на руските тролски ферми да водят „информационна война“ на няколко фронта – инжектиране на фалшиво или пристрастно съдържание, изкуствено му усилване и изкривяване на онлайн информационната среда. Крайната цел не е просто да се убеди един или друг човек в една лъжа; тя е да се разруши доверието като цяло – доверието в медиите, в изборните процеси, в обществените норми – чрез замърсяване на дискурса с толкова много дезинформация и омраза, че обективната истина и здравословният дебат стават трудно откриваеми. Както един експерт казва, тези тролски операции са „инструмент на Путин за контрол на наративите“ и за заглушаване на опозиционни гласове propublica.org. Независимо дали заливат рускоезични форуми с про-кремълски консенсус или наводняват западните социални мрежи с конспиративни теории, тролските ферми се стремят да удавят истината в шум.

Цели: Защо Кремъл управлява тролски ферми

Кампаниите на руските тролски ферми обслужват стратегически цели, определени от Кремъл, които обикновено попадат в категориите политическо влияние, дестабилизация на противници и пропагандна война. Основните цели включват:

  • Подкопаване на избори и политически процеси: Основна мисия на руските тролове е да се намесват в демократични избори в чужбина. Тяхната вече печално известна роля в изборите в САЩ през 2016 г. беше насочена към поляризиране на американските избиратели, потискане на някои гласове и насърчаване на предпочитани резултати. Вътрешни документи на ИРА описват усилие „да се намесват в избори и политически процеси“ в САЩ propublica.org. По подобен начин, при европейски избори, дейността на руските тролове цели да насърчава прокремълски или крайно десни кандидати и да всява съмнения относно про-ЕС центристите. Британският премиер Тереза Мей предупреди в края на 2017 г., че Русия се опитва да „подкопае свободните общества и внася раздор на Запад чрез използване на своите тролове и фалшиви новинарски източници washingtonpost.com. Испанските власти обвиниха мрежи, свързани с Русия, в намеса в референдума за Каталуния в Испания и отбелязаха припокривания в дезинформацията по време на Брекзит и френските избори, всичко с цел да се разруши европейското единство washingtonpost.com. По същество, чрез манипулиране на общественото мнение по време на чуждестранни избори или референдуми, Кремъл се надява да инсталира по-благоприятни лидери, да отслаби международните си противници или просто да създаде хаос (тъй като хаосът в съпернически демокрации сам по себе си е победа за Путин). Американски служители са заявили, че целта на Русия често е да „раздухва разделящи наративи“ около изборите – използвайки чувствителни теми като раса, имиграция или престъпност – така че обществата да се обърнат срещу себе си reuters.com. Дори когато конкретни кандидати не печелят, троловете успяват, ако убедят достатъчно граждани да се усъмнят в честността на изборите или да намразят своите съграждани-избиратели.
  • Сеене на разделение и недоверие: Отвъд всякакви отделни избори, руските тролски ферми работят за разпалване на съществуващи разделения в целевите държави в дългосрочен план. Като постоянно разпространяват поляризиращо съдържание по социални горещи точки (ляво срещу дясно, градско срещу селско, етнически и религиозни напрежения и др.), те се опитват да разкъсат разломите в обществото. Разследване на Сената на САЩ отбеляза, че един проект на IRA се е фокусирал силно върху „насърчаване на социално разделящи въпроси с акцент върху расовите разделения и неравенството“ в Америка spyscape.com. Целта е да се отслабят противниците на Русия отвътре: нация, затънала във вътрешни конфликти, е по-малко способна да представи единен фронт на международната сцена. Тази стратегия е наблюдавана в целия Запад – от насърчаване на сепаратистки настроения в Каталуния, Испания washingtonpost.com, през разпалване на антиимигрантски и антиевропейски настроения в Европа, до засилване на расовото напрежение и споровете около ваксините в САЩ. Чрез разпространение на конспиративни теории и крайна реторика, троловете целят хората да загубят доверие в основните източници на информация и дори да се обърнат срещу собствените си правителства. Както предупреди държавният секретар на Джорджия (щата в САЩ) през 2024 г., фалшиви истории за измами при гласуването, които внезапно се появяват в социалните мрежи, най-вероятно са „чужда намеса, опитваща се да сее раздор и хаос“ – често проследени до руските тролски ферми reuters.com.
  • Подкрепяне на руската външна политика и военни цели: Фабриките за тролове служат и като дигитални пехотинци на геополитическата програма на Кремъл. Когато Русия участва в конфликти или кризи, троловете засилват активността си, за да оформят онлайн наратива. Например, от началната агресия на Русия в Украйна през 2014 г., и особено след пълномащабното нахлуване през 2022 г., руските тролове енергично разпространяват пропаганда в подкрепа на войната. Те усилват твърдения, които оправдават действията на Русия (като фалшиви обвинения за агресия от страна на НАТО или за „нацисти“ в Украйна), докато отхвърлят или отричат зверствата, извършени от руските сили propublica.org. Британско изследване от 2022 г. разкри координирана операция на тролове за увеличаване на подкрепата за инвазията на Путин в Украйна, насочена не само към руската публика, но и към западните социални мрежи с послания срещу санкциите и украинското ръководство theguardian.com. Троловете дори са насочвали атаки към конкретни известни личности – като са заливали с коментари профилите на британския премиер и други официални лица с прокремълски тези theguardian.com – с надеждата да повлияят на обществените нагласи. По същество, всеки път когато Русия иска да проектира сила или да прикрие агресиите си, тя отприщва троловете, за да атакуват информационния пейзаж: да объркват хората относно фактите на терен, да промотират конспиративни алтернативи и да привличат международни скептици на страната на Русия. Както отбелязва изследователят от Университета Клемсън Дарън Линвил, на Путин не му е нужно непременно да „спечели“ информационната война напълно; достатъчно е да замъгли водите, за да задържи позициите си, а трол акаунтите са инструмент за това propublica.org. На вътрешния фронт тази цел се разпростира до затвърждаване на кремълската версия на събитията, така че руските граждани да останат подкрепящи или поне скептични към Запада.
  • Подкрепяне на режима вътре в страната: Докато голямо внимание се обръща на руските тролове в чужбина, значителна част от усилията им всъщност е насочена към вътрешната руска аудитория. Първоначално ИРА е създадена, за да управлява имиджа и дневния ред на Путин в Рунет (руския интернет) propublica.org. Като заливат руските социални мрежи и форумите за коментари с патриотични послания и атаки срещу критиците на Кремъл, трол фермите помагат да се заглушат опозиционните гласове и да се създаде изкуствено усещане за широка обществена подкрепа за Путин. Например, по време на COVID-19 вълните и икономическите трудности в Русия, вътрешните тролове агресивно насърчаваха наратива, че всички неуспехи се дължат на западни санкции или саботаж, а не на лошо управление от страна на правителството. След инвазията в Украйна, рускоезични трол акаунти работеха, за да убедят съгражданите си, че войната е оправдана и върви добре, повтаряйки реплики от държавната телевизия и очерняйки онези, които изразяват съмнения propublica.org. „Това е начин [Путин] да лъже собствения си народ и да контролира разговора,“ обяснява Линвил propublica.org. Чрез манипулиране на общественото мнение у дома, трол фермите помагат за поддържане на социалната стабилност и лоялност, укрепвайки режима на Путин. В този смисъл те са пропагандно оръжие, използвано вътрешно, за да противодейства на всяка фактическа информация, която може да подкопае наратива на Кремъл (като новини за военни неуспехи или корупционни скандали). Целта на Кремъл тук е класическа пропаганда: да „задържи позициите си“ във вътрешната информационна война, като гарантира, че руснаците или вярват в неговата политика, или поне се съмняват във всяка алтернативна гледна точкаpropublica.org.

В обобщение, руските трол ферми действат с ясни цели: да отслабят противниците на Кремъл, както външни, така и вътрешни, чрез манипулиране на информацията. Независимо дали става дума за изкривяване на изборни дебати, разединяване на общества, подобряване на имиджа на Русия или потискане на несъгласието, общата тема е информацията като оръжие. Или, както Тереза Мей каза в публично предупреждение към Москва: „Знаем какво правите. И няма да успеете.“ washingtonpost.com

Забележителни операции: От изборите в САЩ до войната в Украйна

През последното десетилетие руските тролски ферми бяха свързвани с мащабни операции за влияние по целия свят, често в тандем с други кибер и разузнавателни дейности. Някои от най-значимите случаи включват:

  • Вмешателство в изборите в САЩ през 2016 г.: Кампанията на ИРА за намеса в американските президентски избори през 2016 г. е класическият пример за намеса на тролска ферма. Още от 2014 г. троловете от Санкт Петербург създават обширна мрежа от фалшиви профили във Facebook, Twitter, Instagram, YouTube и Reddit – представяйки се за либерални активисти, консервативни избиратели, поддръжници на Black Lives Matter, южни сепаратисти, мюсюлмански групи, каквото се сетите spyscape.com, en.wikipedia.org. Тези акаунти публикуват милиони постове с цел разпалване на двете страни по разделящи обществото теми (расови отношения, права за оръжие, имиграция) и очерняне на Хилари Клинтън, докато подкрепят Доналд Тръмп. Дори създават Facebook страници за измислени организации и купуват реклами, насочени към ключови демографски групи в колебаещи се щати businessinsider.com. До изборния ден съдържанието от страници, контролирани от ИРА, е достигнало до над 126 милиона американци във Facebook, според по-късни разкрития, а тролските им туитове са цитирани от основните медии. Целта, както е описано в американските обвинителни актове, е била „да се сее раздор в американската политическа система“ и в крайна сметка да се помогне за избирането на по-благоприятен за Кремъл кандидат washingtonpost.com. Американските разузнавателни агенции заключават, че тази операция за влияние, ръководена от руското правителство, бележи нова ера на информационна война. През 2018 г. Министерството на финансите на САЩ санкционира ИРА и Пригожин за тази намеса businessinsider.com, а специалният прокурор Робърт Мълър повдига обвинения срещу 13 служители на ИРА. Макар никой да не е изправен пред съд (тъй като остават в Русия), обвинителният акт разкрива подробности за това как тролската ферма е организирала митинги, крала е американски самоличности и е експлоатирала алгоритмите на социалните мрежи в невиждан мащаб businessinsider.com, spyscape.com.
  • 2018–2020: Продължаващи операции на САЩ и Африка: Въпреки негативната реакция от 2016 г., руските тролове не прекратиха дейността си. В навечерието на изборите в САЩ през 2020 г., ИРА експериментира с възлагане на тролене на английски език на подставени лица в Африка. В един забележителен случай, разкрит през 2020 г., тролска ферма в Гана и Нигерия (предполагаемо управлявана от руски координатори) е оперирала десетки акаунти в социалните мрежи, представяйки се за афроамерикански активисти и публикувайки по расови въпроси с цел да предизвикат разделение в САЩ newslit.org. Facebook и Twitter, предупредени от изследователи и CNN, в крайна сметка деактивираха мрежата newslit.org. Междувременно американското разузнаване предупреди, че Русия продължава да разпространява подвеждащи наративи по време на кампанията през 2020 г. – макар че по-строгият мониторинг на платформите и високата обществена осведоменост затрудниха троловете да имат същия ефект като през 2016 г. Забележително е, че ИРА също се адаптира, създавайки „франчайзи“: вместо да управляват всички акаунти от Санкт Петербург, те предоставяха съдържание и насоки на симпатизиращи или наети лица в чужбина, които са по-трудни за проследяване. Например отделни обвинения в САЩ през 2020 г. разкриха руски опит да се наемат американци (включително политически активист във Флорида) за публикуване на статии, написани от фалшиви персони, и за организиране на протести. Така наръчникът на тролската ферма се развиваше, но целите оставаха същите. Киберкомандването на САЩ дори предприе стъпката да хакне сървърите на ИРА в края на 2018 г., за да наруши дейността им по време на междинните избори, временно изваждайки тролската фабрика от строя spyscape.com. Почивката беше временна – според доклади те се прегрупираха по-късно – но това показа, че западните правителства са все по-склонни да предприемат офанзивни действия срещу троловете.
  • 2016–2017 Брекзит и европейски кампании: В Европа руските тролове се насочиха към ключови събития като референдума за Брекзит във Великобритания през 2016 г. и президентските избори във Франция през 2017 г. Във Великобритания разследвания установиха, че свързани с Кремъл акаунти в Twitter (включително известни профили на ИРА, идентифицирани от Twitter) са разпространявали про-Брекзит послания и провокативни истории за имиграцията в навечерието на вота washingtonpost.com. Масштабът беше по-малък отколкото в САЩ, което накара анализаторите да преценят, че руските тролове не са повлияли решително на резултата от Брекзит, но намерението за намеса беше очевидно washingtonpost.com. Едновременно с това, по време на изборите във Франция през 2017 г., руски оперативни лица (чрез тролове и хакери) разпространиха и засилиха т.нар. “Макрон лийкс” – изтичане на хакнати имейли от кампанията на кандидата Еманюел Макрон – заедно с дезинформация за Макрон, в опит да помогнат на крайнодясната му опонентка Марин Льо Пен. Френски кибернаблюдатели установиха, че много от акаунтите в социалните мрежи, които разпространяваха #MacronLeaks в Twitter, са били новосъздадени или свързани с руски мрежи за влияние. В Германия властите се подготвяха за подобна намеса около федералните избори през 2017 г. Макар голяма тролска кампания там да не се осъществи (вероятно възпряна от предупрежденията на германското правителство), руската намеса беше заподозряна в други инциденти – като пропагандната история от 2016 г., в която лъжливо се твърдеше, че руско-германско момиче „Лиза“ е било изнасилено от мигранти в Берлин, която беше широко разпространявана в руските социални мрежи и предизвика протести. Европейските лидери обърнаха внимание: до края на 2017 г. премиерът Мей публично обвини Русия в намеса из цяла Европа, а испанският премиер Мариано Рахой разкри данни, че по време на кризата с независимостта на Каталуния през 2017 г. голяма част от фалшивата онлайн активност е идвала от Русия или Венецуела washingtonpost.com. Всички тези усилия обслужваха интереса на Москва за отслабване на ЕС и НАТО чрез засилване на националистически и сепаратистки движения.
  • Пропаганда в Украйна и съседните държави: Използването на тролски ферми от Русия за първи път набра скорост по време на нейните интервенции в близката чужбина. Когато Русия анексира Крим през 2014 г. и разпали война в Източна Украйна, армия от тролове започна да работи онлайн, за да оправдае действията на Москва и да очерни украинското правителство. Социалните мрежи на руски език, както и западните платформи, бяха залети с повтарящи се съобщения, повтарящи кремълските наративи: че правителството в Киев е „фашистка хунта“, че се извършват зверства (често измислени) срещу рускоговорящи, и че западните санкции ще се обърнат срещу самия Запад. Тези тролове се стремяха да „залеят пространството“ с версията на Кремъл за събитията, затруднявайки обикновените наблюдатели да различат истината. Превъртаме напред до 2022 г. и пълномащабното нахлуване в Украйна: руските тролове отново се активираха в глобален мащаб. Само дни след инвазията анализатори идентифицираха мрежи от неавтентични акаунти в Twitter, TikTok и Instagram, които разпространяваха дезинформация – като твърдения, че кадрите от бомбардирани украински градове са фалшиви propublica.org. Изследователи от ProPublica и Университета Клемсън проследиха десетки акаунти на руски език, които през март 2022 г. едновременно публикуваха едно и също подвеждащо видео (невярно „разкриващо“ инсценирана сцена с цивилни жертви в Украйна) – отличителен белег на координирана тролска операция propublica.org. Тези акаунти показваха ясни следи от IRA, включително работно време, съобразено с московската часова зона, и почивки през уикендите и руските празници propublica.org. С напредването на войната съдържанието на троловете се адаптираше: първоначално в объркване, после повтаряйки официалната пропаганда, обвинявайки НАТО за войната и отричайки всякакви руски военни неуспехи propublica.org. Троловете също така насочваха съдържание към международна аудитория, за да отслабят подкрепата за Украйна – спореха в западни коментари, че санкциите срещу Русия вредят повече на Европа, или усилваха крайнодесни гласове в Европа, които се противопоставяха на въоръжаването на Украйна theguardian.com. В едно изследване, финансирано от Обединеното кралство, анализаторите отбелязаха, че тролската операция в Санкт Петербург (Cyber Front Z) черпи вдъхновение от конспиративни движения като QAnon в начина, по който разпространява посланията си и се опитва да мобилизира симпатизанти онлайн theguardian.com. Войната в Украйна така е съпътствана от паралелна информационна война, като руските тролски ферми играят централна роля в разпространението на „провоенни лъжи“ по целия свят <a href=“https://www.theguardian.com/world/2022/may/01/troll-factory-spreading-russian-pro-war-lies-online-says-theguardian.com. Тяхното въздействие е очевидно в устойчивостта на пронемски наративи в някои сегменти на общественото мнение, въпреки фактическите репортажи, които ги опровергават.
  • Пандемията от COVID-19 и други глобални проблеми: Руските тролове опортюнистично се възползваха от глобални кризи и противоречия – от пандемията от COVID-19 до протестите за социална справедливост – като плодородна почва за дезинформация. По време на пандемията, акаунти на тролове, свързани с държавата, разпространяваха множество конспиративни теории – твърдейки, че коронавирусът е американско биологично оръжие, насърчавайки антиваксърска дезинформация и засилвайки недоверието към обществените здравни институции thebulletin.org. Целта не беше да се представи последователна алтернатива, а да се „засили съмнението“ и дисфункцията в западните общества в момент на несигурност thebulletin.org. По подобен начин, през 2020 г., когато САЩ станаха свидетели на исторически протести за расова справедливост, руските тролски ферми удвоиха усилията си да разпалят расови разделения – от една страна, представяйки се за крайнодесни гласове, осъждащи протестите, а от друга – като леви активисти, насърчаващи по-крайни настроения, като по този начин играят и от двете страни, за да подхранват хаоса. Тези случаи показват, че отвъд политиката и войната, всеки разделящ въпрос може да се превърне в бойно поле за тролски операции за влияние. От дебатите за климатичните промени до задължителните ваксини, руските тролове са вкарвали фалшиви твърдения, за да направят дискурса токсичен. Като задълбочават поляризацията на всички фронтове, те допълнително подпомагат целта на Москва за отслабен и разединен Запад.

Експертни мнения и разкрития

Множество разследвания от журналисти, академици и разузнавателни агенции повдигнаха завесата над руските тролски ферми. Експертите подчертават, че тези операции са нов вид заплаха, с която демокрациите трябва да се справят. „2016 беше само началото,“ отбелязва един репортаж на PBS – оттогава онлайн операторите на Кремъл са станали по-усъвършенствани и по-добри в имитирането на истински хора pbs.org.

Изследователи, които изучават тактиките на трол ферми, са предоставили поразителни наблюдения. Дарън Линвил, професор в Университета Клемсън, е прекарал години в анализиране на акаунти на ИРА. Той отбелязва характерни модели: „По време на руските празници и през уикендите активността [на определени трол акаунти] намаляваше,“ което показва, че постващите са на заплата с работен график, а не истински доброволци spyscape.com. Анализът на неговия екип с ProPublica потвърди, че публикациите от подозирани акаунти на ИРА се появяват в „определени часове, съответстващи на работния ден на ИРА.“ spyscape.com. С други думи, истинските активисти на местно ниво не си взимат почивка през уикендите едновременно – но служителите на трол фабриките го правят. Линвил заключава, „Тези акаунти показват всички индикатори, които имаме, че произхождат от Агенцията за интернет изследвания.“ spyscape.com Ако по някаква случайност не са от ИРА, той се пошегува, „това е по-лошо, защото не знам кой го прави.“ propublica.org. Неговият анализ подчертава колко последователна и професионализирана е станала руската машина за дезинформация.

Вътрешни разкази също хвърлят светлина върху операциите. Смелото разобличаване на журналистката Людмила Савчук през 2015 г. предостави първи поглед вътре в офисите на „трол фабриката“ на ИРА. Тя описва почти сюрреалистична среда: млади служители в кубикли, които неуморно публикуват под фалшиви самоличности, с пропагандни указания, раздавани като редакционни задачи всяка сутрин. „В началото не можех да повярвам, че е истинско… беше като културен шок,“ разказва друг под прикритие пред Радио Свободна Европа rferl.org. Те говорят за атмосфера на поточна линия, където креативността се цени по-малко от подчинението на дневните тематични наративи, зададени от ръководителите.

Западните правителства станаха по-гласовити в осъждането на тази дейност. През април 2022 г. британската външна министърка Лиз Тръс осъди новата руска тролска кампания около войната в Украйна, заявявайки: „Не можем да позволим на Кремъл и неговите сенчести тролски ферми да нахлуят в нашите онлайн пространства със своите лъжи за незаконната война на Путин.“ theguardian.com. Британското правителство дори публично финансира изследване на операцията в Санкт Петербург и сподели резултатите със социалните мрежи, за да улесни мерките срещу тях theguardian.com. Същото изследване разкри готовността на троловете да иновират – например, като усилват легитимни публикации от реални потребители, които случайно съвпадат с възгледите на Кремъл, като по този начин избягват лесното разкриване, тъй като съдържанието не винаги е измислено theguardian.com. Тази игра на котка и мишка между тролските ферми и модераторите на платформите е нещо, за което разузнавателните агенции са напълно наясно. В САЩ ФБР и Министерството на вътрешната сигурност многократно са предупреждавали, че руските агенти се адаптират бързо към забраните на платформите, появявайки се отново с нови акаунти и нови тактики.

Официален представител на ФБР през 2020 г. отбеляза, че руските оперативни работници са „постоянни и креативни“, използвайки подставени лица и проксита, за да прикрият участието си, след като социалните мрежи започнаха масово да забраняват акаунти. Например, след като Facebook и Twitter изтриха хиляди акаунти на IRA след 2016 г., троловете се появиха отново чрез трети страни (както се вижда при операцията в Гана) или като преминаха към алтернативни платформи с по-слаба модерация. Тяхната устойчивост накара Министерството на правосъдието на САЩ през 2020 г. да санкционира още лица и дори сайтове, свързани с тролски ферми (като SouthFront и NewsFront), за да прекъсне финансирането и хостинга им.

Мозъчни тръстове и академици също така подчертават развиващите се технологични инструменти, с които разполагат троловете. Доклад от 2018 г. на Institute for the Future предупреди, че тролингът в голям мащаб трябва да се третира като нарушение на човешките права заради вредата, която нанася на обществата, но изрази съжаление за липсата на механизми за наказване на извършителите newslit.org. Прескачайки към 2024 г., анализаторите отбелязват, че съдържанието, генерирано от изкуствен интелект, е новата граница. В проучване на ЕС за дезинформация експерти посочиха, че по-ранните руски тактики „разчитаха на по-нискотехнологични стратегии като трол ферми и бот мрежи,“ докато през 2024 г. кампаниите все повече използват генеративен изкуствен интелект за създаване на „хипер-таргетирано съдържание“, което е по-трудно за разпознаване carleton.ca. Руските операции за влияние вече използват изкуствен интелект за генериране на реалистични дийпфейк изображения, видеа и текст в голям мащаб, което позволява още по-мощни фалшиви наративи. Европейската служба за външна дейност отбеляза през 2023 г., че много от последните кампании за дезинформация на Кремъл, включително така наречените „Doppelgänger“ информационни операции (които клонират истински новинарски сайтове, за да разпространяват фалшиви истории), могат да бъдат проследени до субекти, финансирани от руски държавни агенции и сега подсилени с AI възможности carleton.ca. Това подчертава, че моделът на трол фермите не е статичен – той непрекъснато усъвършенства техниките си, от обикновени копи-пейст мемета през 2016 г. до съдържание, създадено от изкуствен интелект през 2024 г. и след това.

2024–2025: Последни развития и перспективи

Към 2024 и 2025 г. операциите на руските фабрики за тролове остават подвижна цел, реагирайки на геополитически събития и вътрешни промени във властта. Едно драматично развитие беше съдбата на самата Internet Research Agency. През юни 2023 г. Евгений Пригожин – основателят на IRA – организира кратък бунт срещу военното ръководство на Русия със своите наемнически сили на Вагнер. Провалът на бунта и последвалата смърт на Пригожин при подозрителна самолетна катастрофа (август 2023 г.) доведоха до това, че Кремъл овладя неговите разрастващи се предприятия. Появиха се съобщения, че до юли 2023 г. операциите на IRA в Санкт Петербург официално са били прекратени след падането на Пригожин в немилост businessinsider.com. Всъщност, собствената медийна група на Пригожин, Patriot Media, обяви, че „напуска информационното пространство на страната“, тъй като правителството започна да разгражда неговите органи на влияние businessinsider.com. Самият Пригожин дори потвърди в интервю малко преди това, че е създал и ръководил IRA, очевидно търсейки признание за нейната „патриотична“ мисия spyscape.com. До началото на юли 2023 г. руските държавни медии съобщиха, че ber infamous troll farm had been disbanded – развитие, отбелязано и от западни изданияbusinessinsider.com.

Въпреки това, този „край“ на ИРА не означаваше край на руските тролски операции. Анализаторите смятат, че Кремъл просто е абсорбирал или преструктурирал тези възможности в други ръце. Доклад на Google’s Threat Analysis Group от март 2024 г. отбелязва, че докато директната дейност на ИРА в платформите на Google е намаляла след смъртта на Пригожин, компоненти на кампаниите за влияние, свързани с Пригожин, „остават жизнеспособни“ и вероятно продължават под различно управление cloud.google.com. Изследователи от Mandiant отбелязват, че няколко дългогодишни руски информационни операции са показали „неравномерна степен на промяна“ след Пригожин, с известни смущения, но много активи все още са активни, което предполага, че Кремъл е преразпределил контрола, вместо да ги спре напълно cloud.google.com. Забележително е, че през цялата 2023 г. Google и Meta продължиха да премахват голям брой фалшиви акаунти, свързани с руски дезинформационни мрежи. Google съобщи за над 400 действия по прилагане на мерки през 2023 г. срещу операции за влияние, свързани с ИРА cloud.google.com. А в края на 2024 г., преди ключови избори, американските служители все още биеха тревога: ФБР и други агенции предупредиха, че Русия напълно възнамерява да се намеси в президентските избори в САЩ през 2024 г. чрез манипулация в социалните медии, дори ако стратегията трябва да бъде променена без оригиналния център на ИРАreuters.com.

Всъщност, опити за намеса в изборите вече са били наблюдавани в навечерието на 2024 г. Един ярък пример се появи през октомври 2024 г., когато служители в щата Джорджия, САЩ, сигнализираха за вирусно дезинформационно видео, което невярно твърди, че показва „нелегален имигрант“, който се хвали, че е гласувал многократно. Офисът на държавния секретар на Джорджия директно заяви: „Това е невярно… Вероятно става дума за чужда намеса, която се опитва да посее раздор и хаос в навечерието на изборите.“ reuters.com Те призоваха социалните мрежи да премахнат видеото, като отбелязаха, че „Вероятно това е продукция на руски трол ферми.“ reuters.com. Този инцидент – случил се точно преди напрегнати избори в САЩ – показва, че руските тролове все още са в играта през 2024 г., използвайки измамни вирусни видеа в платформи като X (Twitter), за да подкопаят доверието в гласуването reuters.com. Федерални агенции като CISA разследваха случая, а той послужи като напомняне, че дори и без първоначалното ръководство на IRA, апаратът за руско онлайн влияние може бързо да създаде нови ad hoc кампании при нужда.

Гледайки напред към 2025 г., експертите смятат, че операциите на руските трол ферми ще продължат да се адаптират, вместо да изчезнат. С Москва, затънала в продължителна война в Украйна и изправена пред вътрешни напрежения, Кремъл има силен стимул да продължи да използва „евтиното, но ефективно“ оръжие на онлайн манипулацията. Можем да очакваме руските оператори да възприемат още повече нововъзникващи технологии – особено изкуствен интелект. Европейски анализатори отбелязват, че към края на 2024 г. самият мащаб и скорост на руската дезинформация са се увеличили благодарение на генеративни AI инструменти, което прави фалшивото съдържание по-лесно за масово производство carleton.ca. Това означава, че бъдещите тактики на трол фермите може да включват AI-генерирани „хора“ (за напълно реалистични профилни снимки и дори deepfake видео коментари), както и алгоритмично насочена пропаганда, таргетираща конкретни общности с прецизност. Надпреварата между платформите и троловете вероятно ще се засили: докато компаниите стават по-добри в забраняването на известни тролски подписи, троловете използват AI, за да създават все по-убедителни персонажи и съдържание.

На геополитическата сцена руските тролски ферми (под каквато и да е нова форма) вероятно ще се насочат към всякакви големи събития, свързани с интересите на Кремъл. Предстоящи избори в западни държави, дебати относно подкрепата за Украйна и дори въпроси като енергийни кризи или международни конфликти могат да се превърнат в арена за нови дезинформационни офанзиви. Агенциите за сигурност на Европейския съюз засилиха наблюдението си върху „Чужда информационна манипулация и намеса“ (FIMI), като периодично публикуват доклади за заплахи, които почти винаги подчертават руските операции. Представители на НАТО и ЕС предупреждават, че Русия ще се опита да раздели западното единство по въпроса за Украйна, като подхранва екстремистки и изолационистки наративи чрез социалните медии (например, популяризиране на гласове, които се противопоставят на помощта за Украйна или подкрепят политики, благоприятни за Русия). Наистина, изборите за Европейски парламент през 2024 г. бяха белязани от вълна от послания – включително клонирани фалшиви новинарски сайтове в кампания „Doppelgänger“ – разпространяващи антиукраински и антиевропейски теми, които анализаторите свързаха с руски дезинформационни структури carleton.ca. Влиянието на тези усилия е трудно за измерване, но те съвпаднаха с успехи на крайнодесни, проруски политически блокове, което показва известен ефектcarleton.ca.

Във вътрешната сфера на Русия Кремъл вероятно ще запази строг контрол върху наратива с всички възможни средства – включително тролски ферми или техни наследници. След метежа на Пригожин, Путин осъзна риска да позволи на частен актьор да контролира твърде голяма част от пропагандната машина. Не би било изненадващо, ако руските служби за сигурност (като ФСБ или военното разузнаване) са поели части от тролските операции, за да гарантират лоялност и пряк надзор. Тонът на руското вътрешно тролене от края на 2023 г. се промени, за да изтрие спомена за Пригожин (заради предателството му) и да засили авторитета на Путин на фона на предизвикателствата на войната tandfonline.com. Всеки руснак, който изрази умора от войната или критикува правителството онлайн, може да очаква да бъде нападнат от „патриотични“ коментатори – в много случаи тролове – които го обявяват за предател, с което се потиска несъгласието. Това показва, че тактиката с тролските ферми остава стълб на вътрешната пропаганда, просто по-централизирана от държавата.

В заключение, руските тролски ферми са се развили от маргинален експеримент до пълноценен инструмент на държавната власт в епохата на информацията. Те функционират като пропагандни фабрики на 21-ви век, които бълват лъжи, страх и раздор с едно щракване на мишката. През последното десетилетие те се намесваха в избори, разпалваха конфликти и замърсяваха безброй онлайн дискусии. И въпреки по-голямата публичност и санкции, те не показват признаци на спиране – само променят формата си. Докато отворените общества разчитат на онлайн платформи за новини и дебати, троловете на Кремъл ще се стремят да се възползват от тази откритост. Борбата с тази заплаха ще изисква постоянна бдителност, обществена осведоменост и международно сътрудничество. Светът се събуди за тактиките на руските тролски ферми; предизвикателството сега е да се предотврати тези „дигитални войници“ да отвлекат глобалния разговор чрез манипулация и злонамереност.

Former Russian trolls expose misinformation operations

Latest Posts

Don't Miss

48 Hours of Mobile Mayhem: Foldables, Flagships & Future Tech Unveiled

48 часа мобилен хаос: Сгъваеми, флагмани и технологии на бъдещето разкрити

Ключови факти Премиери и изтичания на информация за смартфони (4–5
Biotech 2025: Breakthrough Cures, Super Crops, and a Green Tech Revolution

Биотехнологии 2025: Пробивни лечения, суперкултури и зелена технологична революция

Световният пазар на биотехнологиите се очаква да нарасне от около