- A Agência de Pesquisa da Internet (IRA), a principal fazenda de trolls da Rússia, está sediada em São Petersburgo e foi fundada por volta de 2013, crescendo para cerca de 400 funcionários em 2015, trabalhando em turnos de 12 horas.
- Os funcionários da IRA operavam sob cotas rigorosas: 5 postagens políticas, 10 postagens não políticas e 150–200 comentários por turno.
- Os trolls ganhavam cerca de 40.000 rublos por mês (cerca de US$ 700–US$ 800) e eram pagos em dinheiro.
- Eles mascaravam suas origens com VPNs, servidores proxy, fotos de perfil roubadas ou geradas por IA e identidades falsas para parecerem autênticos.
- A operação fazia parte do Projeto Lakhta, um guarda-chuva ligado ao Kremlin que incluía o Patriot Media Group, proprietário da Federal News Agency (RIA FAN) e outros veículos usados para lavar propaganda, posteriormente citados em sanções dos EUA.
- Na eleição presidencial dos EUA de 2016, a IRA conduziu uma campanha multiplataforma no Facebook, Twitter, Instagram, YouTube e Reddit, alcançando mais de 126 milhões de americanos e levando à acusação de 13 operativos da IRA em 2018, com sanções contra o grupo.
- Durante 2016–2017, operativos da IRA se passando por ativistas americanos organizaram manifestações reais nos Estados Unidos, incluindo um protesto na cidade de Nova York em apoio a Donald Trump e outro contra ele no mesmo dia.
- De 2018 a 2020, a IRA terceirizou a trollagem em inglês para a África, operando uma rede em Gana e Nigéria se passando por ativistas negros americanos, que o Facebook e o Twitter posteriormente desativaram em 2020.
- Em 2022, surgiu em São Petersburgo o grupo público Cyber Front Z, coordenando-se via Telegram, operando a partir de uma antiga fábrica de armas e pagando influenciadores do TikTok para amplificar pontos de vista do Kremlin enquanto realizava brigading e manipulação de enquetes.
- Em 2024, campanhas de IA e Doppelgänger tornaram-se centrais, com o Google relatando mais de 400 ações de fiscalização em 2023 contra redes de influência ligadas à IRA e analistas observando operações contínuas após o motim e morte de Prigozhin em 2023.
O que são fazendas de trolls? O motor da desinformação
Fazendas de trolls são grupos organizados de operadores online pagos que usam identidades falsas para inundar a internet com propaganda e conteúdo divisivo. Operando em ambientes semelhantes a escritórios, essas equipes criam perfis falsos que se passam por pessoas reais, postando em redes sociais, comentários de notícias e fóruns. Seu objetivo é manipular a opinião pública – alguns trolls promovem mensagens mostrando falso apoio popular a certas ideias, enquanto outros espalham boatos projetados para semear confusão e desconfiança nas instituições newslit.org. Muitas vezes trabalhando em turnos coordenados, os funcionários das fazendas de trolls postam comentários inflamados, “notícias” enganosas e teorias da conspiração em grande escala, amplificando pontos de vista extremos muito além do alcance orgânico. Muitos usam contas sockpuppet (múltiplas identidades online), às vezes auxiliados por bots sociais (contas automatizadas), para fazer parecer que inúmeras pessoas comuns compartilham essas opiniões extremas en.wikipedia.org. Na realidade, um punhado de operadores pode estar por trás de centenas de contas – uma linha de montagem secreta de propaganda produzindo desinformação sob demanda.
Enquanto o conceito parece enredo de ficção científica, as fazendas de trolls são muito reais e foram transformadas em armas por Estados. A Rússia, em particular, adotou notoriamente as fazendas de trolls como uma ferramenta central de seu arsenal de guerra da informação. Ao inundar espaços online com narrativas pró-Kremlin e comentários hostis, as fazendas de trolls russas visam distorcer percepções e minar o discurso em países-alvo. Suas atividades vão desde interferência em eleições e agitação política no exterior até o reforço da propaganda em casa. A maior parte do mundo soube das fazendas de trolls russas quando veio à tona a notícia de sua interferência na eleição presidencial dos EUA de 2016 newslit.org. No entanto, a tática é anterior a 2016 e não é exclusiva da Rússia – outros governos e grupos copiaram métodos semelhantes. Ainda assim, são as operações russas que estabeleceram o modelo para a fazenda de trolls moderna: patrocinada pelo Estado, centralmente organizada e de alcance global. Empresas de redes sociais têm tido dificuldades para conter essas contas falsas, ocasionalmente removendo grandes redes (por exemplo, Facebook e Twitter removeram uma rede de trolls russa baseada em Gana em 2020, que havia conquistado mais de 300.000 seguidores enquanto inflamava tensões raciais nos EUA newslit.org). No entanto, isso provavelmente representa apenas “a ponta do iceberg” newslit.org. As fazendas de trolls continuam a evoluir, encontrando novas formas de escapar da detecção e explorar plataformas online.Dentro das Fábricas de Trolls da Rússia: Organização e Principais Atores
A fazenda de trolls mais notória da Rússia é a Internet Research Agency (IRA), uma empresa com sede em São Petersburgo que já foi liderada e financiada pelo oligarca Yevgeny Prigozhin – um aliado próximo de Putin, frequentemente apelidado de “chef de Putin”. A IRA (conhecida na gíria russa como os “trolls de Olgino”) foi fundada por volta de 2013 e se transformou em uma operação profissionalizada com centenas de funcionários spyscape.com. Em 2015, a IRA supostamente tinha cerca de 400 funcionários trabalhando em turnos de 12 horas, incluindo um grupo de elite de cerca de 80 trolls fluentes em inglês dedicados exclusivamente a atacar o sistema político dos EUA spyscape.com. Parecia uma agência de marketing online – mas dedicada aos objetivos do Kremlin. Uma equipe de gestão supervisionava vários departamentos (design gráfico, TI, otimização de mecanismos de busca, finanças, etc.) e acompanhava métricas obsessivamente spyscape.com. Segundo uma investigação do Senado dos EUA, os gerentes até monitoravam os funcionários por meio de câmeras de segurança e eram “obcecados” por visualizações de página, curtidas e cotas de comentários como medidas de influência spyscape.com.A vida como um troll russo foi descrita por pessoas de dentro como um trabalho de escritório de alta pressão. Lyudmila Savchuk, uma jornalista que se infiltrou no IRA, revelou que cada troll tinha cotas diárias rigorosas – por exemplo, 5 postagens políticas, 10 postagens não políticas (para parecer autêntico) e 150-200 comentários em outros conteúdos por turno spyscape.com. Os trolls trabalhavam longas horas por um salário modesto (cerca de 40.000 rublos, aproximadamente US$700-800 por mês) e eram pagos em dinheiro spyscape.com. Eles operavam em “equipes” secretas focadas em diferentes públicos-alvo e tópicos. Por exemplo, grupos separados eram designados para política dos EUA, questões europeias, Ucrânia, etc., cada um elaborando mensagens adaptadas a esses públicos. Ex-funcionários do IRA relataram ter recebido instruções para assistir a programas populares de TV americanos como House of Cards para aprender referências culturais dos EUA spyscape.com. Eles recebiam treinamento em inglês e guias sobre gírias americanas para se passarem melhor por comentaristas genuínos dos EUA spyscape.com. Para esconder suas origens russas, usavam VPNs e servidores proxy para mascarar sua localização e criavam cuidadosamente identidades falsas (com fotos de perfil roubadas ou geradas por IA, detalhes de “cidade natal” e nomes realistas) spyscape.com. Ao longo de semanas e meses, essas contas falsas gradualmente construíam uma identidade e seguidores – entrando em grupos do Facebook, tuitando sobre a vida cotidiana ou esportes – antes de mudarem para a propaganda política quando já eram consideradas críveis. “Com o tempo, essas contas ganham seguidores e se tornam mais influentes,” observa um relatório spyscape.com.
A IRA de Prigozhin não operava isoladamente, mas como parte de um ecossistema maior de influência ligado ao Kremlin. Jornalistas russos e acusações nos EUA expuseram um esforço abrangente chamado “Projeto Lakhta”, sob o qual a IRA e entidades relacionadas trabalhavam para “perturbar o processo democrático dos EUA, espalhar desconfiança, incitar agitação civil e polarizar os americanos” – especialmente agravando divisões raciais e sociais spyscape.com. Para possibilitar a negação plausível, esse projeto utilizava uma rede de empresas de fachada e frentes de mídia. Por exemplo, o conglomerado de Prigozhin, “Patriot Media Group”, era dono da Federal News Agency (RIA FAN) e de outros sites pseudo-noticiosos que disseminavam propaganda, ao mesmo tempo em que serviam de cobertura para operações secretas de trolls cloud.google.com. As entidades do Projeto Lakhta incluíam a própria IRA e sites “noticiosos” nominais como Nevskiy News, Economy Today e International News Agency, todos posteriormente citados em sanções dos EUA por hospedarem atividades de desinformação spyscape.com. Essa mistura difusa de veículos de propaganda abertos e equipes ocultas de trolls permitiu que as operações de influência russas “lavassem” desinformação – por exemplo, um troll plantava uma história falsa usando uma persona falsa, que depois era publicada pelos sites da Patriot Media como “notícia” e, finalmente, amplificada por outros trolls e bots.
Notavelmente, as operações de trolls da Rússia foram além de teclados e telas. A IRA e seus associados às vezes contratavam moradores locais desavisados nos países-alvo para organizar eventos no mundo real que correspondiam à sua agitação online. Investigadores dos EUA descobriram que, em 2016–2017, operadores da IRA se passando por ativistas americanos conseguiram organizar manifestações políticas reais nos Estados Unidos – chegando a organizar um protesto em Nova York apoiando Donald Trump e outro contra ele no mesmo dia, para maximizar a divisão spyscape.com. Os trolls russos se faziam passar por organizadores de base, recrutando americanos reais por meio de grupos no Facebook e pagando-os para carregar faixas ou construir adereços, enquanto esses cidadãos não faziam ideia de que estavam respondendo a ordens russas spyscape.com. Essa tática – usar trolls para criar movimentos de base falsos “AstroTurf” – mostra até onde essas operações de influência podem chegar. Ao combinar desinformação online com ação offline, buscavam transformar a raiva virtual em caos real.
A Agência de Pesquisa da Internet tornou-se notória mundialmente depois que sua interferência na política dos EUA veio à tona. Em 2018, o Departamento de Justiça dos EUA indiciou operativos da IRA por interferência criminosa na eleição de 2016, detalhando como eles criaram milhares de contas em redes sociais (posando como americanos de todos os tipos), alcançaram milhões de pessoas com memes e notícias falsas, e até financiaram anúncios políticos e comícios businessinsider.com. (O uso de identidades americanas roubadas e fraude financeira pela IRA para financiar operações levou a acusações adicionais businessinsider.com.) Embora a Rússia tenha negado as acusações, Prigozhin eventualmente admitiu seu papel: “Nunca fui apenas um financiador da IRA. Eu a inventei, eu a criei, eu a gerenciei por muito tempo,” gabou-se Prigozhin no início de 2023, alegando que ela foi fundada para “proteger o espaço informacional russo da… agressiva propaganda antirrussa do Ocidente.” spyscape.com. Essa confissão franca do mentor destaca a dupla missão da IRA – atacar os adversários da Rússia online enquanto protege o Kremlin em casa.
Além do IRA, outras operações de trolls surgiram ou evoluíram na Rússia. Em 2022, após a Rússia lançar sua invasão em grande escala à Ucrânia, um novo grupo sediado em São Petersburgo autodenominado “Cyber Front Z” começou a recrutar abertamente colaboradores “patrióticos” para inundar a internet com comentários pró-guerra theguardian.com. Instalado em um espaço alugado dentro de uma antiga fábrica de armas, essa “fábrica de trolls” (como descrito pela inteligência do Reino Unido) foi ligada à rede de Prigozhin e coordenada por meio de um canal no Telegram chamado “Cyber Front Z” theguardian.com. Os operadores do Cyber Front Z miraram páginas de líderes ocidentais nas redes sociais e seções de comentários de sites de notícias, sequestrando discussões para elogiar Putin e demonizar a Ucrânia theguardian.com. Segundo pesquisa citada pelo governo do Reino Unido, eles chegaram a pagar certos influenciadores do TikTok para amplificar os discursos do Kremlin theguardian.com. Isso sugere que as operações de trolls da Rússia se adaptaram a novas plataformas e públicos mais jovens – expandindo do Facebook e Twitter para o Instagram, YouTube e TikTok, onde pesquisadores encontraram altas concentrações de atividade em 2022 theguardian.com. Membros do Cyber Front Z engajaram-se em “brigading” coordenado, comentando em massa para direcionar conversas online para a linha do Kremlin, e até manipulando enquetes online (por exemplo, distorcendo votos em pesquisas de mídia ocidental sobre apoio a sanções contra a Rússia) theguardian.com. Ao contrário do sigiloso IRA, o Cyber Front Z era descaradamente público sobre seu patriotismo, justificando o trolling online como um dever cívico durante a guerra theguardian.com.
Ferramentas e Táticas: Como os Trolls Russos Espalham Propaganda
As fazendas de trolls russas empregam um amplo arsenal de técnicas para injetar e amplificar desinformação online. Algumas das principais ferramentas e táticas incluem:
- Personas Falsas e Contas Fantoches: Trolls criam centenas de identidades fictícias online, completas com fotos de perfil roubadas ou geradas por IA, e fingem ser cidadãos comuns en.wikipedia.org. Muitas vezes, eles até imitam a demografia local (por exemplo, se passando por americanos de diferentes orientações políticas, ou por europeus de países específicos) para se misturarem. Essas contas fantoches estão presentes em todas as principais plataformas – Facebook, Twitter (agora X), Instagram, YouTube, TikTok, Reddit e redes russas como VKontakte spyscape.com. Para evitar sinais óbvios de falsidade, os trolls publicam conteúdo regular não político nessas personas (conversas sobre esportes, fotos de comida, etc.) e copiam cuidadosamente comportamentos reais das redes sociais. Com o tempo, eles constroem credibilidade e então inserem propaganda ou conteúdo enganoso nas comunidades de dentro para fora.
- Amplificação em Redes Sociais & “Brigading”: Fazendas de trolls buscam fazer poucas vozes soarem como uma multidão. Eles coordenam ondas de postagens e comentários para que determinada narrativa domine as conversas ou entre em tendência artificialmente. Por exemplo, uma equipe de trolls pode responder simultaneamente ao tweet de um político com os mesmos argumentos, dando a falsa impressão de que o sentimento público é esmagadoramente unilateral. Em seções de comentários de notícias, eles se autoavaliam positivamente e acumulam respostas para abafar o debate genuíno theguardian.com. Em plataformas como o Facebook, trolls já administraram grandes páginas temáticas (por exemplo, “Fronteiras Seguras” ou grupos ativistas falsos) que atraíram seguidores reais, e então injetaram sutilmente propaganda polarizadora nesses feeds. Também já se sabe que eles sequestram hashtags ou lançam campanhas coordenadas de hashtags no Twitter para colocá-las nas listas de tendências. Ao coreografar postagens em dezenas de contas, fazendas de trolls podem fazer “brigading” em enquetes online, fóruns e feeds sociais para fazer ideias extremas parecerem populares theguardian.com.
- Bots e Redes Automatizadas: Além de personas operadas por humanos, as operações russas utilizam redes de bots – contas automatizadas ou semi-automatizadas – para amplificar sua mensagem. Esses bots podem retuitar ou compartilhar conteúdo milhares de vezes em minutos, distorcer algoritmos de tendências e assediar usuários-alvo. Durante várias eleições e eventos, investigadores encontraram enxames de tweets/publicações vindos de contas suspeitas de bots ligadas à Rússia washingtonpost.com. Por exemplo, a Espanha relatou uma “avalanche de bots” espalhando notícias falsas durante o referendo de independência da Catalunha em 2017, com mais da metade das contas de bots rastreadas até origens russas washingtonpost.com. Bots frequentemente amplificam as mensagens dos trolls curtindo e republicando em massa. A combinação de bots e trolls humanos faz a campanha parecer maior e mais orgânica do que realmente é – um multiplicador de força para a desinformação.
- Conteúdo de Desinformação & Manipulação de Mídia: Fábricas de trolls se especializam em produzir desinformação compartilhável – desde artigos de notícias falsas e imagens adulteradas até memes e vídeos enganosos. Frequentemente, operam sites pseudo-jornalísticos que produzem peças de propaganda, que os trolls então circulam em grupos e em comentários. Operadores russos já forjaram capturas de tela de tweets, falsificaram documentos governamentais e espalharam memes conspiratórios para apoiar suas narrativas. Nos últimos anos, também começaram a usar deepfakes e outras mídias geradas por IA. Um exemplo notório ocorreu em março de 2022, quando um vídeo deepfake do presidente ucraniano Volodymyr Zelensky foi divulgado, mostrando falsamente ele dizendo às tropas ucranianas para se renderem reuters.com. O vídeo era mal feito e rapidamente desmentido, mas especialistas alertaram que “poderia ser um prenúncio de enganos mais sofisticados por vir” reuters.com. Redes de trolls podem se aproveitar desse tipo de conteúdo falso – ou criar o seu próprio – e promovê-lo agressivamente para audiências desavisadas. Ao semear boatos virais (de alegações falsas de fraude eleitoral a curas falsas para COVID-19), eles visam enganar e inflamar o público.
- Cooptando Influenciadores e Vozes Locais: Outra tática é lavar propaganda por meio de vozes legítimas. Campanhas de influência russas já foram flagradas recrutando ou enganando terceiros desavisados – por exemplo, entrando em contato com jornalistas freelancers no exterior para escrever artigos que ecoam os pontos de vista do Kremlin, ou pagando influenciadores de redes sociais para promover certas narrativas theguardian.com. Em 2020, uma operação chamada “Peace Data” viu trolls russos criarem um falso portal de notícias online de esquerda e contratarem escritores freelancers reais (muitos no Ocidente) para contribuir com artigos, sem saberem a verdadeira afiliação da plataforma. De forma semelhante, pesquisadores do Reino Unido em 2022 descobriram que alguns influenciadores do TikTok e Instagram foram pagos para espalhar mensagens pró-Rússia sobre a Ucrânia theguardian.com. Ao se aproveitar da credibilidade de vozes locais, trolls podem disseminar propaganda de forma mais palatável, escondida em conteúdos que parecem independentes. Isso adiciona uma camada de negabilidade e dificulta a detecção, já que a mensagem vem de indivíduos aparentemente autênticos, e não de contas de trolls óbvias.
Em combinação, essas táticas permitem que fazendas de trolls russas conduzam “guerra de informação” em múltiplas frentes – injetando conteúdo falso ou tendencioso, amplificando-o artificialmente e distorcendo o ambiente informacional online. O objetivo final não é simplesmente convencer uma pessoa ou outra de uma mentira específica; é minar a confiança de modo geral – confiança na mídia, nos processos eleitorais, nas normas sociais – poluindo o discurso com tanta desinformação e hostilidade que a verdade objetiva e o debate saudável se tornam difíceis de encontrar. Como disse um especialista, essas operações de trolls são uma “ferramenta para Putin controlar narrativas” e abafar vozes dissidentes propublica.org. Seja inundando fóruns em russo com consenso pró-Kremlin ou bombardeando redes sociais ocidentais com teorias da conspiração, as fazendas de trolls buscam sufocar a verdade com ruído.
Objetivos: Por que o Kremlin Mantém Fazendas de Trolls
As campanhas das fazendas de trolls russas servem a objetivos estratégicos definidos pelo Kremlin, geralmente divididos nas categorias de influência política, desestabilização de adversários e guerra de propaganda. Os principais objetivos incluem:
- Minando Eleições e Processos Políticos: Uma missão primária dos trolls russos tem sido interferir em eleições democráticas no exterior. Seu papel agora infame na eleição dos EUA de 2016 visava polarizar os eleitores americanos, suprimir alguns votos e impulsionar resultados preferidos. Documentos internos do próprio IRA descreveram um esforço “para interferir em eleições e processos políticos” nos EUA. propublica.org. Da mesma forma, em votações europeias, a atividade de trolls russos buscou promover candidatos pró-Kremlin ou de extrema-direita e semear dúvidas sobre centristas pró-UE. A primeira-ministra britânica Theresa May alertou no final de 2017 que a Rússia estava tentando “minar sociedades livres e semear discórdia” no Ocidente ao empregar seus trolls e veículos de notícias falsas washingtonpost.com. Autoridades espanholas acusaram redes ligadas à Rússia de interferir no referendo da Catalunha na Espanha e notaram sobreposições na desinformação durante o Brexit e as eleições francesas, tudo com o objetivo de fragmentar a unidade europeia washingtonpost.com. Em essência, ao manipular a opinião pública durante eleições ou referendos estrangeiros, o Kremlin espera instalar líderes mais favoráveis, enfraquecer opositores internacionais ou simplesmente criar caos (já que o caos em democracias rivais é, por si só, uma vitória para Putin). Autoridades dos EUA disseram que o objetivo da Rússia é frequentemente “alimentar narrativas divisivas” em torno das eleições – explorando questões sensíveis como raça, imigração ou crime – para que as sociedades se voltem contra si mesmas reuters.com. Mesmo quando candidatos específicos não vencem, os trolls têm sucesso se convencerem cidadãos suficientes a duvidar da integridade da eleição ou a ressentir-se de seus concidadãos.
- Semeando Divisão e Desconfiança: Para além de uma única eleição, as fazendas de trolls russas trabalham para inflamar divisões existentes em países-alvo a longo prazo. Ao impulsionar constantemente conteúdos polarizadores sobre pontos sensíveis (esquerda vs. direita, urbano vs. rural, tensões étnicas e religiosas, etc.), eles tentam abrir ainda mais as fissuras de uma sociedade. Uma investigação do Senado dos EUA observou que um projeto da IRA focava fortemente em “promover questões socialmente divisivas com ênfase em divisões raciais e desigualdade” nos Estados Unidos spyscape.com. O objetivo é enfraquecer os adversários da Rússia internamente: uma nação mergulhada em conflitos internos é menos capaz de apresentar uma frente unida internacionalmente. Essa estratégia foi observada em todo o Ocidente – desde promover sentimentos separatistas na Catalunha, Espanha washingtonpost.com, até incitar indignação anti-imigrante e anti-UE na Europa, e ampliar a discórdia racial e controvérsias sobre vacinas nos EUA. Ao espalhar teorias da conspiração e retórica extrema, os trolls buscam fazer com que as pessoas percam a confiança nas fontes de informação tradicionais e até mesmo se voltem contra seus próprios governos. Como alertou o Secretário de Estado da Geórgia (EUA) em 2024, histórias falsas sobre fraude eleitoral que aparecem repentinamente nas redes sociais provavelmente são “interferência estrangeira tentando semear discórdia e caos” – frequentemente rastreadas até fazendas de trolls russas reuters.com.
- Apoiando a Política Externa e os Objetivos Militares Russos: As fazendas de trolls também servem como soldados digitais para a agenda geopolítica do Kremlin. Quando a Rússia está envolvida em conflitos ou crises, os trolls entram em ação para moldar a narrativa online. Por exemplo, desde a agressão inicial da Rússia na Ucrânia em 2014, e especialmente após a invasão em grande escala em 2022, os trolls russos têm espalhado vigorosamente propaganda pró-guerra. Eles amplificam alegações que justificam as ações da Rússia (como falsas acusações de agressão da OTAN ou de “nazistas” na Ucrânia) enquanto desprezam ou negam atrocidades cometidas pelas forças russas propublica.org. Uma pesquisa do Reino Unido em 2022 revelou uma operação coordenada de trolls para aumentar o apoio à invasão da Ucrânia por Putin, visando não apenas o público russo, mas também as redes sociais ocidentais com mensagens contra as sanções e a liderança da Ucrânia theguardian.com. Os trolls chegaram a mirar figuras de destaque – como inundar os comentários do Primeiro-Ministro do Reino Unido e de outros oficiais com pontos de vista pró-Kremlin theguardian.com – na esperança de influenciar o sentimento público. Em essência, sempre que a Rússia quer projetar poder ou mascarar suas agressões, ela libera os trolls para atacar o cenário informacional: para confundir as pessoas sobre os fatos, promover alternativas conspiratórias e reunir céticos internacionais ao lado da Rússia. Como observou o pesquisador Darren Linvill, da Universidade de Clemson, Putin não precisa necessariamente “vencer” a guerra da informação; ele só precisa turbinar o cenário o suficiente para manter sua posição, e as contas de trolls são uma ferramenta para isso propublica.org. No front interno, esse objetivo se estende ao reforço da versão do Kremlin dos acontecimentos para que os cidadãos russos permaneçam apoiando ou, pelo menos, céticos em relação ao Ocidente.
- Sustentando o Regime Doméstico: Embora muita atenção se concentre nos trolls russos no exterior, uma parte significativa de seus esforços é, na verdade, direcionada ao público russo doméstico. O IRA foi originalmente criado para gerenciar a imagem e a agenda de Putin dentro do Runet (a internet russa) propublica.org. Ao inundar as redes sociais russas e fóruns de comentários com mensagens patrióticas e ataques aos críticos do Kremlin, as fazendas de trolls ajudam a abafar vozes de oposição e a fabricar uma sensação de amplo apoio público a Putin. Por exemplo, durante os surtos de COVID-19 e problemas econômicos na Rússia, trolls domésticos promoveram agressivamente a narrativa de que quaisquer falhas eram causadas por sanções ou sabotagem ocidentais, e não por má gestão do governo. Após a invasão da Ucrânia, contas de trolls em russo trabalharam para convencer os concidadãos de que a guerra era justificada e estava indo bem, repetindo falas da TV estatal e difamando aqueles que expressavam dúvidas propublica.org. “É uma forma de [Putin] mentir para seu próprio povo e controlar a conversa,” explica Linvill propublica.org. Ao manipular a opinião pública em casa, as fazendas de trolls ajudam a manter a estabilidade social e a lealdade, sustentando o regime de Putin. Nesse sentido, elas são um braço de propaganda usado internamente para neutralizar qualquer informação factual que possa minar a narrativa do Kremlin (como notícias de reveses militares russos ou escândalos de corrupção). O objetivo do Kremlin aqui é a propaganda clássica: “manter sua posição” na guerra de informação doméstica, garantindo que os russos acreditem em suas políticas ou, pelo menos, duvidem de qualquer ponto de vista alternativopropublica.org.
Em resumo, as fazendas de trolls da Rússia operam com objetivos claros: enfraquecer os oponentes do Kremlin, tanto externa quanto internamente, manipulando informações. Seja distorcendo debates eleitorais, fragmentando sociedades, melhorando a imagem da Rússia ou suprimindo dissidências, o tema comum é a informação como arma. Ou, como Theresa May disse em um alerta público a Moscou: “Sabemos o que vocês estão fazendo. E vocês não terão sucesso.” washingtonpost.com
Operações Notáveis: Das Eleições dos EUA à Guerra da Ucrânia
Na última década, fazendas de trolls russas foram associadas a grandes operações de influência ao redor do mundo, muitas vezes em conjunto com outras atividades cibernéticas e de inteligência. Alguns dos casos mais significativos incluem:
- Interferência nas eleições dos EUA em 2016: A campanha da IRA para interferir na corrida presidencial americana de 2016 é o exemplo clássico de interferência de fazendas de trolls. Desde 2014, os trolls de São Petersburgo criaram uma vasta rede de perfis falsos no Facebook, Twitter, Instagram, YouTube e Reddit – se passando por ativistas liberais, eleitores conservadores, apoiadores do Black Lives Matter, separatistas do sul, grupos muçulmanos, entre outros spyscape.com, en.wikipedia.org. Essas contas publicaram milhões de postagens com o objetivo de inflamar ambos os lados de questões divisivas (relações raciais, direito às armas, imigração) e denegrir Hillary Clinton enquanto promoviam Donald Trump. Eles chegaram a criar páginas no Facebook para organizações fictícias e compraram anúncios direcionados a públicos-chave em estados decisivos businessinsider.com. No dia da eleição, o conteúdo das páginas controladas pela IRA havia alcançado mais de 126 milhões de americanos no Facebook, segundo revelações posteriores, e seus tweets de trolls foram citados pela grande mídia. O objetivo, conforme descrito em acusações nos EUA, era “semear discórdia no sistema político dos EUA” e, em última análise, ajudar a eleger um candidato mais favorável ao Kremlin washingtonpost.com. As agências de inteligência dos EUA concluíram que essa operação de influência, dirigida pelo governo russo, marcou uma nova era de guerra da informação. Em 2018, o Tesouro dos EUA sancionou a IRA e Prigozhin por essa interferência businessinsider.com, e o Conselheiro Especial Robert Mueller indiciou 13 operativos da IRA. Embora nenhum tenha sido julgado (pois permaneceram na Rússia), a acusação revelou detalhes extensos de como a fazenda de trolls organizou comícios, roubou identidades americanas e explorou algoritmos de redes sociais em uma escala sem precedentes businessinsider.com, spyscape.com.
- 2018–2020: Continuação das Operações nos EUA e na África: Apesar da reação negativa de 2016, os trolls russos não cessaram suas atividades. Às vésperas da eleição dos EUA de 2020, o IRA experimentou terceirizar sua atuação em inglês para intermediários na África. Em um caso notável descoberto em 2020, uma fazenda de trolls em Gana e Nigéria (supostamente operada por agentes russos) administrava dezenas de contas em redes sociais se passando por ativistas negros americanos, publicando sobre questões raciais para fomentar a divisão nos EUA. newslit.org. O Facebook e o Twitter, alertados por pesquisadores e pela CNN, acabaram desativando a rede newslit.org. Enquanto isso, a inteligência dos EUA alertou que a Rússia continuava a espalhar narrativas enganosas durante a campanha de 2020 – embora a fiscalização mais rigorosa das plataformas e a alta conscientização pública tenham dificultado que os trolls tivessem o mesmo impacto de 2016. Notavelmente, o IRA também se adaptou criando “franquias”: em vez de operar todas as contas a partir de São Petersburgo, eles forneciam conteúdo e orientação para pessoas simpáticas ou contratadas no exterior, que eram mais difíceis de rastrear. Por exemplo, denúncias separadas nos EUA em 2020 revelaram um esforço russo para recrutar americanos (incluindo um ativista político na Flórida) para publicar artigos escritos por identidades falsas e organizar protestos. O manual das fazendas de trolls estava, assim, evoluindo, mas os objetivos permaneciam consistentes. O Comando Cibernético dos EUA chegou até a invadir os servidores do IRA no final de 2018 para interromper suas atividades durante as eleições de meio de mandato, tirando temporariamente a fábrica de trolls do ar spyscape.com. O alívio foi temporário – relatos indicaram que eles se reagruparam depois – mas mostrou que os governos ocidentais estavam cada vez mais dispostos a tomar medidas ofensivas contra os trolls.
- 2016–2017 Brexit e campanhas europeias: Na Europa, trolls russos miraram eventos decisivos como o referendo do Brexit no Reino Unido em 2016 e a eleição presidencial francesa em 2017. Na Grã-Bretanha, investigações descobriram que contas do Twitter ligadas ao Kremlin (incluindo perfis conhecidos da IRA identificados pelo Twitter) promoveram mensagens pró-Brexit e histórias inflamadas sobre imigração no período que antecedeu a votação washingtonpost.com. A escala foi menor do que nos EUA, levando analistas a avaliarem que os trolls russos não influenciaram decisivamente o resultado do Brexit, mas a intenção de interferir era evidente washingtonpost.com. Simultaneamente, durante a eleição francesa de 2017, operadores russos (por meio de trolls e hackers) espalharam e amplificaram o chamado “Macron leaks” – um vazamento de e-mails hackeados da campanha do candidato Emmanuel Macron – junto com desinformação sobre Macron, numa tentativa de ajudar sua oponente de extrema-direita Marine Le Pen. O monitoramento cibernético francês identificou que muitas das contas nas redes sociais promovendo #MacronLeaks no Twitter eram recém-criadas ou ligadas a redes de influência russas. Na Alemanha, autoridades se prepararam para interferências semelhantes durante as eleições federais de 2017. Embora uma grande campanha de trolls não tenha se concretizado (possivelmente dissuadida pelos alertas do governo alemão), suspeitou-se da mão russa em outros incidentes – como uma história de propaganda de 2016 que falsamente alegava que uma menina russo-alemã “Lisa” havia sido estuprada por migrantes em Berlim, fato amplamente promovido nas redes sociais russas e que gerou protestos. Líderes europeus tomaram nota: no final de 2017, a primeira-ministra May acusou publicamente a Rússia de interferir em toda a Europa, e o primeiro-ministro da Espanha, Mariano Rajoy, revelou dados de que, durante a crise da independência da Catalunha em 2017, grande parte da atividade falsa online teve origem na Rússia ou na Venezuela washingtonpost.com. Todos esses esforços serviram ao interesse de Moscou em enfraquecer a UE e a OTAN ao fortalecer movimentos nacionalistas e separatistas.
- Propaganda na Ucrânia e Estados Vizinhos: O uso de fazendas de trolls pela Rússia ganhou força durante suas intervenções em sua região próxima. Quando a Rússia anexou a Crimeia em 2014 e fomentou a guerra no leste da Ucrânia, um exército de trolls entrou em ação online para justificar as ações de Moscou e difamar o governo ucraniano. Redes sociais de língua russa, assim como plataformas ocidentais, foram bombardeadas com mensagens repetitivas que repetiam as narrativas do Kremlin: que o governo de Kiev era uma “junta fascista”, que atrocidades (muitas vezes fabricadas) estavam sendo cometidas contra falantes de russo, e que as sanções ocidentais teriam efeito contrário. Esses trolls buscavam “inundar a zona” com a versão dos fatos do Kremlin, tornando difícil para observadores casuais discernirem a verdade. Avançando para 2022 e a invasão total da Ucrânia: trolls russos novamente se ativaram em escala global. Dias após a invasão, analistas identificaram redes de contas inautênticas no Twitter, TikTok e Instagram espalhando desinformação – como alegações de que imagens de cidades ucranianas bombardeadas eram falsas propublica.org. Pesquisadores da ProPublica e da Universidade de Clemson rastrearam dezenas de contas em russo que, em março de 2022, postaram simultaneamente o mesmo vídeo enganoso (falsamente “expondo” uma cena de vítimas civis encenada na Ucrânia) – uma marca registrada de uma operação coordenada de trolls propublica.org. Essas contas mostraram claros indícios do IRA, incluindo horários de trabalho alinhados com o fuso horário de Moscou e pausas nos fins de semana e feriados russos propublica.org. À medida que a guerra avançava, o conteúdo dos trolls se adaptou: inicialmente em meio à confusão, depois ecoando a propaganda oficial ao culpar a OTAN pela guerra e negar qualquer fracasso militar russo propublica.org. Os trolls também miraram públicos internacionais para enfraquecer o apoio à Ucrânia – argumentando em comentários ocidentais que as sanções à Rússia prejudicavam mais a Europa, ou amplificando vozes de extrema-direita na Europa que se opunham ao armamento da Ucrânia theguardian.com. Em um estudo financiado pelo Reino Unido, analistas notaram que a operação de trolls em São Petersburgo (Cyber Front Z) se inspirou em movimentos conspiratórios como o QAnon na forma como espalhava suas mensagens e tentava reunir simpatizantes online theguardian.com. Assim, a guerra na Ucrânia tem sido acompanhada por uma guerra de informação paralela, com as fazendas de trolls russas desempenhando um papel central na disseminação global de “mentiras pró-guerra” theguardian.com. O impacto deles é evidente na persistência de narrativas favoráveis ao Kremlin em alguns segmentos da opinião pública, apesar de reportagens factuais em sentido contrário.
- Pandemia de COVID-19 e Outras Questões Globais: Trolls russos aproveitaram crises e controvérsias globais, desde a pandemia de COVID-19 até protestos por justiça social, como terreno fértil para desinformação. Durante a pandemia, contas de trolls alinhadas ao Estado divulgaram uma infinidade de teorias da conspiração – alegando que o coronavírus era uma arma biológica dos EUA, promovendo desinformação antivacina e agravando a desconfiança nas instituições de saúde pública thebulletin.org. O objetivo não era apresentar uma alternativa coerente, mas “amplificar a dúvida” e a disfunção nas sociedades ocidentais em um momento de incerteza thebulletin.org. Da mesma forma, em 2020, quando os EUA testemunharam protestos históricos por justiça racial, fazendas de trolls russas redobraram os esforços para inflamar divisões raciais – por um lado, se passando por vozes de extrema-direita condenando os protestos, e por outro, se passando por ativistas de esquerda para incentivar sentimentos mais extremos, assim jogando dos dois lados para alimentar o caos. Esses casos mostram que, além da política e da guerra, qualquer questão divisiva pode se tornar um campo de batalha para operações de influência conduzidas por trolls. De debates sobre mudanças climáticas a mandatos de vacinação, trolls russos injetaram alegações falsas para tornar o discurso tóxico. Ao agravar a polarização em todas as frentes, eles avançam o objetivo de Moscou de um Ocidente enfraquecido e conflituoso.
Percepções de Especialistas e Exposições
Inúmeras investigações de jornalistas, acadêmicos e agências de inteligência revelaram as fazendas de trolls da Rússia. Especialistas enfatizam que essas operações são uma nova espécie de ameaça com a qual as democracias precisam lidar. “2016 foi apenas o começo,” observa um relatório da PBS – desde então, os operadores online do Kremlin se tornaram mais sofisticados e melhores em imitar pessoas reais pbs.org.
Pesquisadores que estudam as táticas das fazendas de trolls fizeram observações impressionantes. Darren Linvill, professor da Universidade de Clemson, passou anos analisando contas da IRA. Ele observa padrões reveladores: “Durante feriados russos e nos fins de semana, a atividade [de certas contas de trolls] caía,” indicando que os responsáveis pelas postagens seguiam um horário de trabalho assalariado, e não eram voluntários genuínos spyscape.com. A análise de sua equipe com a ProPublica confirmou que postagens de contas suspeitas da IRA apareciam em “horários definidos consistentes com o expediente da IRA.” spyscape.com. Em outras palavras, ativistas de base reais não tiram folga nos fins de semana em uníssono – mas funcionários de fábricas de trolls sim. Linvill concluiu: “Essas contas apresentam todos os indícios que temos para sugerir que se originam na Internet Research Agency.” spyscape.com. Se por acaso não fossem da IRA, ele brincou, “isso é pior, porque aí eu não sei quem está fazendo isso.” propublica.org. Sua análise destacou o quão consistente e profissionalizada a máquina de desinformação russa havia se tornado.
Relatos internos também lançaram luz sobre as operações. A corajosa denúncia da jornalista Lyudmila Savchuk em 2015 proporcionou um primeiro olhar dentro dos escritórios da “fábrica de trolls” da IRA. Ela descreveu um ambiente quase surreal: jovens funcionários em cubículos postando incansavelmente sob identidades falsas, com diretivas de propaganda entregues como tarefas editoriais todas as manhãs. “No começo eu não conseguia acreditar que era real… foi um tipo de choque cultural,” contou outro agente infiltrado à Radio Free Europe rferl.org. Eles falaram de um ambiente de linha de montagem, onde a criatividade era menos valorizada do que a obediência aos temas narrativos diários definidos pelos supervisores.
Governos ocidentais tornaram-se mais vocais ao denunciar essa atividade. Em abril de 2022, a Secretária de Relações Exteriores britânica Liz Truss condenou a nova campanha de trolls da Rússia em torno da guerra na Ucrânia, afirmando: “Não podemos permitir que o Kremlin e suas obscuras fazendas de trolls invadam nossos espaços online com suas mentiras sobre a guerra ilegal de Putin.” theguardian.com. O governo do Reino Unido chegou a financiar publicamente pesquisas sobre a operação de São Petersburgo e compartilhar os resultados com plataformas de mídia social para facilitar repressões theguardian.com. A mesma pesquisa revelou a disposição dos trolls em inovar – por exemplo, amplificando postagens legítimas de usuários reais que por acaso estavam alinhadas com as visões do Kremlin, evitando assim uma detecção fácil, já que o conteúdo nem sempre era fabricado theguardian.com. Esse jogo de gato e rato entre fazendas de trolls e moderadores de plataformas é algo do qual as agências de inteligência estão bem cientes. Nos EUA, o FBI e o Departamento de Segurança Interna alertaram repetidamente que os agentes russos se adaptam rapidamente às proibições de plataformas, reaparecendo com novas contas e novas táticas.
Um funcionário do FBI em 2020 observou que os operadores russos eram “persistentes e criativos”, usando intermediários e proxies para ocultar seu envolvimento depois que as empresas de mídia social começaram a banir contas em massa. Por exemplo, após o Facebook e o Twitter eliminarem milhares de contas da IRA após 2016, os trolls ressurgiram via terceiros países (como visto na operação de Gana) ou migrando para plataformas alternativas com moderação mais branda. Sua resiliência levou o Departamento de Justiça dos EUA, em 2020, a sancionar mais indivíduos e até sites ligados a fazendas de trolls (como SouthFront e NewsFront) para cortar seu financiamento e hospedagem.
Think tanks e acadêmicos também destacaram as ferramentas tecnológicas em evolução à disposição dos trolls. Um relatório de 2018 do Institute for the Future alertou que o trolling em larga escala deveria ser tratado como um abuso de direitos humanos devido ao dano que causa às sociedades, mas lamentou a falta de mecanismos para punir os perpetradores newslit.org. Avançando para 2024, analistas observam que o conteúdo gerado por IA é a nova fronteira. Em um estudo da UE sobre desinformação, especialistas apontaram que as táticas russas anteriores “dependiam de estratégias de baixa tecnologia, como fazendas de trolls e redes de bots,” enquanto em 2024 as campanhas utilizam cada vez mais IA generativa para criar “conteúdo hipersegmentado” que é mais difícil de detectar carleton.ca. Operações de influência russas começaram a usar IA para gerar imagens, vídeos e textos deepfake realistas em escala, possibilitando narrativas falsas ainda mais potentes. O Serviço Europeu de Ação Externa observou em 2023 que muitas campanhas recentes de desinformação do Kremlin, incluindo as chamadas operações de informação “Doppelgänger” (que clonam sites de notícias reais para espalhar notícias falsas), podem ser rastreadas até entidades financiadas por agências estatais russas e agora aumentadas com capacidades de IA carleton.ca. Isso ressalta que o modelo de fazenda de trolls não é estático – ele continuamente aprimora suas técnicas, desde memes simples de copiar e colar em 2016 até conteúdo forjado por IA em 2024 e além.
2024–2025: Últimos Desenvolvimentos e Perspectivas
A partir de 2024 e 2025, as operações das fazendas de trolls da Rússia continuam sendo um alvo móvel, reagindo a eventos geopolíticos e mudanças internas de poder. Um desenvolvimento dramático foi o destino da própria Internet Research Agency. Em junho de 2023, Yevgeny Prigozhin – o fundador da IRA – organizou um breve motim contra a liderança militar da Rússia com suas forças mercenárias Wagner. O fracasso da rebelião e a morte subsequente de Prigozhin em um acidente de avião suspeito (agosto de 2023) levaram o Kremlin a conter seus vastos empreendimentos. Relatos indicaram que, em julho de 2023, as operações da IRA em São Petersburgo foram oficialmente encerradas após a queda de Prigozhin em desgraça businessinsider.com. De fato, o próprio grupo de mídia de Prigozhin, Patriot Media, anunciou que estava “deixando o espaço informacional do país” enquanto o governo avançava para desmantelar seus órgãos de influência businessinsider.com. Prigozhin chegou a confirmar em uma entrevista pouco antes disso que havia criado e dirigido a IRA, aparentemente buscando receber crédito por sua missão “patriótica” spyscape.com. No início de julho de 2023, a mídia estatal russa informou que a infame fazenda de trolls havia sido dissolvida – um desenvolvimento também observado por veículos ocidentaisbusinessinsider.com.No entanto, este “fim” do IRA não significou o fim das operações de trolling russas. Analistas acreditam que o Kremlin simplesmente absorveu ou reestruturou essas capacidades em outras mãos. Um relatório do Grupo de Análise de Ameaças do Google em março de 2024 observou que, embora a atividade direta do IRA nas plataformas do Google tenha caído após a morte de Prigozhin, componentes das campanhas de influência ligadas a Prigozhin “continuaram viáveis” e provavelmente seguem sob outra gestão cloud.google.com. Pesquisadores da Mandiant notaram que várias operações de informação russas de longa duração apresentaram “graus desiguais de mudança” após Prigozhin, com alguma interrupção, mas muitos ativos ainda ativos, sugerindo que o Kremlin redistribuiu o controle em vez de encerrar tudo cloud.google.com. Notavelmente, ao longo de 2023, Google e Meta continuaram a remover grandes quantidades de contas falsas ligadas a redes de desinformação russas. O Google relatou mais de 400 ações de fiscalização em 2023 contra operações de influência ligadas ao IRA cloud.google.com. E no final de 2024, antes de eleições críticas, autoridades dos EUA ainda soavam o alarme: o FBI e outras agências alertaram que a Rússia pretendia interferir plenamente nas eleições presidenciais dos EUA de 2024 usando manipulação de redes sociais, mesmo que o manual tivesse que ser ajustado sem o centro original do IRAreuters.com.
De fato, tentativas de interferência eleitoral já foram observadas na entrada de 2024. Um exemplo marcante ocorreu em outubro de 2024, quando autoridades do estado da Geórgia, nos EUA, identificaram um vídeo viral de desinformação que falsamente alegava mostrar um “imigrante ilegal” se gabando de ter votado várias vezes. O gabinete do Secretário de Estado da Geórgia afirmou diretamente: “Isso é falso… Provavelmente é uma interferência estrangeira tentando semear discórdia e caos na véspera da eleição.” reuters.com Eles pediram às empresas de redes sociais que removessem o vídeo, observando que “Provavelmente é uma produção de fazendas de trolls russas.” reuters.com. Esse incidente – ocorrido pouco antes de uma eleição contenciosa nos EUA – mostra que os trolls russos ainda estão em ação em 2024, usando vídeos virais enganosos em plataformas como X (Twitter) para minar a confiança no voto reuters.com. Agências federais como a CISA investigaram o incidente, e ele serviu como um lembrete de que, mesmo sem a liderança original do IRA, o aparato de influência online russa pode rapidamente criar novas campanhas ad hoc quando necessário.
Olhando para 2025, especialistas avaliam que as operações das fazendas de trolls russas continuarão a se adaptar, em vez de desaparecer. Com Moscou envolvida em uma guerra prolongada na Ucrânia e enfrentando pressões internas, o Kremlin tem um forte incentivo para continuar usando a “arma barata, mas eficaz” da manipulação online. Podemos esperar que operadores russos adotem ainda mais tecnologias emergentes – especialmente IA. Analistas europeus observaram que, no final de 2024, a escala e velocidade da desinformação russa aumentaram graças às ferramentas de IA generativa, tornando mais fácil produzir conteúdo falso em massa carleton.ca. Isso significa que as futuras táticas das fazendas de trolls podem envolver “pessoas” geradas por IA (para fotos de perfil perfeitamente realistas e até comentários em vídeo deepfake), além de propaganda personalizada por algoritmos para atingir comunidades específicas com precisão. A corrida armamentista entre plataformas e trolls provavelmente vai se intensificar: à medida que as empresas melhoram na proibição de assinaturas conhecidas de trolls, os trolls usam IA para criar personas e conteúdos cada vez mais convincentes.
No palco geopolítico, as fazendas de trolls da Rússia (sob qualquer novo disfarce) provavelmente irão mirar em quaisquer grandes eventos relevantes para os interesses do Kremlin. As próximas eleições em países ocidentais, debates sobre o apoio à Ucrânia e até mesmo questões como crises energéticas ou conflitos internacionais podem se tornar palcos para novas ofensivas de desinformação. As agências de segurança da União Europeia reforçaram seu monitoramento da “Manipulação e Interferência de Informação Estrangeira” (FIMI), divulgando relatórios periódicos de ameaças que quase invariavelmente destacam operações russas. Autoridades da OTAN e da UE alertam que a Rússia tentará fraturar a unidade ocidental em relação à Ucrânia alimentando narrativas extremistas e isolacionistas via redes sociais (por exemplo, promovendo vozes que se opõem à ajuda à Ucrânia ou que apoiam políticas favoráveis à Rússia). De fato, as eleições para o Parlamento Europeu de 2024 viram um aumento nas mensagens – incluindo sites de notícias falsas clonados em uma campanha “Doppelgänger” – promovendo temas anti-Ucrânia e anti-UE, que analistas vincularam a grupos russos de desinformação carleton.ca. A influência de tais esforços é difícil de quantificar, mas eles coincidiram com ganhos para blocos políticos de extrema-direita e pró-Rússia, indicando algum efeitocarleton.ca.Na esfera doméstica russa, é provável que o Kremlin mantenha um controle rígido sobre a narrativa por quaisquer meios necessários – incluindo fazendas de trolls ou seus sucessores. Após a rebelião de Prigozhin, Putin aprendeu o risco de permitir que um ator privado controle grande parte da máquina de propaganda. Não seria surpreendente se os serviços de segurança da Rússia (como o FSB ou a inteligência militar) tivessem assumido partes das operações de trolling para garantir lealdade e supervisão direta. O tom do trolling doméstico russo desde o final de 2023 mudou para apagar a memória de Prigozhin (dado seu ato de traição) e reforçar a estatura de Putin em meio aos desafios da guerra tandfonline.com. Qualquer russo que expresse cansaço com a guerra ou critique o governo online pode esperar ser atacado por comentaristas “patrióticos” – em muitos casos, trolls – que os acusam de traidores, assim inibindo a dissidência. Isso indica que a tática das fazendas de trolls continua sendo um pilar da propaganda interna, apenas mais centralizada pelo Estado.
Em conclusão, as fazendas de trolls da Rússia evoluíram de um experimento marginal para um instrumento pleno de poder estatal na era da informação. Elas operam como fábricas de propaganda do século XXI, espalhando mentiras, medo e discórdia com um clique do mouse. Na última década, interferiram em eleições, alimentaram conflitos e poluíram inúmeras discussões online. E, apesar do aumento da exposição e das sanções, não mostram sinais de parar – apenas de mudar de forma. Enquanto sociedades abertas dependerem de plataformas online para notícias e debates, os trolls do Kremlin buscarão explorar essa abertura. Combater essa ameaça exigirá vigilância contínua, conscientização pública e cooperação internacional. O mundo despertou para o manual das fazendas de trolls da Rússia; o desafio agora é impedir que esses “soldados digitais” sequestram a conversa global com manipulação e malícia.