- La Agencia de Investigación de Internet (IRA), la principal fábrica de trolls de Rusia, tiene su sede en San Petersburgo y fue fundada alrededor de 2013, creciendo hasta unos 400 empleados en 2015 que trabajaban turnos de 12 horas.
- El personal de la IRA operaba bajo cuotas estrictas: 5 publicaciones políticas, 10 publicaciones no políticas y 150–200 comentarios por turno.
- Los trolls ganaban aproximadamente 40,000 rublos al mes (unos $700–$800) y se les pagaba en efectivo.
- Ocultaban su origen usando VPN, servidores proxy, fotos de perfil robadas o generadas por IA y perfiles falsos para parecer auténticos.
- La operación formaba parte del Proyecto Lakhta, un paraguas vinculado al Kremlin que incluía al Grupo de Medios Patriot, propietario de la Agencia Federal de Noticias (RIA FAN) y otros medios usados para blanquear propaganda, posteriormente incluidos en sanciones de EE. UU.
- En las elecciones presidenciales de EE. UU. de 2016, la IRA llevó a cabo una campaña multiplataforma en Facebook, Twitter, Instagram, YouTube y Reddit, alcanzando a más de 126 millones de estadounidenses y provocando la acusación de 13 operativos de la IRA en 2018, junto con sanciones contra el grupo.
- Durante 2016–2017, operativos de la IRA que se hacían pasar por activistas estadounidenses organizaron manifestaciones reales en Estados Unidos, incluyendo una protesta en la ciudad de Nueva York a favor de Donald Trump y otra en su contra el mismo día.
- De 2018 a 2020, la IRA subcontrató el troleo en inglés a África, gestionando una red en Ghana y Nigeria que se hacía pasar por activistas afroamericanos, la cual Facebook y Twitter desactivaron en 2020.
- En 2022, surgió en San Petersburgo el grupo público Cyber Front Z, coordinándose por Telegram, operando desde una antigua fábrica de armas y pagando a influencers de TikTok para amplificar los mensajes del Kremlin mientras realizaban brigading y manipulaban encuestas.
- Para 2024, las campañas de IA y Doppelgänger se habían vuelto centrales, con Google reportando más de 400 acciones de cumplimiento en 2023 contra redes de influencia vinculadas a la IRA y analistas señalando operaciones continuas tras el motín y muerte de Prigozhin en 2023.
¿Qué son las fábricas de trolls? El motor de la desinformación
Las fábricas de trolls son grupos organizados de operadores en línea pagados que usan identidades falsas para inundar internet con propaganda y contenido divisivo. Operando desde oficinas, estos equipos crean perfiles falsos que suplantan a personas reales, publicando en redes sociales, comentarios de noticias y foros. Su objetivo es manipular la opinión pública: algunos trolls difunden mensajes que muestran un falso apoyo popular a ciertas ideas, mientras que otros esparcen rumores diseñados para sembrar confusión y desconfianza en las instituciones newslit.org. A menudo trabajando en turnos coordinados, el personal de las fábricas de trolls publica comentarios incendiarios, “noticias” engañosas y teorías conspirativas a gran escala, amplificando puntos de vista extremos mucho más allá de su alcance orgánico. Muchos usan cuentas sockpuppet (múltiples identidades en línea), a veces asistidos por bots sociales (cuentas automatizadas), para que parezca que numerosas personas comunes comparten estas opiniones marginales en.wikipedia.org. En realidad, un puñado de operadores puede estar detrás de cientos de cuentas: una línea de ensamblaje encubierta de propaganda que produce desinformación a demanda.
Aunque el concepto suena como una trama de ciencia ficción, las granjas de trolls son muy reales y han sido utilizadas como arma por los estados. Rusia, en particular, ha adoptado infamemente las granjas de trolls como una herramienta central de su arsenal de guerra informativa. Al inundar los espacios en línea con narrativas pro-Kremlin y comentarios hostiles, las granjas de trolls rusas buscan distorsionar percepciones y socavar el discurso en los países objetivo. Sus actividades van desde la interferencia electoral y la agitación política en el extranjero hasta el refuerzo de la propaganda en casa. La mayor parte del mundo supo por primera vez de las granjas de trolls rusas cuando se dio a conocer su interferencia en la elección presidencial de EE. UU. de 2016 newslit.org. Sin embargo, la táctica es anterior a 2016 y no es exclusiva de Rusia: otros gobiernos y grupos han copiado métodos similares. Aun así, son las operaciones rusas las que establecieron el modelo para la granja de trolls moderna: patrocinada por el estado, organizada centralmente y de alcance global. Las empresas de redes sociales han tenido dificultades para frenar estas cuentas falsas, eliminando ocasionalmente grandes redes (por ejemplo, Facebook y Twitter eliminaron en 2020 una red de trolls rusa con sede en Ghana que había conseguido más de 300,000 seguidores mientras avivaba tensiones raciales en EE. UU. newslit.org). Sin embargo, esto probablemente representa solo “la punta del iceberg” newslit.org. Las granjas de trolls continúan evolucionando, encontrando nuevas formas de evadir la detección y explotar las plataformas en línea.
Dentro de las fábricas de trolls de Rusia: organización y actores clave
La granja de trolls más notoria de Rusia es la Internet Research Agency (IRA), una empresa con sede en San Petersburgo que fue dirigida y financiada por el oligarca Yevgeny Prigozhin, un estrecho aliado de Putin apodado a menudo “el chef de Putin”. La IRA (conocida en la jerga rusa como los “trolls de Olgino”) se fundó alrededor de 2013 y se convirtió en una operación profesionalizada con cientos de empleados spyscape.com. Para 2015, la IRA contaba, según informes, con unos 400 empleados trabajando en turnos de 12 horas, incluido un grupo de élite de unos 80 trolls con dominio del inglés dedicados exclusivamente a atacar el sistema político de EE. UU. spyscape.com. Se asemejaba a una agencia de marketing en línea, pero dedicada a los objetivos del Kremlin. Un equipo de gestión supervisaba varios departamentos (diseño gráfico, TI, optimización de motores de búsqueda, finanzas, etc.) y seguía métricas de manera obsesiva spyscape.com. Según una investigación del Senado de EE. UU., los gerentes incluso vigilaban a los empleados mediante cámaras de seguridad y estaban “obsesionados” con las visualizaciones de página, los “me gusta” y las cuotas de comentarios como medidas de influencia spyscape.com.La vida como un troll ruso fue descrita por personas internas como un trabajo de oficina de alta presión. Lyudmila Savchuk, una periodista que se infiltró en la IRA, reveló que cada troll tenía cuotas diarias estrictas: por ejemplo, 5 publicaciones políticas, 10 publicaciones no políticas (para parecer auténtico) y 150-200 comentarios en otros contenidos por turno spyscape.com. Los trolls trabajaban largas horas por un salario modesto (alrededor de 40,000 rublos, aproximadamente $700-800 al mes) y se les pagaba en efectivo spyscape.com. Operaban en “equipos” encubiertos enfocados en diferentes audiencias objetivo y temas. Por ejemplo, grupos separados eran asignados a la política de EE. UU., asuntos europeos, Ucrania, etc., cada uno elaborando mensajes adaptados a esas audiencias. Ex empleados de la IRA contaron que se les instruía para ver programas populares de televisión estadounidenses como House of Cards para aprender referencias culturales de EE. UU. spyscape.com. Recibían entrenamiento en inglés y guías sobre jerga estadounidense para hacerse pasar mejor por comentaristas genuinos de EE. UU. spyscape.com. Para ocultar su origen ruso, usaban VPNs y servidores proxy para enmascarar su ubicación y creaban cuidadosamente identidades falsas (con fotos de perfil robadas o generadas por IA, detalles de “ciudad natal” y nombres realistas) spyscape.com. Durante semanas y meses, estas cuentas falsas iban construyendo gradualmente una identidad y seguidores: uniéndose a grupos de Facebook, tuiteando sobre la vida cotidiana o deportes, antes de girar hacia la propaganda política una vez que eran lo suficientemente creíbles. “Con el tiempo, esas cuentas ganan seguidores y se vuelven más influyentes,” señala un informe spyscape.com.
La IRA de Prigozhin no operaba de forma aislada, sino como parte de un ecosistema de influencia más amplio vinculado al Kremlin. Periodistas rusos y acusaciones estadounidenses han expuesto un esfuerzo general llamado “Proyecto Lakhta”, bajo el cual la IRA y entidades relacionadas trabajaban para “perturbar el proceso democrático de EE. UU., difundir desconfianza, incitar disturbios civiles y polarizar a los estadounidenses”, especialmente agravando las divisiones raciales y sociales spyscape.com. Para permitir la negación plausible, este proyecto utilizaba una red de empresas fantasma y frentes mediáticos. Por ejemplo, la empresa matriz de Prigozhin, “Patriot Media Group”, era propietaria de la Federal News Agency (RIA FAN) y otros sitios pseudo-noticiosos que difundían propaganda, mientras también servían de cobertura para operaciones encubiertas de trolls cloud.google.com. Las entidades de Proyecto Lakhta incluían la propia IRA y sitios “noticiosos” nominales como Nevskiy News, Economy Today e International News Agency, todos los cuales fueron posteriormente nombrados en sanciones estadounidenses por albergar actividades de desinformación spyscape.com. Esta mezcla difusa de medios de propaganda abiertos y equipos de trolls ocultos permitió a las operaciones de influencia rusas “blanquear” la desinformación; por ejemplo, un troll sembraba una historia falsa a través de una identidad falsa, que luego era recogida por los sitios de Patriot Media como “noticia” y finalmente amplificada por otros trolls y bots.
Cabe destacar que las operaciones de trolls de Rusia iban más allá de los teclados y las pantallas. La IRA y sus asociados a veces contrataban a personas locales desprevenidas en los países objetivo para organizar eventos reales que coincidieran con su agitación en línea. Investigadores estadounidenses descubrieron que en 2016–2017, operativos de la IRA que se hacían pasar por activistas estadounidenses lograron organizar manifestaciones políticas reales en Estados Unidos, incluso organizando una protesta en la ciudad de Nueva York a favor de Donald Trump y otra en su contra el mismo día, para maximizar la división spyscape.com. Los trolls rusos se hacían pasar por organizadores de base, reclutando a estadounidenses reales a través de grupos de Facebook y pagándoles para portar pancartas o construir decorados, todo mientras esos ciudadanos no tenían idea de que estaban respondiendo a directrices rusas spyscape.com. Esta táctica –utilizar trolls para crear movimientos falsos de base “AstroTurf”– muestra hasta dónde pueden llegar estas operaciones de influencia. Al combinar la desinformación en línea con la acción fuera de internet, buscaban convertir la ira digital en caos real.
La Agencia de Investigación de Internet se hizo mundialmente famosa después de que se revelara su injerencia en la política de EE. UU. En 2018, el Departamento de Justicia de EE. UU. acusó formalmente a los operativos de la IRA por interferencia criminal en las elecciones de 2016, detallando cómo crearon miles de cuentas en redes sociales (haciéndose pasar por estadounidenses de todo tipo), alcanzaron a millones de personas con memes e historias falsas, e incluso financiaron anuncios políticos y manifestaciones businessinsider.com. (El uso por parte de la IRA de identidades estadounidenses robadas y fraude financiero para financiar operaciones llevó a cargos adicionales businessinsider.com.) Aunque Rusia negó las acusaciones, Prigozhin finalmente admitió su papel: “Nunca he sido solo un financiador de la IRA. La inventé, la creé, la dirigí durante mucho tiempo,” se jactó Prigozhin a principios de 2023, afirmando que fue fundada para “proteger el espacio informativo ruso de… la agresiva propaganda antirrusa de Occidente.” spyscape.com. Esta confesión sincera del cerebro detrás de la operación subraya la doble misión de la IRA: atacar a los adversarios de Rusia en línea mientras protege al Kremlin en casa.
Aparte de la IRA, otras operaciones de trolls han surgido o evolucionado en Rusia. En 2022, después de que Rusia lanzara su invasión a gran escala de Ucrania, un nuevo grupo con sede en San Petersburgo que se autodenomina “Cyber Front Z” comenzó a reclutar abiertamente colaboradores “patrióticos” para inundar internet con comentarios a favor de la guerra theguardian.com. Ubicada en un espacio alquilado dentro de una antigua fábrica de armas, esta “fábrica de trolls” (como la describió la inteligencia británica) estaba vinculada a la red de Prigozhin y se coordinaba a través de un canal de Telegram llamado “Cyber Front Z” theguardian.com. Los operativos de Cyber Front Z apuntaron a las páginas de redes sociales de líderes occidentales y a las secciones de comentarios de sitios de noticias, secuestrando discusiones para elogiar a Putin y demonizar a Ucrania theguardian.com. Según investigaciones citadas por el gobierno británico, incluso pagaron a ciertos influencers de TikTok para amplificar los mensajes del Kremlin theguardian.com. Esto sugiere que las operaciones de trolls rusos se adaptaron a nuevas plataformas y audiencias más jóvenes, expandiéndose de Facebook y Twitter a Instagram, YouTube y TikTok, donde los investigadores encontraron altas concentraciones de actividad en 2022 theguardian.com. Los miembros de Cyber Front Z participaron en “brigading” coordinado, comentando en masa para orientar las conversaciones en línea hacia la línea del Kremlin, e incluso manipulando encuestas en línea (por ejemplo, sesgando votos en encuestas de medios occidentales sobre el apoyo a las sanciones contra Rusia) theguardian.com. A diferencia de la secreta IRA, Cyber Front Z era descaradamente público sobre su patriotismo, justificando el trolling en línea como un deber cívico durante tiempos de guerra theguardian.com.Herramientas y tácticas: Cómo los trolls rusos difunden propaganda
Las granjas de trolls rusas despliegan un amplio arsenal de técnicas para inyectar y amplificar la desinformación en línea. Algunas de las herramientas y tácticas clave incluyen:
- Personas falsas y cuentas títere (sockpuppets): Los trolls crean cientos de identidades ficticias en línea, completas con fotos de perfil robadas o generadas por IA, y fingen ser ciudadanos comunes en.wikipedia.org. A menudo incluso imitan la demografía local (por ejemplo, haciéndose pasar por estadounidenses de diversos orígenes políticos, o por europeos de países específicos) para mezclarse. Estas cuentas títere pueblan todas las principales plataformas: Facebook, Twitter (ahora X), Instagram, YouTube, TikTok, Reddit y redes rusas como VKontakte spyscape.com. Para evitar señales obvias de falsedad, los trolls publican contenido regular no político bajo estas identidades (charlas deportivas, fotos de comida, etc.) y copian cuidadosamente los comportamientos reales de las redes sociales. Con el tiempo, construyen credibilidad y luego insertan propaganda o contenido engañoso en las comunidades desde dentro.
- Amplificación en redes sociales y “brigading”: Las granjas de trolls buscan que unas pocas voces suenen como una multitud. Coordinan oleadas de publicaciones y comentarios para que cierta narrativa domine las conversaciones o se vuelva tendencia de manera artificial. Por ejemplo, un equipo de trolls puede responder simultáneamente al tuit de un político con los mismos argumentos, dando la falsa impresión de que el sentimiento público es abrumadoramente unilateral. En las secciones de comentarios de artículos de noticias, se votan entre sí y se acumulan respuestas para ahogar el debate genuino theguardian.com. En plataformas como Facebook, los trolls han gestionado grandes páginas temáticas (por ejemplo, “Secured Borders” o grupos activistas falsos) que atraían seguidores reales, para luego inyectar sutilmente propaganda polarizadora en esos feeds. También se sabe que secuestran hashtags o lanzan campañas coordinadas de hashtags en Twitter para llevarlos a las listas de tendencias. Al coreografiar publicaciones en docenas de cuentas, las granjas de trolls pueden organizar brigadas en encuestas en línea, foros y redes sociales para que ideas marginales parezcan populares theguardian.com.
- Bots y redes automatizadas: Además de las personas manejadas por humanos, las operaciones rusas utilizan redes de bots – cuentas automatizadas o semiautomatizadas – para amplificar su señal. Estos bots pueden retuitear o compartir contenido miles de veces en cuestión de minutos, distorsionar los algoritmos de tendencias y acosar a usuarios específicos. Durante varias elecciones y eventos, los investigadores han encontrado enjambres de tuits/publicaciones provenientes de cuentas sospechosas de ser bots vinculadas a Rusia washingtonpost.com. Por ejemplo, España reportó una “avalancha de bots” difundiendo noticias falsas durante el referéndum de independencia de Cataluña en 2017, con más de la mitad de las cuentas de bots rastreadas hasta orígenes rusos washingtonpost.com. Los bots suelen amplificar los mensajes de los trolls dándoles “me gusta” y republicándolos en masa. La combinación de bots y trolls humanos hace que la campaña parezca más grande y orgánica de lo que realmente es – un multiplicador de fuerza para la desinformación.
- Contenido de desinformación y manipulación mediática: Las granjas de trolls se especializan en producir desinformación viral – desde noticias falsas y fotos manipuladas hasta memes y videos engañosos. A menudo operan sitios pseudo-noticiosos que generan piezas de propaganda, que los trolls luego circulan en grupos y en hilos de comentarios. Los operativos rusos han falsificado capturas de pantalla de tuits, documentos gubernamentales y difundido memes conspirativos para apoyar sus narrativas. En los últimos años, también han comenzado a usar deepfakes y otros medios generados por IA. Un ejemplo notorio ocurrió en marzo de 2022, cuando se difundió un video deepfake del presidente ucraniano Volodymyr Zelensky, mostrando falsamente que pedía a las tropas ucranianas rendirse reuters.com. El video estaba mal hecho y fue rápidamente desmentido, pero los expertos advirtieron que “podría ser un presagio de engaños más sofisticados por venir” reuters.com. Las redes de trolls pueden aprovechar este tipo de contenido falso – o crear el suyo propio – y difundirlo agresivamente a audiencias desprevenidas. Al sembrar engaños virales (desde afirmaciones falsas de fraude electoral hasta curas falsas para el COVID-19), buscan engañar e inflamar al público.
- Cooptar a influencers y voces locales: Otra táctica es blanquear la propaganda a través de voces legítimas. Las campañas de influencia rusas han sido sorprendidas reclutando o engañando a terceros sin saberlo – por ejemplo, contactando a periodistas freelance en el extranjero para que escriban artículos que repitan los argumentos del Kremlin, o pagando a influencers en redes sociales para promover ciertas narrativas theguardian.com. En 2020, una operación llamada “Peace Data” vio a trolls rusos crear un falso medio de noticias online de izquierda y contratar a verdaderos escritores freelance (muchos en Occidente) para contribuir con artículos, sin saber la verdadera afiliación de la plataforma. De manera similar, investigadores del Reino Unido en 2022 encontraron que algunos influencers de TikTok e Instagram fueron pagados para difundir mensajes pro-Rusia sobre Ucrania theguardian.com. Al aprovechar la credibilidad de voces locales, los trolls pueden difundir propaganda en una forma más aceptable, oculta dentro de contenido que parece independiente. Esto añade una capa de negación y hace que la detección sea más difícil, ya que el mensaje proviene de individuos aparentemente auténticos en lugar de cuentas de trolls obvias.
En combinación, estas tácticas permiten a las granjas de trolls rusas llevar a cabo “guerra de información” en múltiples frentes – inyectando contenido falso o sesgado, amplificándolo artificialmente y distorsionando el entorno informativo en línea. El objetivo final no es simplemente convencer a una persona u otra de una sola mentira; es erosionar la confianza en general – la confianza en los medios, en los procesos electorales, en las normas sociales – contaminando el discurso con tanta desinformación y odio que la verdad objetiva y el debate sano se vuelven difíciles de encontrar. Como dijo un experto, estas operaciones de trolls son una “herramienta para que Putin controle las narrativas” y para ahogar las voces disidentes propublica.org. Ya sea inundando foros en ruso con consenso pro-Kremlin o saturando las redes sociales occidentales con teorías conspirativas, las granjas de trolls buscan sobrepasar la verdad con ruido.
Objetivos: Por qué el Kremlin dirige granjas de trolls
Las campañas de las granjas de trolls rusas sirven a objetivos estratégicos establecidos por el Kremlin, que en general se dividen en las categorías de influencia política, desestabilización de adversarios y guerra de propaganda. Los objetivos clave incluyen:
- Socavando elecciones y procesos políticos: Una misión principal de los trolls rusos ha sido interferir en elecciones democráticas en el extranjero. Su ahora infame papel en las elecciones estadounidenses de 2016 tenía como objetivo polarizar a los votantes estadounidenses, suprimir algunos votos y favorecer ciertos resultados. Los propios documentos internos de la IRA describían un esfuerzo “para interferir con elecciones y procesos políticos” en EE. UU. propublica.org. De manera similar, en votaciones europeas, la actividad de trolls rusos ha buscado promover candidatos pro-Kremlin o de extrema derecha y sembrar dudas sobre los centristas pro-UE. La primera ministra británica Theresa May advirtió a finales de 2017 que Rusia estaba intentando “socavar las sociedades libres y sembrar discordia” en Occidente mediante el despliegue de sus trolls y medios de noticias falsas washingtonpost.com. Las autoridades españolas acusaron a redes vinculadas a Rusia de interferir en el referéndum de Cataluña en España y señalaron coincidencias en la desinformación durante el Brexit y las elecciones francesas, todo con el objetivo de fracturar la unidad europea washingtonpost.com. En esencia, al manipular la opinión pública durante elecciones o referendos extranjeros, el Kremlin espera instalar líderes más favorables, debilitar a sus oponentes internacionales o simplemente crear caos (ya que el caos en las democracias rivales es en sí mismo una victoria para Putin). Funcionarios estadounidenses han dicho que el objetivo de Rusia suele ser “avivar narrativas divisivas” en torno a las elecciones, explotando temas sensibles como la raza, la inmigración o el crimen, para que las sociedades se enfrenten entre sí reuters.com. Incluso cuando candidatos específicos no ganan, los trolls tienen éxito si logran que suficientes ciudadanos duden de la integridad de la elección o resientan a sus propios conciudadanos.
- División y desconfianza sembradas: Más allá de una sola elección, las granjas de trolls rusas trabajan para inflamar las divisiones existentes en los países objetivo a largo plazo. Al impulsar constantemente contenido polarizador sobre puntos sociales conflictivos (izquierda vs. derecha, urbano vs. rural, tensiones étnicas y religiosas, etc.), intentan abrir las líneas de fractura en una sociedad. Una investigación del Senado de EE. UU. señaló que un proyecto de la IRA se centró fuertemente en “promover temas socialmente divisivos con énfasis en las divisiones raciales y la desigualdad” en Estados Unidos spyscape.com. El objetivo es debilitar a los adversarios de Rusia desde dentro: una nación sumida en conflictos internos es menos capaz de presentar un frente unido a nivel internacional. Esta estrategia se ha observado en todo Occidente: desde promover sentimientos secesionistas en la Cataluña de España washingtonpost.com, hasta avivar la indignación antiinmigrante y anti-UE en Europa, y amplificar la discordia racial y las controversias sobre vacunas en EE. UU.. Al difundir teorías conspirativas y retórica extrema, los trolls buscan que la gente pierda la confianza en las fuentes de información principales e incluso se vuelva contra sus propios gobiernos. Como advirtió el Secretario de Estado de Georgia (estado de EE. UU.) en 2024, las historias falsas sobre fraude electoral que aparecen repentinamente en las redes sociales probablemente sean “interferencia extranjera que intenta sembrar discordia y caos” – a menudo rastreadas hasta granjas de trolls rusas reuters.com.
- Apoyando la política exterior y los objetivos militares rusos: Las granjas de trolls también sirven como soldados digitales para la agenda geopolítica del Kremlin. Cuando Rusia está involucrada en conflictos o crisis, los trolls se activan para moldear la narrativa en línea. Por ejemplo, desde la agresión inicial de Rusia en Ucrania en 2014, y especialmente después de la invasión a gran escala en 2022, los trolls rusos han difundido con vigor propaganda a favor de la guerra. Amplifican afirmaciones que justifican las acciones de Rusia (como falsas acusaciones de agresión de la OTAN o de “nazis” en Ucrania) mientras descartan o niegan las atrocidades cometidas por las fuerzas rusas propublica.org. Una investigación británica en 2022 reveló una operación concertada de trolls para aumentar el apoyo a la invasión de Ucrania por parte de Putin, dirigida no solo al público ruso sino también a las redes sociales occidentales con mensajes contra las sanciones y el liderazgo ucraniano theguardian.com. Los trolls incluso apuntaron a figuras de alto perfil específicas – como inundar los comentarios del Primer Ministro del Reino Unido y otros funcionarios con mensajes pro-Kremlin theguardian.com – con la esperanza de influir en la opinión pública. En esencia, cada vez que Rusia quiere proyectar poder o encubrir sus agresiones, desata a los trolls para atacar el panorama informativo: para confundir a la gente sobre los hechos, promover teorías conspirativas alternativas y reunir a los escépticos internacionales del lado de Rusia. Como observó el investigador de la Universidad de Clemson, Darren Linvill, Putin no necesariamente necesita “ganar” la guerra de la información por completo; solo necesita enturbiar las aguas lo suficiente para mantener su posición, y las cuentas de trolls son una herramienta para lograrlo propublica.org. En el frente interno, este objetivo se extiende a reforzar la versión del Kremlin de los hechos para que los ciudadanos rusos sigan siendo partidarios o al menos escépticos de Occidente.
- Apuntalando el régimen a nivel nacional: Aunque mucha atención se centra en los trolls rusos en el extranjero, una parte significativa de su esfuerzo en realidad está dirigida a audiencias rusas domésticas. La IRA se formó originalmente para gestionar la imagen y la agenda de Putin dentro de Runet (el internet ruso) propublica.org. Al inundar las redes sociales rusas y los foros de comentarios con mensajes patrióticos y ataques a los críticos del Kremlin, las granjas de trolls ayudan a ahogar las voces de la oposición y a fabricar una sensación de apoyo público generalizado a Putin. Por ejemplo, durante los brotes de COVID-19 en Rusia y los problemas económicos, los trolls domésticos promovieron agresivamente la narrativa de que cualquier fracaso se debía a las sanciones occidentales o al sabotaje, no a la mala gestión del gobierno. Tras la invasión de Ucrania, las cuentas de trolls en ruso trabajaron para convencer a sus conciudadanos de que la guerra estaba justificada y marchaba bien, repitiendo líneas de la televisión estatal y difamando a quienes expresaban dudas propublica.org. “Es una forma para [Putin] de mentirle a su propio pueblo y controlar la conversación,” explica Linvill propublica.org. Al manipular la opinión pública en casa, las granjas de trolls ayudan a mantener la estabilidad social y la lealtad, apuntalando el régimen de Putin. En este sentido, son un brazo de propaganda utilizado internamente para contrarrestar cualquier información factual que pueda socavar la narrativa del Kremlin (como noticias de reveses militares rusos o escándalos de corrupción). El objetivo del Kremlin aquí es la propaganda clásica: “mantener su posición” en la guerra de la información a nivel nacional, asegurando que los rusos crean en sus políticas o al menos duden de cualquier punto de vista alternativopropublica.org.
En resumen, las granjas de trolls de Rusia operan con objetivos claros: debilitar a los oponentes del Kremlin, tanto externa como internamente, manipulando la información. Ya sea sesgando debates electorales, fragmentando sociedades, mejorando la imagen de Rusia o suprimiendo la disidencia, el tema común es la información como arma. O como dijo Theresa May en una advertencia pública a Moscú: “Sabemos lo que están haciendo. Y no tendrán éxito.” washingtonpost.com
Operaciones notables: de las elecciones estadounidenses a la guerra en Ucrania
Durante la última década, las granjas de trolls rusas han sido vinculadas a operaciones de influencia de gran magnitud en todo el mundo, a menudo en conjunto con otras actividades cibernéticas y de inteligencia. Algunos de los casos más significativos incluyen:
- Interferencia en las elecciones estadounidenses de 2016: La campaña de la IRA para entrometerse en la carrera presidencial estadounidense de 2016 es el ejemplo por excelencia de la interferencia de una granja de trolls. Desde al menos 2014, los trolls de San Petersburgo crearon una vasta red de identidades falsas en Facebook, Twitter, Instagram, YouTube y Reddit, haciéndose pasar por activistas liberales, votantes conservadores, simpatizantes de Black Lives Matter, separatistas sureños, grupos musulmanes, lo que sea spyscape.com, en.wikipedia.org. Estas cuentas difundieron millones de publicaciones destinadas a avivar ambos lados de temas divisivos (relaciones raciales, derechos de armas, inmigración) y desacreditar a Hillary Clinton mientras impulsaban a Donald Trump. Incluso crearon páginas de Facebook para organizaciones ficticias y compraron anuncios dirigidos a demografías clave en estados decisivos businessinsider.com. Para el día de las elecciones, el contenido de las páginas controladas por la IRA había alcanzado a más de 126 millones de estadounidenses en Facebook, según revelaciones posteriores, y sus tuits de trolls fueron citados por los principales medios de comunicación. El objetivo, según se describe en las acusaciones estadounidenses, era “sembrar discordia en el sistema político de EE. UU.” y, en última instancia, ayudar a elegir a un candidato más favorable al Kremlin washingtonpost.com. Las agencias de inteligencia estadounidenses concluyeron que esta operación de influencia, dirigida por el gobierno ruso, marcó una nueva era de guerra informativa. En 2018, el Departamento del Tesoro de EE. UU. sancionó a la IRA y a Prigozhin por esta interferencia businessinsider.com, y el fiscal especial Robert Mueller acusó a 13 operativos de la IRA. Aunque ninguno fue juzgado (ya que permanecieron en Rusia), la acusación expuso detalles extensos de cómo la granja de trolls organizó mítines, robó identidades estadounidenses y explotó los algoritmos de las redes sociales a una escala sin precedentes businessinsider.com, spyscape.com.
- 2018–2020: Continuación de operaciones en EE. UU. y África: A pesar de la reacción negativa de 2016, los trolls rusos no cesaron sus actividades. De cara a la elección estadounidense de 2020, la IRA experimentó con subcontratar su troleo en inglés a intermediarios en África. En un caso notable descubierto en 2020, una granja de trolls en Ghana y Nigeria (presuntamente dirigida por operadores rusos) manejaba docenas de cuentas en redes sociales que se hacían pasar por activistas afroamericanos, publicando sobre temas raciales para avivar la división en EE. UU. newslit.org. Facebook y Twitter, alertados por investigadores y CNN, finalmente desactivaron la red newslit.org. Mientras tanto, la inteligencia estadounidense advirtió que Rusia continuaba difundiendo narrativas engañosas durante la campaña de 2020, aunque una mayor vigilancia de las plataformas y una alta conciencia pública dificultaron que los trolls tuvieran el mismo impacto que en 2016. Cabe destacar que la IRA también se adaptó creando “franquicias”: en lugar de operar todas las cuentas desde San Petersburgo, proporcionaban contenido y dirección a personas afines o contratadas en el extranjero, quienes eran más difíciles de rastrear. Por ejemplo, acusaciones separadas en EE. UU. en 2020 revelaron un esfuerzo ruso para reclutar estadounidenses (incluido un activista político en Florida) para publicar artículos escritos por identidades falsas y organizar protestas. Así, el manual de la granja de trolls estaba evolucionando, pero los objetivos seguían siendo los mismos. El Comando Cibernético de EE. UU. incluso tomó la medida de hackear los servidores de la IRA a finales de 2018 para interrumpir sus actividades durante las elecciones de medio término, dejando brevemente fuera de línea la fábrica de trolls spyscape.com. El respiro fue temporal – los informes indicaron que se reagruparon después – pero demostró que los gobiernos occidentales estaban cada vez más dispuestos a tomar acciones ofensivas contra los trolls.
- 2016–2017 Campañas sobre el Brexit y Europa: En Europa, los trolls rusos apuntaron a eventos clave como el referéndum del Brexit en el Reino Unido en 2016 y las elecciones presidenciales francesas en 2017. En Gran Bretaña, las investigaciones encontraron que cuentas de Twitter vinculadas al Kremlin (incluyendo perfiles de la IRA identificados por Twitter) habían promovido mensajes a favor del Brexit e historias incendiarias sobre inmigración en los días previos a la votación washingtonpost.com. La escala fue menor que en EE. UU., lo que llevó a los analistas a evaluar que los trolls rusos no inclinaron decisivamente el resultado del Brexit, pero la intención de interferir era evidente washingtonpost.com. Simultáneamente, durante las elecciones francesas de 2017, operativos rusos (a través de trolls y hackers) difundieron y amplificaron las llamadas “Macron leaks”: una filtración de correos electrónicos hackeados de la campaña del candidato Emmanuel Macron, junto con desinformación sobre Macron, en un esfuerzo por ayudar a su oponente de extrema derecha Marine Le Pen. El monitoreo cibernético francés detectó que muchas de las cuentas en redes sociales que impulsaban #MacronLeaks en Twitter eran de reciente creación o estaban vinculadas a redes de influencia rusas. En Alemania, las autoridades se prepararon para una interferencia similar en torno a las elecciones federales de 2017. Aunque no se materializó una gran campaña de trolls (posiblemente disuadida por las advertencias del gobierno alemán), se sospechó de la mano rusa en otros incidentes, como una historia de propaganda de 2016 que afirmaba falsamente que una niña ruso-alemana “Lisa” había sido violada por migrantes en Berlín, la cual fue ampliamente promovida en redes sociales rusas y provocó protestas. Los líderes europeos tomaron nota: a finales de 2017, la primera ministra May acusó públicamente a Rusia de interferir en toda Europa, y el presidente del gobierno español Mariano Rajoy reveló datos de que durante la crisis de independencia de Cataluña en 2017, una gran parte de la actividad falsa en línea provenía de Rusia o Venezuela washingtonpost.com. Todos estos esfuerzos servían al interés de Moscú de debilitar a la UE y la OTAN al empoderar movimientos nacionalistas y separatistas.
- Propaganda en Ucrania y Estados vecinos: El uso de granjas de trolls por parte de Rusia ganó fuerza por primera vez durante sus intervenciones en su extranjero cercano. Cuando Rusia anexó Crimea en 2014 y fomentó la guerra en el este de Ucrania, un ejército de trolls comenzó a trabajar en línea para justificar las acciones de Moscú y vilipendiar al gobierno ucraniano. Las redes sociales de habla rusa, así como las plataformas occidentales, fueron inundadas con mensajes repetitivos que repetían las narrativas del Kremlin: que el gobierno de Kiev era una “junta fascista”, que se estaban cometiendo atrocidades (a menudo inventadas) contra los rusoparlantes, y que las sanciones occidentales serían contraproducentes. Estos trolls buscaban “inundar la zona” con la versión de los hechos del Kremlin, dificultando que los observadores casuales pudieran discernir la verdad. Avanzando hasta 2022 y la invasión total de Ucrania: los trolls rusos se activaron nuevamente a escala global. A los pocos días de la invasión, los analistas identificaron redes de cuentas no auténticas en Twitter, TikTok e Instagram difundiendo desinformación – como afirmaciones de que los videos de ciudades ucranianas bombardeadas eran falsos propublica.org. ProPublica e investigadores de la Universidad de Clemson rastrearon docenas de cuentas en ruso que, en marzo de 2022, publicaron simultáneamente el mismo video engañoso (que “exponía” falsamente una escena de víctimas civiles escenificada en Ucrania), una característica de una operación coordinada de trolls propublica.org. Estas cuentas mostraban claras huellas del IRA, incluyendo horarios de trabajo alineados con la zona horaria de Moscú y descansos los fines de semana y feriados rusos propublica.org. A medida que avanzaba la guerra, el contenido de los trolls se adaptó: inicialmente en confusión, luego repitiendo la propaganda oficial culpando a la OTAN por la guerra y negando cualquier fracaso militar ruso propublica.org. Los trolls también apuntaron a audiencias internacionales para debilitar el apoyo a Ucrania – argumentando en hilos de comentarios occidentales que las sanciones a Rusia perjudicaban más a Europa, o amplificando voces de extrema derecha en Europa que se oponían a armar a Ucrania theguardian.com. En un estudio financiado por el Reino Unido, los analistas señalaron que la operación de trolls en San Petersburgo (Cyber Front Z) tomó ideas de movimientos conspirativos como QAnon en la forma en que difundía sus mensajes e intentaba reunir simpatizantes en línea theguardian.com. Así, la guerra en Ucrania ha estado acompañada por una guerra de información paralela, con las granjas de trolls rusas desempeñando un papel central en la difusión de “mentiras a favor de la guerra” a nivel global theguardian.com. Su impacto es evidente en la persistencia de narrativas favorables al Kremlin en algunos segmentos de la opinión pública, a pesar de los informes fácticos que indican lo contrario.
- Pandemia de COVID-19 y Otros Problemas Globales: Los trolls rusos han aprovechado oportunamente las crisis y controversias globales, desde la pandemia de COVID-19 hasta las protestas por la justicia social, como terreno fértil para la desinformación. Durante la pandemia, cuentas de trolls alineadas con el Estado difundieron una infinidad de teorías conspirativas: afirmando que el coronavirus era un arma biológica de EE. UU., promoviendo desinformación antivacunas y exacerbando la desconfianza en las instituciones de salud pública thebulletin.org. El objetivo no era presentar una alternativa coherente, sino “amplificar la duda” y la disfunción en las sociedades occidentales durante un momento de incertidumbre thebulletin.org. De manera similar, en 2020, cuando EE. UU. presenció históricas protestas por la justicia racial, las granjas de trolls rusas redoblaron esfuerzos para inflamar las divisiones raciales: por un lado, haciéndose pasar por voces de extrema derecha que condenaban las protestas, y por otro, haciéndose pasar por activistas de izquierda para alentar sentimientos más extremos, jugando así a ambos bandos para alimentar el caos. Estos casos muestran que, más allá de la política y la guerra, cualquier tema divisivo puede convertirse en un campo de batalla para operaciones de influencia impulsadas por trolls. Desde los debates sobre el cambio climático hasta los mandatos de vacunación, los trolls rusos han inyectado afirmaciones falsas para volver tóxico el discurso. Al agravar la polarización en todos los frentes, avanzan el objetivo de Moscú de un Occidente debilitado y conflictivo.
Perspectivas de Expertos y Exposiciones
Numerosas investigaciones de periodistas, académicos y agencias de inteligencia han levantado el velo sobre las granjas de trolls de Rusia. Los expertos enfatizan que estas operaciones son una nueva clase de amenaza con la que las democracias deben lidiar. “2016 fue solo el comienzo,” señala un informe de PBS; desde entonces, los operadores en línea del Kremlin se han vuelto más sofisticados y mejores para imitar a personas reales pbs.org.
Los investigadores que estudian las tácticas de las granjas de trolls han hecho observaciones sorprendentes. Darren Linvill, profesor en la Universidad de Clemson, ha pasado años analizando cuentas de la IRA. Señala patrones reveladores: “Durante los feriados rusos y los fines de semana, la actividad [de ciertas cuentas troll] disminuía,” lo que indica que los que publicaban seguían un horario laboral asalariado y no eran verdaderos voluntarios spyscape.com. El análisis de su equipo junto con ProPublica confirmó que las publicaciones de cuentas sospechosas de pertenecer a la IRA aparecían en “horarios definidos consistentes con la jornada laboral de la IRA.” spyscape.com. En otras palabras, los activistas de base reales no se toman los fines de semana libres al unísono, pero los empleados de las fábricas de trolls sí. Linvill concluyó, “Estas cuentas muestran todos los indicios que tenemos para sugerir que se originan en la Agencia de Investigación de Internet.” spyscape.com Si por alguna razón no fueran de la IRA, bromeó, “eso es peor, porque no sé quién lo está haciendo.” propublica.org. Su análisis subrayó cuán consistente y profesionalizada se había vuelto la máquina de desinformación rusa.
Relatos internos también han arrojado luz sobre las operaciones. La valiente denuncia de la periodista Lyudmila Savchuk en 2015 ofreció una primera mirada al interior de las oficinas de la “fábrica de trolls” de la IRA. Ella describió un ambiente casi surrealista: jóvenes empleados en cubículos publicando incansablemente bajo identidades falsas, con directrices de propaganda entregadas como asignaciones editoriales cada mañana. “Al principio no podía creer que fuera real… fue una especie de choque cultural,” contó otro operativo encubierto a Radio Free Europe rferl.org. Hablaron de un ambiente de línea de ensamblaje donde la creatividad era menos valorada que la obediencia a los temas narrativos diarios establecidos por los supervisores.
Los gobiernos occidentales se han vuelto más expresivos al denunciar esta actividad. En abril de 2022, la Secretaria de Asuntos Exteriores británica Liz Truss condenó la nueva campaña de trolls de Rusia en torno a la guerra de Ucrania, declarando: “No podemos permitir que el Kremlin y sus turbias granjas de trolls invadan nuestros espacios en línea con sus mentiras sobre la guerra ilegal de Putin.” theguardian.com. El gobierno del Reino Unido llegó al extremo de financiar públicamente investigaciones sobre la operación de San Petersburgo y compartir los hallazgos con las plataformas de redes sociales para facilitar las represalias theguardian.com. La misma investigación reveló la disposición de los trolls a innovar – por ejemplo, amplificando publicaciones legítimas de usuarios reales que coincidían con las opiniones del Kremlin, evitando así una detección fácil ya que el contenido no siempre era fabricado theguardian.com. Este juego del gato y el ratón entre las granjas de trolls y los moderadores de las plataformas es algo de lo que las agencias de inteligencia son muy conscientes. En EE. UU., el FBI y el Departamento de Seguridad Nacional han advertido repetidamente que los agentes rusos se adaptan rápidamente a las prohibiciones de las plataformas, reapareciendo con nuevas cuentas y nuevas tácticas.
Un funcionario del FBI en 2020 señaló que los operativos rusos eran “persistentes y creativos”, utilizando intermediarios y proxies para ocultar su implicación después de que las empresas de redes sociales comenzaran a prohibir cuentas en masa. Por ejemplo, después de que Facebook y Twitter eliminaran miles de cuentas de la IRA tras 2016, los trolls reaparecieron a través de terceros países (como se vio con la operación de Ghana) o cambiando a plataformas alternativas con una moderación más laxa. Su resiliencia llevó al Departamento de Justicia de EE. UU. en 2020 a sancionar a más individuos e incluso a sitios vinculados a granjas de trolls (como SouthFront y NewsFront) para cortar su financiación y alojamiento.
Los think tanks y académicos también han destacado las herramientas tecnológicas en evolución a disposición de los trolls. Un informe de 2018 del Institute for the Future advirtió que el trolling a gran escala debería tratarse como un abuso de derechos humanos debido al daño que causa a las sociedades, pero lamentó la falta de mecanismos para castigar a los perpetradores newslit.org. Avanzando hasta 2024, los analistas observan que el contenido generado por IA es la nueva frontera. En un estudio de la UE sobre desinformación, los expertos señalaron que las tácticas rusas anteriores “dependían de estrategias de baja tecnología como granjas de trolls y redes de bots,” mientras que para 2024 las campañas aprovechan cada vez más la IA generativa para crear “contenido hipersegmentado” que es más difícil de detectar carleton.ca. Las operaciones de influencia rusas han comenzado a usar IA para generar imágenes, videos y textos deepfake realistas a gran escala, lo que permite narrativas falsas aún más potentes. El Servicio Europeo de Acción Exterior señaló en 2023 que muchas campañas recientes de desinformación del Kremlin, incluidas las llamadas operaciones de información “Doppelgänger” (que clonan sitios de noticias reales para difundir historias falsas), pueden rastrearse hasta entidades financiadas por agencias estatales rusas y ahora aumentadas con capacidades de IAcarleton.ca. Esto subraya que el modelo de granja de trolls no es estático: actualiza continuamente sus técnicas, desde simples memes copiados y pegados en 2016 hasta contenido forjado por IA en 2024 y más allá.2024–2025: Últimos desarrollos y perspectivas
A partir de 2024 y 2025, las operaciones de las fábricas de trolls de Rusia siguen siendo un objetivo en movimiento, reaccionando a eventos geopolíticos y cambios de poder internos. Un desarrollo dramático fue el destino de la Internet Research Agency en sí. En junio de 2023, Yevgeny Prigozhin – el fundador de la IRA – llevó a cabo un breve motín contra el liderazgo militar ruso con sus fuerzas mercenarias Wagner. El fracaso de la rebelión y la posterior muerte de Prigozhin en un sospechoso accidente aéreo (agosto de 2023) llevaron al Kremlin a tomar el control de sus extensos negocios. Surgieron informes de que para julio de 2023, las operaciones de la IRA en San Petersburgo fueron oficialmente cerradas tras la caída en desgracia de Prigozhin businessinsider.com. De hecho, la propia empresa mediática de Prigozhin, Patriot Media, anunció que “abandonaba el espacio informativo del país” mientras el gobierno procedía a desmantelar sus órganos de influencia businessinsider.com. El propio Prigozhin incluso confirmó en una entrevista poco antes que él había creado y dirigido la IRA, aparentemente buscando atribuirse el mérito de su misión “patriótica” spyscape.com. A principios de julio de 2023, los medios estatales rusos informaron que la infame fábrica de trolls había sido disuelta – un hecho también señalado por medios occidentalesbusinessinsider.com.Sin embargo, este “fin” de la IRA no significó el fin de las operaciones de troleo rusas. Los analistas creen que el Kremlin simplemente absorbió o reestructuró estas capacidades en otras manos. Un informe del Grupo de Análisis de Amenazas de Google en marzo de 2024 observó que, si bien la actividad directa de la IRA en las plataformas de Google disminuyó tras la desaparición de Prigozhin, componentes de las campañas de influencia vinculadas a Prigozhin “han permanecido viables” y probablemente continúan bajo una gestión diferente cloud.google.com. Los investigadores de Mandiant señalaron que varias operaciones de información rusas de larga duración mostraron “grados desiguales de cambio” después de Prigozhin, con cierta disrupción pero muchos activos aún activos, lo que sugiere que el Kremlin redistribuyó el control en lugar de cerrarlo todo cloud.google.com. Cabe destacar que, durante todo 2023, Google y Meta continuaron eliminando grandes cantidades de cuentas falsas vinculadas a redes de desinformación rusas. Google informó de más de 400 acciones de cumplimiento en 2023 contra operaciones de influencia vinculadas a la IRA cloud.google.com. Y a finales de 2024, antes de elecciones críticas, los funcionarios estadounidenses seguían dando la voz de alarma: el FBI y otras agencias advirtieron que Rusia tenía la plena intención de interferir en las elecciones presidenciales estadounidenses de 2024 utilizando la manipulación en redes sociales, incluso si el manual debía ajustarse sin el centro original de la IRAreuters.com.
De hecho, ya se han observado intentos de interferencia electoral de cara a 2024. Un ejemplo contundente ocurrió en octubre de 2024, cuando funcionarios del estado de Georgia, EE. UU., señalaron un video viral de desinformación que falsamente pretendía mostrar a un “inmigrante ilegal” jactándose de haber emitido múltiples votos. La oficina del Secretario de Estado de Georgia declaró directamente: “Esto es falso… Probablemente sea una interferencia extranjera que intenta sembrar discordia y caos en vísperas de las elecciones.” reuters.com Instaron a las empresas de redes sociales a eliminar el video, señalando que “Probablemente sea una producción de granjas de trolls rusas.” reuters.com. Este incidente –ocurrido justo antes de unas elecciones estadounidenses polémicas– demuestra que los trolls rusos siguen activos en 2024, utilizando videos virales engañosos en plataformas como X (Twitter) para minar la confianza en la votación reuters.com. Agencias federales como CISA investigaron el incidente, y sirvió como recordatorio de que, incluso sin el liderazgo original de la IRA, el aparato de influencia rusa en línea puede lanzar rápidamente nuevas campañas ad hoc cuando sea necesario.
De cara a 2025, los expertos consideran que las operaciones de las granjas de trolls rusas continuarán adaptándose en lugar de desaparecer. Con Moscú enfrascado en una guerra prolongada en Ucrania y enfrentando presiones internas, el Kremlin tiene un fuerte incentivo para seguir utilizando el “arma barata pero efectiva” de la manipulación en línea. Podemos esperar que los operadores rusos adopten aún más las tecnologías emergentes –especialmente la IA. Analistas europeos señalaron que, para finales de 2024, la escala y velocidad de la desinformación rusa había aumentado gracias a las herramientas de IA generativa, facilitando la producción masiva de contenido falso carleton.ca. Esto significa que las futuras tácticas de las granjas de trolls podrían involucrar “personas” generadas por IA (para fotos de perfil perfectamente realistas e incluso comentarios en video deepfake), así como propaganda adaptada algorítmicamente para dirigirse con precisión a comunidades específicas. La carrera armamentista entre las plataformas y los trolls probablemente se intensificará: a medida que las empresas mejoren en prohibir firmas conocidas de trolls, estos aprovecharán la IA para crear personajes y contenido cada vez más convincentes.
En el escenario geopolítico, las granjas de trolls de Rusia (bajo cualquier nuevo disfraz) probablemente apuntarán a cualquier evento importante relevante para los intereses del Kremlin. Las próximas elecciones en países occidentales, los debates sobre el apoyo a Ucrania e incluso cuestiones como crisis energéticas o conflictos internacionales podrían convertirse en escenarios para renovadas ofensivas de desinformación. Las agencias de seguridad de la Unión Europea han reforzado su monitoreo de la “Manipulación e Interferencia de Información Extranjera” (FIMI), publicando informes periódicos de amenazas que casi invariablemente destacan operaciones rusas. Funcionarios de la OTAN y la UE advierten que Rusia intentará fracturar la unidad occidental respecto a Ucrania alimentando narrativas extremistas y aislacionistas a través de las redes sociales (por ejemplo, promoviendo voces que se oponen a ayudar a Ucrania o que apoyan políticas favorables a Rusia). De hecho, las elecciones al Parlamento Europeo de 2024 vieron un aumento de mensajes –incluyendo sitios de noticias falsos clonados en una campaña “Doppelgänger”– que impulsaban temas anti-Ucrania y anti-UE, los cuales los analistas vincularon a grupos de desinformación rusos carleton.ca. La influencia de tales esfuerzos es difícil de cuantificar, pero coincidieron con avances de bloques políticos de extrema derecha y pro-rusos, lo que indica cierto efectocarleton.ca.En el ámbito interno de Rusia, es probable que el Kremlin mantenga un control férreo sobre la narrativa por cualquier medio necesario, incluidas las granjas de trolls o sus sucesores. Tras el motín de Prigozhin, Putin aprendió el riesgo de permitir que un actor privado controle demasiado la maquinaria de propaganda. No sería sorprendente que los servicios de seguridad rusos (como el FSB o la inteligencia militar) hayan asumido el control de partes de las operaciones de troleo para garantizar lealtad y supervisión directa. El tono del troleo doméstico ruso desde finales de 2023 ha cambiado para borrar la memoria de Prigozhin (dada su traición) y reforzar la figura de Putin en medio de los desafíos de la guerra tandfonline.com. Cualquier ruso que exprese cansancio por la guerra o critique al gobierno en línea puede esperar ser atacado por comentaristas “patrióticos”, en muchos casos trolls, que los acusan de traidores, enfriando así la disidencia. Esto indica que la táctica de las granjas de trolls sigue siendo un pilar de la propaganda interna, solo que ahora más centralizada por el Estado.
En conclusión, las fábricas de trolls de Rusia han evolucionado de ser un experimento marginal a un instrumento de poder estatal en toda regla en la era de la información. Operan como fábricas de propaganda del siglo XXI, generando mentiras, miedo y discordia con solo hacer clic con el ratón. En la última década, han interferido en elecciones, alimentado conflictos y contaminado innumerables debates en línea. Y a pesar de la mayor exposición y las sanciones, no muestran señales de detenerse, solo de cambiar de forma. Mientras las sociedades abiertas dependan de plataformas en línea para informarse y debatir, los trolls del Kremlin buscarán explotar esa apertura. Combatir esta amenaza requerirá vigilancia constante, conciencia pública y cooperación internacional. El mundo ha despertado al manual de las fábricas de trolls rusas; el reto ahora es evitar que estos “soldados digitales” secuestren la conversación global con manipulación y malicia.