GRANJAS DE BOTS
La fábrica de la opinión pública
Las granjas de bots son aquellos grupos de cuentas falsas manejadas por programas de computadora que fingen ser personas reales.
Miles de cuentas publicando mensajes casi idénticos se convierten en un enjambre que habla, y en esa saturación logran que lo humano se pierda entre tanto ruido.
Y si preguntas qué parte del tráfico en internet es artificial, la respuesta es al menos la mitad. Cerca del 50 % del tráfico en la web es generado por bots, de los cuales el 20 % son maliciosos.
Se calcula que hasta un 15% de las cuentas de Twitter/X corresponden a bots, lo que representa unos 48 millones de cuentas falsas o automatizadas.
Estas granjas usan programas que publican mensajes automáticamente, listas de palabras para variar el texto, y trucos para esconder que no son humanos. Ahora, con avances en inteligencia artificial, generan mensajes que suenan como conversaciones normales, a gran escala. Esto les permite crear tendencias falsas, llenar etiquetas con basura para enterrar críticas, o acosar a quien molesta, todo para distorsionar qué parece importante en una comunidad.
En redes donde lo popular se mide por likes o compartidos, controlar esos números es como hackear la atención colectiva.
El filósofo Byung Chul Han que ha analizado la «economía de la atención» explica que lo que importa ya no es la verdad, sino lo visible.
Un caso documentado por la Universidad de Oxford en 2019 mostró que al menos 70 países habían implementado algún tipo de operación de manipulación digital con ejércitos de bots. En México, por ejemplo, se descubrió que las campañas electorales eran infladas artificialmente mediante programas automatizados que replicaban argumentos a tal velocidad que el algoritmo de Twitter las colocaba en tendencias.
En Rusia, investigaciones sobre la Internet Research Agency mostraron que un pequeño grupo de operadores, con la ayuda de miles de cuentas falsas, lograba influir en discusiones políticas globales, desde la guerra en Ucrania hasta elecciones presidenciales en Estados Unidos.
No hace falta un ejército humano de grandes proporciones, basta con un núcleo de programadores y servidores que gestionen cientos de miles de perfiles falsos para alterar la agenda pública mundial.
No importa el país; el método se copia: mezclar trucos sociales con automatización para comprar atención barata. Decenas de gobiernos y partidos pagan por «equipos» digitales para dirigir conversaciones en redes, con dinero público o de campaña para contratar ayuda externa y amplificar mensajes coordinados.
Pero hay datos. Muchos.
Un experimento de la Universidad de Ámsterdam reunió 500 bots con personalidades variadas. Ni siquiera necesitaban algoritmos complejos de recomendación, en un entorno mínimamente social, los bots formaron rápidamente cámaras de eco, polarizaron posiciones y consagraron a unos pocos “influencers” artificiales.
Sin mediación, la estructura de la red fue suficiente para favorecer la división.
Un segundo dato: alrededor de la carrera para elegir al Speaker de Texas en 2025, una firma detectó que muchos comentarios negativos no provenían de ciudadanos indignados, sino de bots creados para simular enfado. Aunque el político en cuestión ganó, el episodio exhibió lo fácil que es fabricar oposición desde la nada.
Se estima que los bots generan contenido a una velocidad abrumadora, llegando a ser hasta 66 veces más activos que un usuario promedio, y en discusiones intensas representan hasta un tercio del contenido, a pesar de ser una minoría en número.
Las redes muestran lo más visto o comentado primero, y las personas usan eso para decidir qué leer. Si un programa genera miles de interacciones falsas a bajo costo, engaña esa guía, haciendo que algo parezca masivo cuando no lo es. Esto lleva a un efecto social donde, si crees que tu idea es minoritaria por el ruido falso, prefieres quedarte callado. Casos en países con control estricto muestran que, al cerrar estas redes falsas, más personas se animan a hablar, porque la percepción de popularidad influye en si te atreves o no.
Cuando humanos reales perciben que sus opiniones son minoritarias basándose en señales artificiales, callan porque el entorno digital los convence de que sus opiniones carecen de valor.
Si un detector encuentra bots por patrones repetidos, cambian a variaciones aleatorias, usan textos generados por IA que parecen únicos o hasta pagan a personas para partes difíciles. Herramientas para cazar bots reconocen que ya no distinguen bien lo falso de lo real, sobre todo con mezclas de humano e IA. En los últimos años, el cambio grande es que ahora mantienen conversaciones largas, ajustan el tono a cada persona y crean argumentos a medida.
Cada avance defensivo genera evolución ofensiva. Los atacantes van siempre un paso adelante porque son suficientemente convincentes durante el tiempo crítico para influir en una decisión irreversible.
Las granjas son alimentadas por las plataformas y sus reglas. Al priorizar lo que genera reacciones, premian el conflicto sobre la información útil, creando grupos cerrados que exageran extremos y dan poder a pocos.
Si la estructura ya inclina hacia el caos, un operador solo añade combustible.
Cuando las interacciones se convierten en un show de números falsos, aísla a la gente en burbujas donde el sesgo crece, priorizando likes sobre conexiones auténticas. La presión por ser visible lleva a que uno se venda a sí mismo, entregando datos que luego usan para manipular mentes.
Estas tácticas automáticas de propaganda se extienden por el mundo, convirtiendo la comunicación en arma de poder desigual. Subgrupos en línea las usan para radicalizar, empujando ideas extremas con imágenes virales y bots que fijan temas. En movimientos sociales, ayudan a organizar, pero también esparcen mentiras que confunden y debilitan. La falsedad se arma en equipo, con actores variados creando redes que parecen naturales, dejando a usuarios desprevenidos.
Las granjas de bots ganan cuando confundimos cantidad con razón y atención con verdad.
La metáfora más acertada quizás sea la del virus: las granjas de bots son patógenos informacionales que infectan el cuerpo social. No destruyen de manera directa, sino que desorganizan las defensas de la opinión pública. Ya no sabe diferenciar entre lo real y lo artificial, generando así apatía, polarización y desconfianza generalizada en las instituciones.
Referencias y fuentes confiables
Pew Research Center (2018): “Bots in the Twittersphere” – Informe sobre la prevalencia de bots en la circulación de noticias.
Ferrara, Emilio (2017): Disinformation and Social Bot Operations in the Run Up to the 2017 French Presidential Election. First Monday.
University of Amsterdam – Project SIENNA (2023): Experimento sobre formación de cámaras de eco con bots y dinámica de influencers sintéticos.
New York Times / Washington Post (2017–2018): Cobertura sobre la injerencia del Internet Research Agency en elecciones de EE. UU. de 2016.
Oxford Internet Institute (2019, 2021), investigaciones sobre la Internet Research Agency.
Byung-Chul Han (2017): En el enjambre. Análisis sobre la lógica de la comunicación digital.
Deja un comentario