En la selva digital que son hoy las redes sociales, resulta cada vez más difícil saber si quien opina, aplaude o ataca es una persona o una máquina.
La nueva generación de bots -programas que simulan ser usuarios reales- ha aprendido a comportarse como nosotros.
Publican a todas horas, usan frases comunes, imitan emociones y hasta comentan en un español decente. El objetivo: desinformar, influir, confundir.
Este fenómeno no es exclusivo de grandes potencias. En la República Dominicana, su impacto es cada vez más visible.
La revista española Ciberseguridad ha alertado sobre los «bots grises», impulsados por inteligencia artificial para difundir mensajes engañosos sin levantar sospechas. Su realismo ha difuminado la frontera entre lo auténtico y lo manipulado.
Las autoridades reaccionan:
El Instituto Dominicano de las Telecomunicaciones (Indotel) ha comenzado a enfrentar esta amenaza con propuestas de educación digital.
En el foro «Redes Sociales, Periodismo y Democracia», realizado junto a la Universidad Iberoamericana (Unibe), se revelaron datos preocupantes: el 67 % de la información que circula en redes dominicanas es falsa, y el 77 % de los usuarios la comparte sin verificarla.
Para responder a esta crisis de confianza, Indotel lanzó «Teo», un asistente virtual que orienta a los ciudadanos sobre servicios de telecomunicaciones y ciberseguridad. Una herramienta que busca acercar la tecnología desde el lado correcto.
Bots cada vez más sofisticados:
Pero mientras se educa al público, los bots se perfeccionan. Según la firma Barracuda Networks, en 2024 representaron el 24 % del tráfico global de internet.
Y casi la mitad de ellos eran tan avanzados que lograban burlar CAPTCHAs, filtros de IP y otros sistemas de seguridad.
Estos «bots avanzados» ya no solo imitan lenguaje humano: replican también patrones de navegación y de interacción social.
Tushar Richabadas, portavoz de Barracuda, advierte sobre otra amenaza más sutil: los bots que no atacan directamente, pero extraen información masiva de sitios web para usos poco éticos o ambiguos.
Política, odio y manipulación:
En el ámbito político dominicano, su uso ha generado controversia. En 2022, el senador Yván Lorenzo acusó al Gobierno de operar «granjas de bots« para atacar opositores y manipular tendencias.
Aunque no hubo una investigación formal ni pruebas concluyentes, la denuncia reflejó una preocupación latente: la manipulación del debate público desde el anonimato digital.
Además de la desinformación, muchos bots se emplean para amplificar discursos de odio. Programados para actuar de forma anónima y masiva, estos perfiles difunden mensajes misóginos, racistas, xenófobos o de intolerancia política.
No solo buscan agredir, sino también polarizar, provocar reacciones viscerales y deslegitimar voces críticas. Así, contaminan el espacio digital y convierten las redes en terreno fértil para la radicalización simbólica.
Tendencias falsas y ruido artificial:
Los bots engañan y hacen ruido. Usan técnicas como la sincronización de publicaciones, el uso masivo de «me gusta» y retuits, y la inserción estratégica de hashtags populares para empujar contenido hacia la viralidad. Incluso crean cuentas falsas que interactúan entre sí, simulando comunidades activas que refuerzan narrativas o atacan desde distintos ángulos.
Este comportamiento manipula a los algoritmos de las plataformas -que priorizan lo más interactuado-, y contribuye a la polarización al dirigir mensajes diseñados para provocar indignación, miedo o adhesión emocional rápida.
¿Cómo reconocer un bot?
Aunque distinguirlos a simple vista es difícil, hay señales. Actividad continua sin pausas, mensajes genéricos como «Qué buena noticia», perfiles sin rostro ni biografía real, publicaciones sincronizadas con otras cuentas y errores de traducción son pistas claras.
Medios como Wired, el MIT Technology Review y el Instituto Reuters han publicado guías prácticas para reconocer cuentas automatizadas. Aun así, expertos como el Dr. Samuel Linares, advierte que, sin herramientas especializadas, detectar un bot sofisticado puede ser casi imposible.
El Digital News Report 2024 del Instituto Reuters confirma que esta inquietud no es local. Según el informe, el 59 % de los encuestados en 47 países teme no poder distinguir entre noticias verdaderas y falsas en internet. Y con la inteligencia artificial involucrada en la generación de contenido, el desafío se agrava.
«La gente teme por la fiabilidad del contenido, especialmente en temas como la política», afirma Nic Newman, autor del estudio. Una advertencia que resuena en un mundo donde el engaño puede venir con foto de perfil, nombre común y una redacción casi perfecta.
Porque cuando el engaño se disfraza de humano, la desinformación deja de parecer ficción. Y las redes, que prometían conexión y pluralidad, se convierten en un campo de batalla donde la verdad también necesita defensa.