Contribución al llamado de ACNUDH: Protección de personas defensoras de derechos humanos en la era digital

Derechos Digitales presentó una contribución al llamado de la ACNUDH sobre la protección de personas defensores de derechos humanos en la era digital. Proporcionamos información centralizada sobre las tendencias en la legislación que afectan el trabajo y la seguridad de los defensores de derechos humanos; la importancia de las comunicaciones digitales para su trabajo y sus acciones de incidencia; los riesgos que enfrentan relacionados con su privacidad y bienestar integral; y la centralidad de las respuestas corporativas.

Contribución a la encuesta en línea de la Oficina de Derechos Humanos de las Naciones Unidas sobre el espacio de la sociedad civil

Derechos Digitales respondió a la encuesta en línea de la Oficina de Derechos Humanos de las Naciones Unidas sobre el espacio cívico para informar sobre las tendencias legislativas e institucionales emergentes relativas al espacio de la sociedad civil en América Latina. Nuestras respuestas a esta encuesta destacan la reducción generalizada del espacio cívico en toda América Latina. Subrayamos que esta tendencia regresiva amenaza a la sociedad civil en Perú, Paraguay, Guatemala, Nicaragua, El Salvador, Venezuela y Ecuador.

Elecciones en un terreno sin reglas claras

Cuando hablamos de desinformación electoral no nos referimos únicamente a “noticias falsas”. Se trata de un conjunto de prácticas que buscan influir en la percepción del electorado, instalar dudas sobre los procesos democráticos o desacreditar candidaturas e instituciones. Incluye desde encuestas falsas y declaraciones inventadas hasta campañas coordinadas de hostigamiento, manipulación de contenido y uso estratégico de tecnologías emergentes como la IA o los deepfakes. Como ha advertido Derechos Digitales en distintos trabajos, el problema no es solo la existencia de contenidos engañosos, sino el ecosistema que permite su circulación y amplificación.

Las elecciones presidenciales recientes en la región, como las de Chile, Bolivia o Costa Rica, muestran que estas dinámicas no son marginales, sino estructurales. Y todo indica que serán centrales en los procesos electorales que se avecinan en 2026 en países como Brasil, Colombia y Perú.

De fenómeno marginal a herramienta política

En los últimos años, la desinformación dejó de ser un fenómeno esporádico para convertirse en parte integrada de las estrategias de campaña. Una investigación reciente de Bolivia Verifica y ProBox sobre las elecciones bolivianas de 2025 lo resume de forma clara: la desinformación digital ya no es algo marginal, sino una práctica que se despliega sistemáticamente en momentos críticos del proceso electoral. Durante esos comicios, se identificaron alrededor de 250 contenidos falsos o engañosos, marcando un precedente en el volumen de desinformación en Bolivia, incluyendo un uso inédito de herramientas de inteligencia artificial.

El estudio también identificó patrones que se repiten en distintos países de la región. El más frecuente fue la circulación de declaraciones falsas atribuidas a candidaturas u otros actores públicos, utilizadas estratégicamente para influir en la intención de voto. En segundo lugar, destacaron las encuestas falsas, utilizadas para instalar percepciones sobre quién va ganando o perdiendo en la contienda.

Este tipo de contenidos no circula de forma aislada. Las campañas desinformativas operan de manera coordinada y multiplataforma. Según la investigación de Derechos Digitales sobre elecciones y desinformación en Brasil, una narrativa puede surgir en espacios abiertos como TikTok o X, escalar rápidamente y luego trasladarse a aplicaciones de mensajería como WhatsApp o Telegram, donde su circulación se vuelve más difícil de rastrear o contrarrestar.

Narrativas de fraude y erosión de la confianza democrática

Entre las distintas formas que adopta la desinformación electoral, una de las más persistentes es la instalación de narrativas de fraude. Estas narrativas no necesariamente buscan demostrar irregularidades reales, sino instalar una sospecha permanente sobre la legitimidad del proceso electoral.

En el caso boliviano, este tipo de contenido ocupó un lugar central en la conversación digital durante las elecciones de 2025. Tal como documentaron Bolivia Verifica y ProBox, circularon de forma masiva declaraciones falsas atribuidas a candidaturas, encuestas manipuladas y contenidos diseñados para desacreditar a actores políticos, medios de comunicación y al propio Tribunal Supremo Electoral, con el objetivo de erosionar la confianza en el proceso.

Un fenómeno distinto, pero relacionado, se observó en Costa Rica. Allí, más que instalar una narrativa técnica de fraude, se han visto intentos sostenidos de deslegitimar al Tribunal Supremo de Elecciones a través de contenidos engañosos y campañas de desprestigio, incluyendo la difusión de información falsa desde cuentas institucionales que luego debió ser eliminada. Estos episodios muestran cómo la desinformación puede apuntar directamente a debilitar la credibilidad de las autoridades electorales, incluso en contextos donde estas aún mantienen altos niveles de confianza pública.

Al final, estas supuestas evidencias o ataques directos a las instituciones, terminan funcionando como estrategias para erosionar la confianza en las reglas del juego democrático, desplazando el debate desde las propuestas hacia la legitimidad misma de la elección. En ese terreno, la narrativa anti-sistema no es inocua, ya que abre espacio y favorece a candidaturas que construyen su estrategia precisamente en tensionar las instituciones democráticas.

Violencia política digital y sus efectos en la participación

Otro de los aspectos más críticos de la desinformación electoral en la región es su vínculo con la violencia política de género. Las campañas digitales no afectan a todas las personas por igual, dado que las candidatas mujeres y las personas LGBTIQA+ son, de manera sistemática, objeto de ataques que combinan desinformación, hostigamiento y discursos estigmatizantes.

En Chile, durante la última campaña presidencial, se evidenció cómo redes de cuentas, muchas de ellas automatizadas, amplificaban ataques contra candidatas mujeres, mezclando contenido falso con insultos y discursos de odio. Este tipo de violencia no solo afecta a las personas directamente atacadas, sino que también tiene un efecto más amplio: desincentiva la participación política y restringe quiénes pueden ocupar el espacio público. A su vez, genera un efecto circular: a menor diversidad entre quienes participan y acceden a espacios de poder, menor es también la capacidad de impulsar políticas que aborden estas violencias y sus impactos.

La expansión de herramientas de inteligencia artificial añade una nueva capa a este fenómeno. Como ha documentado la organización Situada sobre deepfakes, estas tecnologías facilitan la creación de contenido manipulado, muchas veces de carácter sexual, que afecta de manera desproporcionada a mujeres. En contextos electorales, esto se traduce en una herramienta particularmente efectiva para desacreditar o intimidar candidatas, reforzando desigualdades estructurales.

En la región, esta dinámica no es aislada. Como advierte IDEA Internacional, la violencia política digital contra mujeres se ha consolidado como una forma sistemática de limitar su participación en la vida pública, combinando acoso, amenazas y desinformación con sesgo de género. Estos ataques no solo buscan desacreditar, sino también reducir su visibilidad y capacidad de incidencia en espacios de decisión.

Inteligencia artificial, regulación y nuevas asimetrías

El uso de inteligencia artificial en campañas políticas es una realidad en América Latina, pero su impacto no es homogéneo. Si bien estas tecnologías permiten producir contenido falso de manera más rápida y a menor costo, su circulación sigue dependiendo de las mismas plataformas digitales que estructuran el ecosistema informativo.

Al mismo tiempo, empiezan a aparecer diferencias relevantes entre países. Mientras en algunos contextos el uso de estas tecnologías ocurre en marcos regulatorios difusos o inexistentes, otros han comenzado a establecer ciertos límites. Como advierte un informe conjunto de Derechos Digitales y otras organizaciones presentado ante Naciones Unidas sobre elecciones e integridad de la información, la falta de regulación clara puede facilitar la amplificación de desinformación y violencia digital en procesos electorales.

El caso brasileño permite observar algunos avances en esta materia. La autoridad electoral ha establecido límites específicos al uso de inteligencia artificial en campañas, incluyendo restricciones a sistemas automatizados para evitar que recomienden opciones de voto. Esto contrasta con otros contextos de la región. En Colombia, por ejemplo, se han documentado casos en que sistemas de inteligencia artificial como Grok han emitido respuestas con sesgo político en el contexto electoral, incluyendo recomendaciones o posicionamientos frente a candidaturas, evidenciando vacíos regulatorios y la falta de estándares claros para este tipo de herramientas.

Brasil, por su parte, muestra las tensiones propias de intentar regular un fenómeno que evoluciona rápidamente, donde las medidas institucionales conviven con limitaciones importantes en la circulación de contenidos en plataformas y aplicaciones de mensajería. La coordinación entre autoridades, empresas tecnológicas y sociedad civil ha sido relevante para responder a episodios de desinformación, pero no ha sido suficiente para contenerlos de manera estructural.

En muchos países de la región, estas condiciones ni siquiera están presentes. La cooperación con plataformas es limitada y los mecanismos de coordinación entre actores públicos y privados son débiles o inexistentes, lo que deja un terreno mucho más abierto para la circulación de desinformación en contextos electorales.

A esto se suma un problema más estructural: las plataformas no solo fallan en colaborar, sino que también han ido cerrando espacios de diálogo en otras esferas del debate público. Como se ha advertido en análisis previos de Derechos Digitales, sus decisiones de moderación, el funcionamiento opaco de sus algoritmos y modelos de negocio que priorizan contenidos polarizantes terminan moldeando el ecosistema informativo, amplificando ciertas narrativas y debilitando otras. En contextos electorales, estas dinámicas no desaparecen, sino que se intensifican.

Reglas que no alcanzan a la política digital

Uno de los principales problemas es que las reglas electorales siguen respondiendo a una realidad que ya cambió. Las normas fueron diseñadas para campañas en televisión, radio o espacios públicos, pero hoy la política se juega en plataformas digitales, con influencers, microsegmentación de mensajes y circulación en aplicaciones de mensajería.

Esta brecha se hace evidente en casos concretos de la región. En Colombia, por ejemplo, las campañas digitales operan en gran medida fuera de los marcos regulatorios existentes, donde contenidos difundidos desde cuentas personales o redes de apoyo no siempre son considerados propaganda electoral, dejando amplios espacios sin regulación.

Este cambio no es solo tecnológico, sino también político. Las campañas digitales permiten adaptar mensajes a audiencias específicas, operar con distintos niveles de visibilidad y, en muchos casos, evadir los marcos tradicionales de regulación electoral. Lo que antes era una franja televisiva, hoy puede tomar la forma de un video viral, una cadena de WhatsApp o una publicación aparentemente espontánea, cuya autoría y financiamiento resultan difíciles de rastrear.

En este escenario, gran parte de la actividad política digital, incluyendo la desinformación, ocurre en zonas grises regulatorias. A esto se suma la falta de colaboración de las plataformas digitales, que no han desarrollado herramientas adecuadas para enfrentar la circulación de contenidos engañosos en contextos electorales en la región, se rehúsan a transparentar cómo funcionan sus algoritmos y no hacen una rendición de cuentas adecuada a sus usuarios y a la ciudadanía en general.

La disputa por el ecosistema informativo

Las elecciones de 2026 no solo van a poner a prueba a las candidaturas, sino también a las condiciones en que se construye el debate público. En un escenario donde la desinformación forma parte de las campañas, la discusión ya no se trata  sobre programas o propuestas, ahora pasa a jugarse en cómo circula la información y quién logra instalar ciertas versiones de la realidad.

Ese terreno no es neutral. Está marcado por plataformas que toman decisiones sin demasiada transparencia, por Estados que llegan tarde -o definitivamente no llegan- a regular estos procesos, y por desigualdades en la forma en que las personas acceden y procesan la información. Estas desigualdades no son solo de acceso, sino también de condiciones: desde modelos como el zero rating que limitan la diversidad de contenidos disponibles, hasta las brechas en alfabetización digital inciden en cómo circula la información. A esto se suma el uso indebido de datos personales para segmentar y dirigir mensajes políticos, muchas veces sin supervisión efectiva, lo que profundiza aún más estas asimetrías.

En la práctica, esto termina definiendo quién puede participar en la conversación pública y en qué condiciones. No todos los actores compiten en igualdad de condiciones, y eso tiene efectos concretos en cómo se construyen las percepciones, las dudas y las decisiones electorales.

La pregunta, entonces, se centra en qué tipo de espacio público estamos construyendo. Y, en última instancia, qué tan capaces somos de sostener procesos democráticos en un entorno cada vez más mediado por plataformas, opaco y difícil de gobernar.

Contribución a la consulta de la RELE/OEA sobre el impacto de la inteligencia artificial en los derechos humanos

En esta contribución presentamos, ante la Relatoría Especial para la Libertad de Expresión (RELE), información centralizada sobre los impactos del uso de Inteligencia Artificial por parte de los Estados en América Latina en la privacidad, la libertad de expresión y asociación y el acceso a la información pública. Desglosamos recomendaciones orientadas a fortalecer los mecanismos de transparencia activa, la participación social, las auditorías independientes y las evaluaciones de impacto en derechos humanos de los sistemas de IA diseñados y desplegados en la gestión pública.

La erosión de la libertad de expresión en Costa Rica

Durante décadas, Costa Rica se presentó como una excepción democrática en Centroamérica, un país donde los derechos humanos se consolidaron frente a escenarios de inestabilidad en la región. Sin embargo, en los últimos años ese relato se ha tensionado en torno a la libertad de expresión. El país no está viviendo una ruptura autoritaria abrupta, sino una erosión progresiva que combina hostilidad política, vacíos legales y normalización social del silenciamiento.

La Clasificación Mundial de Libertad de Expresión de Reporteros Sin Fronteras muestra una caída progresiva: del 8° lugar en 2022, al 23° en 2023, 26° en 2024 y 36° en 2025, lo que representa el mayor retroceso en su trayectoria reciente. Este descenso no ocurre en abstracto: diversas coberturas periodísticas y análisis indican que durante el gobierno del presidente saliente Rodrigo Chaves Robles se impulsó una línea de confrontación con medios y periodistas, manifestada en ataques verbales, estigmatización de la prensa, presiones económicas y restricciones al acceso a la información pública que alimentan un clima de hostilidad, poco común en la historia del país.

Señales persistentes de presión sobre el ecosistema informativo y digital

En los años recientes, se vienen dando episodios que configuran un patrón reconocible de presión a la prensa. Uno de ellos fue la subasta de frecuencias de radio y televisión que generó fuertes cuestionamientos por su posible impacto en el pluralismo informativo y el acceso equitativo al espectro radioeléctrico. A esto se suman incidentes donde periodistas de medios digitales, especializados en verificación de datos, fueron objeto de restricciones o tratos diferenciados durante conferencias de prensa del Ejecutivo. En estos casos, la Sala Constitucional reconoció que estas prácticas vulneraban el ejercicio libre del periodismo.

Otro suceso fue el retiro de pauta estatal a un medio de comunicación luego de la publicación de contenidos satíricos sobre el gobierno. Según el Informe Nacional sobre Prácticas de Derechos Humanos 2024 del Departamento de Estado de EE. UU., se indica que la acción configuró una forma indirecta de sanción económica.

Esta rotura está teniendo repercusiones concretas en la percepción social y en las prácticas comunicativas de la ciudadanía. Los datos de la III Encuesta sobre Libertad de Expresión (Proledi-UCR 2025) revelan que más de la mitad de la población percibe un deterioro en su libertad de expresión y declara haber evitado expresar opiniones en redes sociales por temor a represalias o consecuencias. La percepción de censura y autocensura está en los niveles máximos de los últimos tres años, marcando el pulso de un entorno en el que internet y las plataformas digitales se convierten tanto en espacios esenciales de discusión como en territorios de riesgo para quienes discrepamos o criticamos al poder.

Costa Rica atrapada en la ola autoritaria

Las recientes elecciones del 1 de febrero marcaron un punto de inflexión en la política costarricense. La candidata oficialista Laura Fernández (aliada política y exministra de Chaves) logró una victoria en primera vuelta con alrededor del 51% de los sufragios, superando al principal contendiente de la oposición y evitando la segunda ronda.

Más allá del resultado de la votación, lo que preocupa es la consolidación de un clima político que debilita los contrapesos democráticos. La normalización del ataque a la prensa, la deslegitimación sistemática de voces críticas y la construcción de enemigos internos son rasgos ampliamente documentados en procesos de autoritarismo en la región. Que estas prácticas encuentren respaldo electoral en Costa Rica marca un quiebre en el país.

Sin equipararse aún a los escenarios más extremos, el gobierno costarricense comienza a reproducir patrones conocidos en los países centroamericanos. Desde Derechos Digitales lo hemos alertado. En el caso de El Salvador, por ejemplo, se dieron exilios masivos de periodistas y organizaciones de la sociedad civil en 2025, una situación que resuena más allá de sus fronteras y evidencia la fragilidad de la libertad de expresión cuando se normalizan narrativas de control por encima del debate crítico. En Honduras o Nicaragua, los medios enfrentan no solo presiones económicas y legales sino amenazas directas, lo que pone en perspectiva la preocupación costarricense como parte de un denominador común más amplio en la región.

El informe de la Fundación Heinrich Böll sobre libertad de expresión en Centroamérica evidencia que Guatemala, Honduras, El Salvador y Nicaragua ocupan posiciones muy bajas en los índices internacionales, reflejando contextos donde censura, criminalización del periodismo y violencia contra comunicadores son fenómenos recurrentes, y donde muchas veces no queda medio independiente alguno.

El escenario electoral de 2026 consolidó prácticas y narrativas que proyectan sus efectos más allá del ciclo electoral.

Derechos reconocidos, protecciones insuficientes

En términos generales, la libertad de expresión y de prensa en Costa Rica cuenta con una protección normativa robusta. La Constitución Política reconoce el derecho a la libre comunicación del pensamiento sin censura previa y prohíbe cualquier forma de restricción indirecta. A ello se suma la adhesión del país a instrumentos internacionales como la Convención Americana sobre Derechos Humanos y la Declaración de Principios sobre Libertad de Expresión, que obligan al Estado no solo a abstenerse de censurar, sino a garantizar condiciones efectivas para su ejercicio libre y seguro.

Sin embargo, esta solidez no se traduce en un desarrollo legislativo integral que permita enfrentar los desafíos contemporáneos. Como se evidenció en los casos registrados anteriormente, el rol de la Sala Constitucional fue clave para contener algunas de las amenazas más evidentes. Estos fallos funcionaron como un contrapeso institucional frente a decisiones administrativas y prácticas gubernamentales que, de otro modo, habrían consolidado restricciones indirectas al ejercicio periodístico. Pero el rol de la Sala Constitucional como principal barrera de protección también evidencia que se depende cada vez más de la judicialización posterior, y no de políticas públicas preventivas.

A las alertas señaladas, se suma la evaluación de la Sociedad Interamericana de Prensa (SIP), que en 2025 señaló la existencia de un “ambiente de creciente deterioro de la libertad de expresión” en Costa Rica, marcado por el hostigamiento en redes sociales a personas críticas del gobierno y por el uso discrecional de recursos públicos como la pauta oficial. Estas prácticas, aun cuando no constituyen censura directa, generan un efecto inhibidor para la autoexpresión.

Diversas organizaciones de la sociedad civil vienen planteando una advertencia: el marco legal costarricense resulta insuficiente para abordar la violencia digital. Informes como Freedom on the Net 2024 subrayan que, las referencias a internet se resuelven caso por caso a partir de derechos tradicionales, sin una tipificación clara ni mecanismos procesales adecuados para enfrentar violencias en plataformas digitales, lo que deja amplios márgenes de impunidad y desprotección.

Esta brecha entre el reconocimiento normativo y la protección efectiva fue documentada también por otras organizaciones especializadas. El informe Libertad de Expresión en Costa Rica 2024 de la Universidad para la Paz advierte que las agresiones al ejercicio periodístico se reproducen y amplifican en entornos digitales, donde se organizan campañas de descrédito, se normaliza la intimidación y no se dan las condiciones para un debate público libre. En una línea complementaria, el Informe Alternativo del Examen Periódico Universal (EPU), elaborado por Sulá Batsú y CEJIL, señala un aumento sostenido de violencia digital de género y ataques de odio en línea dirigidos particularmente a mujeres periodistas y defensoras.

Sobre este tema, el trabajo de Derechos Digitales refuerza que estas dinámicas afectan de manera diferenciada a mujeres y personas LGBTIQA+, ya que restringe la participación pública y reproduce desigualdades estructurales en el entorno digital. Recientemente, junto al Fondo de Población de las Naciones Unidas (UNFPA), se propusieron principios orientadores para reformas legislativas y políticas públicas, que apuntan a transformar no solo el reconocimiento normativo, sino también las capacidades estatales y sociales necesarias para proteger y garantizar la libertad de expresión en espacios digitales de forma efectiva y con perspectiva de derechos humanos.

Fortalecer la libertad de expresión en medio de la erosión democrática

En América Latina, el debilitamiento de la libertad de expresión se convirtió en una de las primeras señales de tendencia autoritaria, la experiencia en nuestros territorios demuestra que su desgaste rara vez comienza con censura directa. Costa Rica todavía cuenta con instituciones, estándares y capacidades para revertirlo, pero esa ventana no es indefinida.

Asumir que la libertad de expresión está garantizada por inercia es uno de los riesgos más altos del momento actual. Para fortalecerla no basta con invocar la tradición democrática ni confiar exclusivamente en la fortaleza institucional heredada.

Implica asumir responsabilidades concretas: actualizar el marco legal para enfrentar violencias digitales sin criminalizar la expresión, establecer reglas claras y transparentes para la comunicación estatal, garantizar mecanismos efectivos de protección a periodistas y personas comunicadoras, y reconocer que las plataformas digitales son hoy infraestructuras políticas que requieren regulación con enfoque de derechos humanos.

Bots y elecciones: los nuevos influencers automatizados

A fines de julio, tras varias semanas cayendo en las encuestas, Evelyn Matthei, candidata de la derecha tradicional chilena agrupada en la coalición Chile Vamos, acusó al candidato de la derecha más extrema José Kast, del Partido Republicano, por la puesta en marcha de una campaña de desinformación en su contra a través de redes sociales. La información que se hizo circular ponía en duda la salud mental de la candidata de Chile Vamos y, por ende, su capacidad para gobernar. El hecho generó un gran revuelo, pues la coalición de Matthei y el partido de Kast se encontraban en plenas negociaciones para conformar una lista parlamentaria única.

En ese contexto, un equipo periodístico del canal Chilevisión realizó un reportaje donde investigó algunas cuentas de redes sociales que reiteradamente atacaban a las candidaturas tanto de Matthei como de Jeannette Jara, candidata única de la centro izquierda que representa al oficialismo. El informe periodístico se centró en el comportamiento de cuentas anónimas que, desde hace algunos años, vienen publicando noticias falsas en contra del actual gobierno y de las candidatas. La investigación logró dar con el nombre de dos personas que estarían detrás de las cuentas investigadas, ambas ligadas al Partido Republicano.

Otro reportaje, del medio digital Reportea junto a Vergara 240, reveló más nexos: la Asociación de Administradoras de Fondos de Pensiones (AAFP) financió secretamente a la fundación “Ciudadanos en Acción”, la cual es dirigida por Bernardo Fontaine, actual integrante del comando de Kast. La investigación develó que la AAFP costea a la fundación desde 2019, a través de la agencia Artool, con el fin de articular campañas en contra de proyectos de reformas previsionales y de determinadas candidaturas presidenciales. La estrategia consistía en generar contenido digital en base a las directrices de la AAFP y con pagos en distintas direcciones para aumentar la viralización. Por un lado, a través de publicidad paga en Meta (para Facebook e Intagram) con un monto que supera los 200 millones de pesos -USD 215.000-. Además, dinero entregado a influencers para producir mensajes en contra de las reformas. Y, por otro lado, notas pagas en medios digitales, y masificación de contenidos del medio a través de una extensa red de bots, como parte del trato. Un elemento que resulta llamativo es que las personas financiadas para defender los intereses de la Asociación, tanto a través de cuentas públicas como anónimas, son las mimas denunciadas en el reportaje de Chilevisión de atacar a las candidatas presidenciales.

Estas revelaciones resultan preocupantes para los valores democráticos, no sólo en función de poder garantizar elecciones libres y transparentes, sino también desde una perspectiva de género. De las ocho candidaturas para esta votación, las únicas que sufrieron ataques cibernéticos son “casualmente” Matthei y Jara, las dos candidatas mujeres, reflejando un claro ejemplo de violencia política de género.

En el transcurso de estos meses, se estuvo hablando del uso de “bots” para describir el comportamiento mediante el cual cuentas anónimas se coordinaban para generar campañas de desinformación. Pasado un tiempo -y junto al abordaje de más medios-, se comenzó a diversificar el vocabulario, incluyendo los términos “troll” y “hater” para explicar lo que las investigaciones han develado. El objetivo de esta columna es aproximarnos a entender el funcionamiento de los bots, pero para ello primero haremos la distinción entre estos términos.

¿Qué son los trolls y los bots?

Estos conceptos ya forman parte del lenguaje propio de internet, por ello originalmente aparecen en inglés. Se aplican a redes sociales, foros y, más en general, a cualquier tipo de plataforma digital que permita la interacción entre personas usuarias, en especial si esa interacción puede dirigirse también a figuras públicas.

El término “Trolls”, originario de la mitología escandinava, se utiliza para referirse a cuentas anónimas que generalmente publican mensajes provocadores, desinformaciones o discursos de odio con la intención de perjudicar a ciertas personas o grupos, generando daños en su imagen pública. Su comportamiento es deliberado: son conscientes de que lo publicado es falso o abusivo.

Por su parte, “Bot” es un término coloquial que resulta de la abreviación de la palabra “robot”. Los bots son cuentas que funcionan de forma automatizada, mediante programación. Su accionar buscar producir mensajes o reacciones, incluso generar mayor volumen en la difusión de un mensaje, mediante interacciones que simulan ser humanas.

Los bots y su relación con internet, un poco de historia

Los bots con parte de la historia y de la arquitectura de internet: los primeros de los que se tiene registro datan de 1988. Ese año se creó el protocolo de mensajería de texto “Internet Relay Chat” (IRC), el cual fue muy popular durante sus primeras décadas y aún sigue vigente en nuestros días. Los bots que funcionaban bajo IRC consistían en programas computacionales que automatizaban algunas tareas dentro del sistema de mensajería.

A medida que internet crecía y diversificaba sus servicios, los bots se fueron adaptando a cada uno de ellos. Uno de los usos más relevantes que han tenido consiste en formar parte de los algoritmos de búsqueda a través de bots que indexan sitios web. Es así como, en 1994, se crea el primer indexador de sitios web que, un año más tarde, sería usado por AOL. Ya en 1996, una incipiente startup que hoy conocemos como Google lanzaba su bot BackRub para indexar el contenido de internet. Si bien los bots tienen un sinfín de utilidades legítimas, también se usaron para otros fines menos amables. A lo largo de la historia de internet, se han registrado numerosos ataques, de distinta índole y envergadura, a través de mecanismos como pueden ser la “denegación de servicio” o el “ransomware”.

En el mundo de las redes sociales, los bots son programas informáticos diseñados para simular interacciones humanas de forma automática. En la actualidad, es muy recurrente que las empresas generen canales de comunicación vía mensajería para responder a preguntas frecuentes -con mayor o menor éxito- mediante el uso de estos dispositivos.

En contextos donde proliferan las narrativas basadas en discursos de odio y desinformación, los bots son la herramienta predilecta para amplificar el alcance de esos mensajes. A través de la republicación de posteos o la interacción de los “me gusta”, pueden lograr la viralización de contenidos falsos o engañosos. Un ejemplo paradigmático en nuestra región fue la campaña de desinformación masiva que llevaron adelante los opositores de Evo Morales en 2019 para lavar la imagen del golpe de Estado y sumar simpatizantes. Hay evidencias que indicaron la existencia de una maniobra coordinada en redes sociales -decenas de miles de cuentas en Twitter creadas en pocas horas- para influir en la agenda pública global. El objetivo era imponer la idea de que el golpe no había sido tal y que el expresidente Morales estaba vinculado al narcotráfico y había propiciado un fraude electoral.    

Pescando bots: ¿cómo se pueden identificar interacciones artificiales?

Si bien las interacciones de estas cuentas automatizadas pueden parecer reales, existen algunos detalles que nos pueden ayudar a identificar que son artificiales. Vamos a repasar estos elementos.

  • Cuentas falsas: sus fotos de perfil no corresponden a una persona, los nombres de usuario parecen serializados con números largos luego de algún nombre o palabra.
  • Antigüedad de las cuentas: en muchos casos son cuentas que no poseen muchos años, o bien fueron creadas en un período acotado de tiempo.
  • Tendencias no orgánicas: cuando un contenido se viraliza y se convierte en tendencia de forma natural, sucede porque muchas personas lo comparten mediante una interacción distribuida entre numerosas cuentas, de forma no jerárquica. En el caso de tendencias generadas por bots, se puede notar que existe una, o un par de cuentas centrales, desde las que se cuelgan muchas otras para compartir, lo que demuestra un comportamiento mucho más jerárquico. En general identificarlo requiere de un análisis técnico pues es complejo notarlo a simple vista.
  • Comportamiento anormal: otro factor común es que muchas de estas cuentas solo comparten contenido de ciertos “usuarios” de forma reiterada. También es posible notar que al publicar comentarios, estos suelen ser inentendibles o confusos.

Los algoritmos generativos y los nuevos desafíos

Con la irrupción del uso masivo de algoritmos generativos, también llamados “Inteligencia Artificial Generativa” (GenAI), tales como ChatGPT, Gemini o DeepSeek, surgen nuevos desafíos a la hora de determinar cuándo es un programa el que está interactuando.

En marzo de este año, un estudio realizado por la Universidad de California evidenció que el modelo GPT-4.5 logró aprobar con 73% de efectividad la prueba de Turing. Esta prueba consiste esencialmente en que personas interactúan, a través de mensajería, con otras personas y con máquinas con el objetivo de determinar cuál es cual. Si la persona no logra distinguir entre la máquina y la persona, entonces se considera que el programa o la máquina pasó la evaluación.

El avance de los modelos nos propone nuevos retos al momento de reconocer cuándo un bot es el que está interactuando en las redes sociales, por lo que la tarea de generar análisis certeros se vuelve aún más compleja. Es importante considerar que el estado de desarrollo de los algoritmos generativos, no solo permite producir textos sino que también ya genera o manipula imágenes, audios y videos. Dicha gama de recursos agrega otro grado más de complejidad en la detección.

Desde el caso Cambridge Analytica, muchas organizaciones pusieron el foco en el efecto de las redes sociales sobre procesos eleccionarios. De la misma forma, podemos pensar en la influencia que tienen sobre temas sensibles de las agendas nacionales y regionales, y cómo a través de los bots determinados grupospueden lograr invisibilizarlos o atacarlos para obtener réditos en sus posturas.

Las redes sociales son un entorno complejo, por lo que encontrar una solución real al problema de los bots y la desinformación también puede resultar dificultoso. Aún así, deben existir medidas que puedan ayudar a mitigar su impacto: regulaciones efectivas que, sin la necesidad de una censura y acorde a los estándares de derechos humanos, puedan generar transparencia sobre las acciones que se deben ejercer ante las plataformas. Asimismo, es imprescindible que las corporaciones dueñas de las redes sociales tengan la voluntad de abrir canales para la colaboración con los entes encargados de velar por el cumplimiento de esas regulaciones. Desde Derechos Digitales, esperamos que “las plataformas digitales se preparen, teniendo una amplia colaboración con las autoridades, pero también con una serie de acciones proactivas que promuevan la transparencia de sus actos ante la desinformación”, tal como lo mencionamos en una columna, en virtud de las elecciones mexicanas de 2024.

Es de suma importancia que todos los actores interesados -legisladores, empresas tecnológicas, sociedad civil y academia- puedan trabajar para la construcción de ambientes eleccionarios democráticos, justos y participativos. Procesos electorales con mecanismos claros para combatir la desinformación, que no solo consideren el marco regulatorio, sino que también apunten a otras políticas como el fomento de campañas educativas que brinden a la población habilidades y herramientas para la detección de noticias falsas.

Miente, miente, que algo(ritmo) quedará

Se acerca una nueva elección presidencial y parlamentaria altamente polarizada en la región, esta vez en Chile. En respuesta a temores sobre rumores y noticias falsas, el gobierno y el Servicio Electoral lanzaron la campaña «Chile Vota Informado 2025», pidiendo evitar «que la desinformación se propague» y reiterando, a la vez, el lema «aguanta, chequea y comparte» que el gobierno chileno ha promocionado por más de un año y difundido hasta en forma de cumbia.

Como hemos declarado, la mentira política dista de ser una anomalía reciente, siendo más bien una táctica arraigada en la historia de la propaganda. Pero la preocupación tiene sentido. Como advierte el informe de la Relatoría Especial de la ONU sobre Libertad de Expresión, «cuando la libertad de expresión es suprimida, los procesos electorales están en peligro». Esta advertencia llega en un momento crítico para la región, donde múltiples países se enfrentan a ciclos electorales en medio de una creciente polarización y desconfianza institucional, y donde la capacidad de identificar la falta de autenticidad es necesaria para interactuar en el debate público. Sin embargo, el enfoque en la conducta individual desplaza parte de la responsabilidad hacia la ciudadanía, mientras las condiciones estructurales que producen desinformación permanecen intactas.

Innovando para mentir

Las narrativas de desinformación muestran notables continuidades a lo largo del tiempo. La acusación de fraude electoral aparece cíclicamente, como quedó demostrado tras las elecciones legislativas de 2022 en Colombia, donde las narrativas de fraude se difundieron ampliamente sin pruebas. Paralelamente, en las presidenciales de 2023 de Argentina circularon frases inventadas atribuidas a candidatos, mientras en los comicios de Perú del 2021 Convoca verificó imágenes falsas de supuestos conteos rápidos. Bolivia experimentó durante sus elecciones de 2025 una campaña sucia que tomó las redes sociales, con plataformas que parecían relajar sus políticas de moderación de contenidos en el contexto boliviano.

Esta persistencia de métodos más tradicionales contrasta con la innovación en herramientas. Una realidad presente hace más de una década: el crecimiento de la sofisticación en el uso de datos para la microsegmentación de destinatarias. El fin es llegar con más precisión a votantes a través de mensajes dirigidos a sus puntos de sensibilidad más probables, amparados en vacíos regulatorios o institucionales frente al uso de datos personales. Los antecedentes en herramientas de análisis de datos han sido ofrecidos mostrando que sería posible mapear preferencias políticas mediante minería de datos. Así, la datificación de la sociedad abre camino para formas más avanzadas de influencia electoral.

A eso se suma el uso de herramientas más complejas, como destacamos, junto a otras organizaciones, en nuestra contribución al informe de la Relatora Especial de las Naciones Unidas sobre la Libertad de Expresión y Opinión, Irene Khan. Las campañas políticas ahora enfrentan el desafío de contener mensajes sintéticos que pueden difamar candidaturas o atribuirles declaraciones nunca realizadas. Brasil vivió en 2024 una campaña municipal marcada por deepfakes, lo que llevó al Tribunal Superior Electoral a aprobar una resolución que prohíbe estos contenidos sintéticos y exige etiquetar el uso de inteligencia artificial en la propaganda. Mientras tanto, en Chile es parte de la propaganda diaria de una candidatura y sin mayores consecuencias.

La industria de la desinformación ha perfeccionado sus métodos, evolucionando desde la microsegmentación de audiencias hacia la producción de deepfakes. Esta sofisticación genera ahora una asimetría aún mayor entre quienes pueden producir desinformación convincente y quienes intentan verificarla, además de poner un manto de duda sobre el debate público.

Respuestas regulatorias: entre la prevención y la censura

Reconociendo -y hasta exagerando- los riesgos de la desinformación y fenómenos asociados a ella, en la región latinoamericana tanto los Estados como las plataformas digitales han ensayado diversas respuestas, con resultados dispares. En Chile se firmó en 2025 un compromiso de integridad electoral entre la autoridad electoral y actores privados y de la sociedad civil, que establece principios de defensa de la libertad de expresión y prevención del contenido falso. En Brasil, como fue comentado más arriba, el máximo tribunal con competencia electoral aprobó sanciones contra quienes elaboren o difundan contenido manipulado con IA. El panorama regulatorio se complejiza rápidamente y nuevas iniciativas normativas aparecen, aún si no llegan a convertirse en reglas.

Sin embargo, estas propuestas enfrentan dilemas fundamentales, como los riesgos de censura al utilizar nuevas herramientas supuestamente contrarias a la mentira. En contextos con una frágil independencia judicial, las leyes ambiguas contra «fake news» podrían usarse para silenciar voces disidentes, un riesgo que se extiende con la moderación automatizada. La Electronic Frontier Foundation (EFF) advirtió que las noticias falsas ofrecen a los poderes consolidados una oportunidad para censurar oponentes.

Ante estos desafíos, las respuestas puramente tecnológicas o punitivas muestran limitaciones conocidas: peligro de censura a nivel de regulación o de implementación u observancia, transferencia de responsabilidad hacia las plataformas digitales que las obligue a moderar más, y la eventual mala definición de lo que se intenta proteger o sancionar. La Comisión contra la Desinformación chilena entregó 72 recomendaciones que reconocen la naturaleza multifacética del problema, proponiendo soluciones que van desde la educación mediática hasta la transparencia algorítmica y el fortalecimiento del ecosistema informativo, bajo un mandato que se restringía a redes digitales. Las soluciones adecuadas pasan por fortalecer las instituciones democráticas, garantizar la independencia de órganos electorales, apoyar los medios comunitarios y promover la alfabetización mediática e informativa, lo que supera por mucho lo que ocurre en internet. Es decir, la realidad obliga a observar el problema más ampliamente.

Hacia una resiliencia democrática

La desinformación en contextos electorales manifiesta problemas más grandes de la sociedad, como falta de transparencia, concentración mediática, desigualdad económica y debilidad institucional. Esto merece cuestionar el relato que atribuye el problema principalmente a las redes sociales, y que culpa a la ciudadanía por compartir noticias falsas como quien culpa a las personas enfermas por su fiebre. No se trata de una batalla técnica por la verdad, sino de un desafío político y social por el espacio cívico que requiere respuestas integrales. Las campañas de sensibilización serán insuficientes si no se enmarcan en procesos más amplios de fortalecimiento democrático.

De cara a las elecciones más próximas en Chile y las del próximo año en la región (que incluyen, entre otras, presidenciales en Costa Rica, Perú, Colombia y Brasil), es urgente integrar una estrategia de resiliencia democrática. Esto requiere tomar con seriedad recomendaciones comunes: transparencia en propaganda política y en el uso de algoritmos; educación mediática e informativa desde las escuelas hasta espacios comunitarios; pluralismo informativo que incluya apoyo financiero a medios independientes; regulación proporcional que proteja la libertad de expresión; y participación ciudadana que promueva colaboración entre autoridades, academia, sociedad civil y plataformas en la formulación, implementación y evaluación de reglas. También, reforzar la protección efectiva de los datos personales frente a la recolección masiva, el uso en algoritmos de recomendación y la capacidad creciente de crear y distribuir contenidos dirigidos a percibidas vulnerabilidades en la sociedad.

La resiliencia democrática se construye también desde abajo. Las instituciones pueden fallar, pero las redes ciudadanas de verificación, la desatención a medios, programas e influencers dedicados a narrativas antiderechos, permite construir y reforzar las defensas de la sociedad. Campañas como «Chile Vota Informado» serán útiles si se enmarcan en procesos más amplios de fortalecimiento democrático. De lo contrario, se quedará en un eslogan bien intencionado que no aborda las razones profundas por las que la ciudadanía participa en la circulación de falsedades.

Contribución a la consulta abierta del Grupo de Trabajo del Consejo de la UIT sobre Internet (CWG-Internet) sobre conectividad significativa en países en desarrollo sin litoral

En el marco de los procesos de consulta abierta del Grupo de Trabajo del Consejo de la UIT sobre Internet (CWG-Internet) presentamos, junto con TEDIC, esta contribución sobre conectividad significativa en países en desarrollo sin litoral. En las Américas sólo dos países responden a tal categoría, Bolivia y Paraguay. En este documento sostenemos que la conectividad significativa habilita el ejercicio de los derechos humanos, y ofrecemos un análisis contextual evaluando los desafíos y las estrategias para avanzar hacia marcos de conectividad significativa en Bolivia y Paraguay desde una perspectiva de derechos humanos e interseccional.

Inteligencia artificial y libertad de expresión: aporte a la Consulta para la Declaración Conjunta

Este documento presenta el aporte oficial de Derechos Digitales a la consulta pública organizada por los Relatores Internacionales para la Libertad de Expresión: el Relator Especial de las Naciones Unidas (ONU) sobre la Promoción y Protección del Derecho a la Libertad de Opinión y Expresión, el Representante para la Libertad de los Medios de la Organización para la Seguridad y la Cooperación en Europa (OSCE), el Relator Especial para la Libertad de Expresión de la Organización de Estados Americanos (OEA) y el Relator Especial para la Libertad de Expresión y Acceso a la Información en África de la Comisión Africana de Derechos Humanos y de los Pueblos (ACHPR).

Esta consulta, que recibió aportes hasta el 28 de julio de 2025, servirá de base para una Declaración Conjunta sobre Inteligencia Artificial y Libertad de Expresión.

Nuestro aporte se sustenta en la experiencia regional en América Latina y se centra en los impactos de la inteligencia artificial (IA) y de los sistemas de IA generativa (GenAI) sobre la libertad de expresión, el pluralismo informativo y la participación democrática.