La erosión de la libertad de expresión en Costa Rica

Durante décadas, Costa Rica se presentó como una excepción democrática en Centroamérica, un país donde los derechos humanos se consolidaron frente a escenarios de inestabilidad en la región. Sin embargo, en los últimos años ese relato se ha tensionado en torno a la libertad de expresión. El país no está viviendo una ruptura autoritaria abrupta, sino una erosión progresiva que combina hostilidad política, vacíos legales y normalización social del silenciamiento.

La Clasificación Mundial de Libertad de Expresión de Reporteros Sin Fronteras muestra una caída progresiva: del 8° lugar en 2022, al 23° en 2023, 26° en 2024 y 36° en 2025, lo que representa el mayor retroceso en su trayectoria reciente. Este descenso no ocurre en abstracto: diversas coberturas periodísticas y análisis indican que durante el gobierno del presidente saliente Rodrigo Chaves Robles se impulsó una línea de confrontación con medios y periodistas, manifestada en ataques verbales, estigmatización de la prensa, presiones económicas y restricciones al acceso a la información pública que alimentan un clima de hostilidad, poco común en la historia del país.

Señales persistentes de presión sobre el ecosistema informativo y digital

En los años recientes, se vienen dando episodios que configuran un patrón reconocible de presión a la prensa. Uno de ellos fue la subasta de frecuencias de radio y televisión que generó fuertes cuestionamientos por su posible impacto en el pluralismo informativo y el acceso equitativo al espectro radioeléctrico. A esto se suman incidentes donde periodistas de medios digitales, especializados en verificación de datos, fueron objeto de restricciones o tratos diferenciados durante conferencias de prensa del Ejecutivo. En estos casos, la Sala Constitucional reconoció que estas prácticas vulneraban el ejercicio libre del periodismo.

Otro suceso fue el retiro de pauta estatal a un medio de comunicación luego de la publicación de contenidos satíricos sobre el gobierno. Según el Informe Nacional sobre Prácticas de Derechos Humanos 2024 del Departamento de Estado de EE. UU., se indica que la acción configuró una forma indirecta de sanción económica.

Esta rotura está teniendo repercusiones concretas en la percepción social y en las prácticas comunicativas de la ciudadanía. Los datos de la III Encuesta sobre Libertad de Expresión (Proledi-UCR 2025) revelan que más de la mitad de la población percibe un deterioro en su libertad de expresión y declara haber evitado expresar opiniones en redes sociales por temor a represalias o consecuencias. La percepción de censura y autocensura está en los niveles máximos de los últimos tres años, marcando el pulso de un entorno en el que internet y las plataformas digitales se convierten tanto en espacios esenciales de discusión como en territorios de riesgo para quienes discrepamos o criticamos al poder.

Costa Rica atrapada en la ola autoritaria

Las recientes elecciones del 1 de febrero marcaron un punto de inflexión en la política costarricense. La candidata oficialista Laura Fernández (aliada política y exministra de Chaves) logró una victoria en primera vuelta con alrededor del 51% de los sufragios, superando al principal contendiente de la oposición y evitando la segunda ronda.

Más allá del resultado de la votación, lo que preocupa es la consolidación de un clima político que debilita los contrapesos democráticos. La normalización del ataque a la prensa, la deslegitimación sistemática de voces críticas y la construcción de enemigos internos son rasgos ampliamente documentados en procesos de autoritarismo en la región. Que estas prácticas encuentren respaldo electoral en Costa Rica marca un quiebre en el país.

Sin equipararse aún a los escenarios más extremos, el gobierno costarricense comienza a reproducir patrones conocidos en los países centroamericanos. Desde Derechos Digitales lo hemos alertado. En el caso de El Salvador, por ejemplo, se dieron exilios masivos de periodistas y organizaciones de la sociedad civil en 2025, una situación que resuena más allá de sus fronteras y evidencia la fragilidad de la libertad de expresión cuando se normalizan narrativas de control por encima del debate crítico. En Honduras o Nicaragua, los medios enfrentan no solo presiones económicas y legales sino amenazas directas, lo que pone en perspectiva la preocupación costarricense como parte de un denominador común más amplio en la región.

El informe de la Fundación Heinrich Böll sobre libertad de expresión en Centroamérica evidencia que Guatemala, Honduras, El Salvador y Nicaragua ocupan posiciones muy bajas en los índices internacionales, reflejando contextos donde censura, criminalización del periodismo y violencia contra comunicadores son fenómenos recurrentes, y donde muchas veces no queda medio independiente alguno.

El escenario electoral de 2026 consolidó prácticas y narrativas que proyectan sus efectos más allá del ciclo electoral.

Derechos reconocidos, protecciones insuficientes

En términos generales, la libertad de expresión y de prensa en Costa Rica cuenta con una protección normativa robusta. La Constitución Política reconoce el derecho a la libre comunicación del pensamiento sin censura previa y prohíbe cualquier forma de restricción indirecta. A ello se suma la adhesión del país a instrumentos internacionales como la Convención Americana sobre Derechos Humanos y la Declaración de Principios sobre Libertad de Expresión, que obligan al Estado no solo a abstenerse de censurar, sino a garantizar condiciones efectivas para su ejercicio libre y seguro.

Sin embargo, esta solidez no se traduce en un desarrollo legislativo integral que permita enfrentar los desafíos contemporáneos. Como se evidenció en los casos registrados anteriormente, el rol de la Sala Constitucional fue clave para contener algunas de las amenazas más evidentes. Estos fallos funcionaron como un contrapeso institucional frente a decisiones administrativas y prácticas gubernamentales que, de otro modo, habrían consolidado restricciones indirectas al ejercicio periodístico. Pero el rol de la Sala Constitucional como principal barrera de protección también evidencia que se depende cada vez más de la judicialización posterior, y no de políticas públicas preventivas.

A las alertas señaladas, se suma la evaluación de la Sociedad Interamericana de Prensa (SIP), que en 2025 señaló la existencia de un “ambiente de creciente deterioro de la libertad de expresión” en Costa Rica, marcado por el hostigamiento en redes sociales a personas críticas del gobierno y por el uso discrecional de recursos públicos como la pauta oficial. Estas prácticas, aun cuando no constituyen censura directa, generan un efecto inhibidor para la autoexpresión.

Diversas organizaciones de la sociedad civil vienen planteando una advertencia: el marco legal costarricense resulta insuficiente para abordar la violencia digital. Informes como Freedom on the Net 2024 subrayan que, las referencias a internet se resuelven caso por caso a partir de derechos tradicionales, sin una tipificación clara ni mecanismos procesales adecuados para enfrentar violencias en plataformas digitales, lo que deja amplios márgenes de impunidad y desprotección.

Esta brecha entre el reconocimiento normativo y la protección efectiva fue documentada también por otras organizaciones especializadas. El informe Libertad de Expresión en Costa Rica 2024 de la Universidad para la Paz advierte que las agresiones al ejercicio periodístico se reproducen y amplifican en entornos digitales, donde se organizan campañas de descrédito, se normaliza la intimidación y no se dan las condiciones para un debate público libre. En una línea complementaria, el Informe Alternativo del Examen Periódico Universal (EPU), elaborado por Sulá Batsú y CEJIL, señala un aumento sostenido de violencia digital de género y ataques de odio en línea dirigidos particularmente a mujeres periodistas y defensoras.

Sobre este tema, el trabajo de Derechos Digitales refuerza que estas dinámicas afectan de manera diferenciada a mujeres y personas LGBTIQA+, ya que restringe la participación pública y reproduce desigualdades estructurales en el entorno digital. Recientemente, junto al Fondo de Población de las Naciones Unidas (UNFPA), se propusieron principios orientadores para reformas legislativas y políticas públicas, que apuntan a transformar no solo el reconocimiento normativo, sino también las capacidades estatales y sociales necesarias para proteger y garantizar la libertad de expresión en espacios digitales de forma efectiva y con perspectiva de derechos humanos.

Fortalecer la libertad de expresión en medio de la erosión democrática

En América Latina, el debilitamiento de la libertad de expresión se convirtió en una de las primeras señales de tendencia autoritaria, la experiencia en nuestros territorios demuestra que su desgaste rara vez comienza con censura directa. Costa Rica todavía cuenta con instituciones, estándares y capacidades para revertirlo, pero esa ventana no es indefinida.

Asumir que la libertad de expresión está garantizada por inercia es uno de los riesgos más altos del momento actual. Para fortalecerla no basta con invocar la tradición democrática ni confiar exclusivamente en la fortaleza institucional heredada.

Implica asumir responsabilidades concretas: actualizar el marco legal para enfrentar violencias digitales sin criminalizar la expresión, establecer reglas claras y transparentes para la comunicación estatal, garantizar mecanismos efectivos de protección a periodistas y personas comunicadoras, y reconocer que las plataformas digitales son hoy infraestructuras políticas que requieren regulación con enfoque de derechos humanos.

Bots y elecciones: los nuevos influencers automatizados

A fines de julio, tras varias semanas cayendo en las encuestas, Evelyn Matthei, candidata de la derecha tradicional chilena agrupada en la coalición Chile Vamos, acusó al candidato de la derecha más extrema José Kast, del Partido Republicano, por la puesta en marcha de una campaña de desinformación en su contra a través de redes sociales. La información que se hizo circular ponía en duda la salud mental de la candidata de Chile Vamos y, por ende, su capacidad para gobernar. El hecho generó un gran revuelo, pues la coalición de Matthei y el partido de Kast se encontraban en plenas negociaciones para conformar una lista parlamentaria única.

En ese contexto, un equipo periodístico del canal Chilevisión realizó un reportaje donde investigó algunas cuentas de redes sociales que reiteradamente atacaban a las candidaturas tanto de Matthei como de Jeannette Jara, candidata única de la centro izquierda que representa al oficialismo. El informe periodístico se centró en el comportamiento de cuentas anónimas que, desde hace algunos años, vienen publicando noticias falsas en contra del actual gobierno y de las candidatas. La investigación logró dar con el nombre de dos personas que estarían detrás de las cuentas investigadas, ambas ligadas al Partido Republicano.

Otro reportaje, del medio digital Reportea junto a Vergara 240, reveló más nexos: la Asociación de Administradoras de Fondos de Pensiones (AAFP) financió secretamente a la fundación “Ciudadanos en Acción”, la cual es dirigida por Bernardo Fontaine, actual integrante del comando de Kast. La investigación develó que la AAFP costea a la fundación desde 2019, a través de la agencia Artool, con el fin de articular campañas en contra de proyectos de reformas previsionales y de determinadas candidaturas presidenciales. La estrategia consistía en generar contenido digital en base a las directrices de la AAFP y con pagos en distintas direcciones para aumentar la viralización. Por un lado, a través de publicidad paga en Meta (para Facebook e Intagram) con un monto que supera los 200 millones de pesos -USD 215.000-. Además, dinero entregado a influencers para producir mensajes en contra de las reformas. Y, por otro lado, notas pagas en medios digitales, y masificación de contenidos del medio a través de una extensa red de bots, como parte del trato. Un elemento que resulta llamativo es que las personas financiadas para defender los intereses de la Asociación, tanto a través de cuentas públicas como anónimas, son las mimas denunciadas en el reportaje de Chilevisión de atacar a las candidatas presidenciales.

Estas revelaciones resultan preocupantes para los valores democráticos, no sólo en función de poder garantizar elecciones libres y transparentes, sino también desde una perspectiva de género. De las ocho candidaturas para esta votación, las únicas que sufrieron ataques cibernéticos son “casualmente” Matthei y Jara, las dos candidatas mujeres, reflejando un claro ejemplo de violencia política de género.

En el transcurso de estos meses, se estuvo hablando del uso de “bots” para describir el comportamiento mediante el cual cuentas anónimas se coordinaban para generar campañas de desinformación. Pasado un tiempo -y junto al abordaje de más medios-, se comenzó a diversificar el vocabulario, incluyendo los términos “troll” y “hater” para explicar lo que las investigaciones han develado. El objetivo de esta columna es aproximarnos a entender el funcionamiento de los bots, pero para ello primero haremos la distinción entre estos términos.

¿Qué son los trolls y los bots?

Estos conceptos ya forman parte del lenguaje propio de internet, por ello originalmente aparecen en inglés. Se aplican a redes sociales, foros y, más en general, a cualquier tipo de plataforma digital que permita la interacción entre personas usuarias, en especial si esa interacción puede dirigirse también a figuras públicas.

El término “Trolls”, originario de la mitología escandinava, se utiliza para referirse a cuentas anónimas que generalmente publican mensajes provocadores, desinformaciones o discursos de odio con la intención de perjudicar a ciertas personas o grupos, generando daños en su imagen pública. Su comportamiento es deliberado: son conscientes de que lo publicado es falso o abusivo.

Por su parte, “Bot” es un término coloquial que resulta de la abreviación de la palabra “robot”. Los bots son cuentas que funcionan de forma automatizada, mediante programación. Su accionar buscar producir mensajes o reacciones, incluso generar mayor volumen en la difusión de un mensaje, mediante interacciones que simulan ser humanas.

Los bots y su relación con internet, un poco de historia

Los bots con parte de la historia y de la arquitectura de internet: los primeros de los que se tiene registro datan de 1988. Ese año se creó el protocolo de mensajería de texto “Internet Relay Chat” (IRC), el cual fue muy popular durante sus primeras décadas y aún sigue vigente en nuestros días. Los bots que funcionaban bajo IRC consistían en programas computacionales que automatizaban algunas tareas dentro del sistema de mensajería.

A medida que internet crecía y diversificaba sus servicios, los bots se fueron adaptando a cada uno de ellos. Uno de los usos más relevantes que han tenido consiste en formar parte de los algoritmos de búsqueda a través de bots que indexan sitios web. Es así como, en 1994, se crea el primer indexador de sitios web que, un año más tarde, sería usado por AOL. Ya en 1996, una incipiente startup que hoy conocemos como Google lanzaba su bot BackRub para indexar el contenido de internet. Si bien los bots tienen un sinfín de utilidades legítimas, también se usaron para otros fines menos amables. A lo largo de la historia de internet, se han registrado numerosos ataques, de distinta índole y envergadura, a través de mecanismos como pueden ser la “denegación de servicio” o el “ransomware”.

En el mundo de las redes sociales, los bots son programas informáticos diseñados para simular interacciones humanas de forma automática. En la actualidad, es muy recurrente que las empresas generen canales de comunicación vía mensajería para responder a preguntas frecuentes -con mayor o menor éxito- mediante el uso de estos dispositivos.

En contextos donde proliferan las narrativas basadas en discursos de odio y desinformación, los bots son la herramienta predilecta para amplificar el alcance de esos mensajes. A través de la republicación de posteos o la interacción de los “me gusta”, pueden lograr la viralización de contenidos falsos o engañosos. Un ejemplo paradigmático en nuestra región fue la campaña de desinformación masiva que llevaron adelante los opositores de Evo Morales en 2019 para lavar la imagen del golpe de Estado y sumar simpatizantes. Hay evidencias que indicaron la existencia de una maniobra coordinada en redes sociales -decenas de miles de cuentas en Twitter creadas en pocas horas- para influir en la agenda pública global. El objetivo era imponer la idea de que el golpe no había sido tal y que el expresidente Morales estaba vinculado al narcotráfico y había propiciado un fraude electoral.    

Pescando bots: ¿cómo se pueden identificar interacciones artificiales?

Si bien las interacciones de estas cuentas automatizadas pueden parecer reales, existen algunos detalles que nos pueden ayudar a identificar que son artificiales. Vamos a repasar estos elementos.

  • Cuentas falsas: sus fotos de perfil no corresponden a una persona, los nombres de usuario parecen serializados con números largos luego de algún nombre o palabra.
  • Antigüedad de las cuentas: en muchos casos son cuentas que no poseen muchos años, o bien fueron creadas en un período acotado de tiempo.
  • Tendencias no orgánicas: cuando un contenido se viraliza y se convierte en tendencia de forma natural, sucede porque muchas personas lo comparten mediante una interacción distribuida entre numerosas cuentas, de forma no jerárquica. En el caso de tendencias generadas por bots, se puede notar que existe una, o un par de cuentas centrales, desde las que se cuelgan muchas otras para compartir, lo que demuestra un comportamiento mucho más jerárquico. En general identificarlo requiere de un análisis técnico pues es complejo notarlo a simple vista.
  • Comportamiento anormal: otro factor común es que muchas de estas cuentas solo comparten contenido de ciertos “usuarios” de forma reiterada. También es posible notar que al publicar comentarios, estos suelen ser inentendibles o confusos.

Los algoritmos generativos y los nuevos desafíos

Con la irrupción del uso masivo de algoritmos generativos, también llamados “Inteligencia Artificial Generativa” (GenAI), tales como ChatGPT, Gemini o DeepSeek, surgen nuevos desafíos a la hora de determinar cuándo es un programa el que está interactuando.

En marzo de este año, un estudio realizado por la Universidad de California evidenció que el modelo GPT-4.5 logró aprobar con 73% de efectividad la prueba de Turing. Esta prueba consiste esencialmente en que personas interactúan, a través de mensajería, con otras personas y con máquinas con el objetivo de determinar cuál es cual. Si la persona no logra distinguir entre la máquina y la persona, entonces se considera que el programa o la máquina pasó la evaluación.

El avance de los modelos nos propone nuevos retos al momento de reconocer cuándo un bot es el que está interactuando en las redes sociales, por lo que la tarea de generar análisis certeros se vuelve aún más compleja. Es importante considerar que el estado de desarrollo de los algoritmos generativos, no solo permite producir textos sino que también ya genera o manipula imágenes, audios y videos. Dicha gama de recursos agrega otro grado más de complejidad en la detección.

Desde el caso Cambridge Analytica, muchas organizaciones pusieron el foco en el efecto de las redes sociales sobre procesos eleccionarios. De la misma forma, podemos pensar en la influencia que tienen sobre temas sensibles de las agendas nacionales y regionales, y cómo a través de los bots determinados grupospueden lograr invisibilizarlos o atacarlos para obtener réditos en sus posturas.

Las redes sociales son un entorno complejo, por lo que encontrar una solución real al problema de los bots y la desinformación también puede resultar dificultoso. Aún así, deben existir medidas que puedan ayudar a mitigar su impacto: regulaciones efectivas que, sin la necesidad de una censura y acorde a los estándares de derechos humanos, puedan generar transparencia sobre las acciones que se deben ejercer ante las plataformas. Asimismo, es imprescindible que las corporaciones dueñas de las redes sociales tengan la voluntad de abrir canales para la colaboración con los entes encargados de velar por el cumplimiento de esas regulaciones. Desde Derechos Digitales, esperamos que “las plataformas digitales se preparen, teniendo una amplia colaboración con las autoridades, pero también con una serie de acciones proactivas que promuevan la transparencia de sus actos ante la desinformación”, tal como lo mencionamos en una columna, en virtud de las elecciones mexicanas de 2024.

Es de suma importancia que todos los actores interesados -legisladores, empresas tecnológicas, sociedad civil y academia- puedan trabajar para la construcción de ambientes eleccionarios democráticos, justos y participativos. Procesos electorales con mecanismos claros para combatir la desinformación, que no solo consideren el marco regulatorio, sino que también apunten a otras políticas como el fomento de campañas educativas que brinden a la población habilidades y herramientas para la detección de noticias falsas.

Miente, miente, que algo(ritmo) quedará

Se acerca una nueva elección presidencial y parlamentaria altamente polarizada en la región, esta vez en Chile. En respuesta a temores sobre rumores y noticias falsas, el gobierno y el Servicio Electoral lanzaron la campaña «Chile Vota Informado 2025», pidiendo evitar «que la desinformación se propague» y reiterando, a la vez, el lema «aguanta, chequea y comparte» que el gobierno chileno ha promocionado por más de un año y difundido hasta en forma de cumbia.

Como hemos declarado, la mentira política dista de ser una anomalía reciente, siendo más bien una táctica arraigada en la historia de la propaganda. Pero la preocupación tiene sentido. Como advierte el informe de la Relatoría Especial de la ONU sobre Libertad de Expresión, «cuando la libertad de expresión es suprimida, los procesos electorales están en peligro». Esta advertencia llega en un momento crítico para la región, donde múltiples países se enfrentan a ciclos electorales en medio de una creciente polarización y desconfianza institucional, y donde la capacidad de identificar la falta de autenticidad es necesaria para interactuar en el debate público. Sin embargo, el enfoque en la conducta individual desplaza parte de la responsabilidad hacia la ciudadanía, mientras las condiciones estructurales que producen desinformación permanecen intactas.

Innovando para mentir

Las narrativas de desinformación muestran notables continuidades a lo largo del tiempo. La acusación de fraude electoral aparece cíclicamente, como quedó demostrado tras las elecciones legislativas de 2022 en Colombia, donde las narrativas de fraude se difundieron ampliamente sin pruebas. Paralelamente, en las presidenciales de 2023 de Argentina circularon frases inventadas atribuidas a candidatos, mientras en los comicios de Perú del 2021 Convoca verificó imágenes falsas de supuestos conteos rápidos. Bolivia experimentó durante sus elecciones de 2025 una campaña sucia que tomó las redes sociales, con plataformas que parecían relajar sus políticas de moderación de contenidos en el contexto boliviano.

Esta persistencia de métodos más tradicionales contrasta con la innovación en herramientas. Una realidad presente hace más de una década: el crecimiento de la sofisticación en el uso de datos para la microsegmentación de destinatarias. El fin es llegar con más precisión a votantes a través de mensajes dirigidos a sus puntos de sensibilidad más probables, amparados en vacíos regulatorios o institucionales frente al uso de datos personales. Los antecedentes en herramientas de análisis de datos han sido ofrecidos mostrando que sería posible mapear preferencias políticas mediante minería de datos. Así, la datificación de la sociedad abre camino para formas más avanzadas de influencia electoral.

A eso se suma el uso de herramientas más complejas, como destacamos, junto a otras organizaciones, en nuestra contribución al informe de la Relatora Especial de las Naciones Unidas sobre la Libertad de Expresión y Opinión, Irene Khan. Las campañas políticas ahora enfrentan el desafío de contener mensajes sintéticos que pueden difamar candidaturas o atribuirles declaraciones nunca realizadas. Brasil vivió en 2024 una campaña municipal marcada por deepfakes, lo que llevó al Tribunal Superior Electoral a aprobar una resolución que prohíbe estos contenidos sintéticos y exige etiquetar el uso de inteligencia artificial en la propaganda. Mientras tanto, en Chile es parte de la propaganda diaria de una candidatura y sin mayores consecuencias.

La industria de la desinformación ha perfeccionado sus métodos, evolucionando desde la microsegmentación de audiencias hacia la producción de deepfakes. Esta sofisticación genera ahora una asimetría aún mayor entre quienes pueden producir desinformación convincente y quienes intentan verificarla, además de poner un manto de duda sobre el debate público.

Respuestas regulatorias: entre la prevención y la censura

Reconociendo -y hasta exagerando- los riesgos de la desinformación y fenómenos asociados a ella, en la región latinoamericana tanto los Estados como las plataformas digitales han ensayado diversas respuestas, con resultados dispares. En Chile se firmó en 2025 un compromiso de integridad electoral entre la autoridad electoral y actores privados y de la sociedad civil, que establece principios de defensa de la libertad de expresión y prevención del contenido falso. En Brasil, como fue comentado más arriba, el máximo tribunal con competencia electoral aprobó sanciones contra quienes elaboren o difundan contenido manipulado con IA. El panorama regulatorio se complejiza rápidamente y nuevas iniciativas normativas aparecen, aún si no llegan a convertirse en reglas.

Sin embargo, estas propuestas enfrentan dilemas fundamentales, como los riesgos de censura al utilizar nuevas herramientas supuestamente contrarias a la mentira. En contextos con una frágil independencia judicial, las leyes ambiguas contra «fake news» podrían usarse para silenciar voces disidentes, un riesgo que se extiende con la moderación automatizada. La Electronic Frontier Foundation (EFF) advirtió que las noticias falsas ofrecen a los poderes consolidados una oportunidad para censurar oponentes.

Ante estos desafíos, las respuestas puramente tecnológicas o punitivas muestran limitaciones conocidas: peligro de censura a nivel de regulación o de implementación u observancia, transferencia de responsabilidad hacia las plataformas digitales que las obligue a moderar más, y la eventual mala definición de lo que se intenta proteger o sancionar. La Comisión contra la Desinformación chilena entregó 72 recomendaciones que reconocen la naturaleza multifacética del problema, proponiendo soluciones que van desde la educación mediática hasta la transparencia algorítmica y el fortalecimiento del ecosistema informativo, bajo un mandato que se restringía a redes digitales. Las soluciones adecuadas pasan por fortalecer las instituciones democráticas, garantizar la independencia de órganos electorales, apoyar los medios comunitarios y promover la alfabetización mediática e informativa, lo que supera por mucho lo que ocurre en internet. Es decir, la realidad obliga a observar el problema más ampliamente.

Hacia una resiliencia democrática

La desinformación en contextos electorales manifiesta problemas más grandes de la sociedad, como falta de transparencia, concentración mediática, desigualdad económica y debilidad institucional. Esto merece cuestionar el relato que atribuye el problema principalmente a las redes sociales, y que culpa a la ciudadanía por compartir noticias falsas como quien culpa a las personas enfermas por su fiebre. No se trata de una batalla técnica por la verdad, sino de un desafío político y social por el espacio cívico que requiere respuestas integrales. Las campañas de sensibilización serán insuficientes si no se enmarcan en procesos más amplios de fortalecimiento democrático.

De cara a las elecciones más próximas en Chile y las del próximo año en la región (que incluyen, entre otras, presidenciales en Costa Rica, Perú, Colombia y Brasil), es urgente integrar una estrategia de resiliencia democrática. Esto requiere tomar con seriedad recomendaciones comunes: transparencia en propaganda política y en el uso de algoritmos; educación mediática e informativa desde las escuelas hasta espacios comunitarios; pluralismo informativo que incluya apoyo financiero a medios independientes; regulación proporcional que proteja la libertad de expresión; y participación ciudadana que promueva colaboración entre autoridades, academia, sociedad civil y plataformas en la formulación, implementación y evaluación de reglas. También, reforzar la protección efectiva de los datos personales frente a la recolección masiva, el uso en algoritmos de recomendación y la capacidad creciente de crear y distribuir contenidos dirigidos a percibidas vulnerabilidades en la sociedad.

La resiliencia democrática se construye también desde abajo. Las instituciones pueden fallar, pero las redes ciudadanas de verificación, la desatención a medios, programas e influencers dedicados a narrativas antiderechos, permite construir y reforzar las defensas de la sociedad. Campañas como «Chile Vota Informado» serán útiles si se enmarcan en procesos más amplios de fortalecimiento democrático. De lo contrario, se quedará en un eslogan bien intencionado que no aborda las razones profundas por las que la ciudadanía participa en la circulación de falsedades.

Contribución a la consulta abierta del Grupo de Trabajo del Consejo de la UIT sobre Internet (CWG-Internet) sobre conectividad significativa en países en desarrollo sin litoral

En el marco de los procesos de consulta abierta del Grupo de Trabajo del Consejo de la UIT sobre Internet (CWG-Internet) presentamos, junto con TEDIC, esta contribución sobre conectividad significativa en países en desarrollo sin litoral. En las Américas sólo dos países responden a tal categoría, Bolivia y Paraguay. En este documento sostenemos que la conectividad significativa habilita el ejercicio de los derechos humanos, y ofrecemos un análisis contextual evaluando los desafíos y las estrategias para avanzar hacia marcos de conectividad significativa en Bolivia y Paraguay desde una perspectiva de derechos humanos e interseccional.

Inteligencia artificial y libertad de expresión: aporte a la Consulta para la Declaración Conjunta

Este documento presenta el aporte oficial de Derechos Digitales a la consulta pública organizada por los Relatores Internacionales para la Libertad de Expresión: el Relator Especial de las Naciones Unidas (ONU) sobre la Promoción y Protección del Derecho a la Libertad de Opinión y Expresión, el Representante para la Libertad de los Medios de la Organización para la Seguridad y la Cooperación en Europa (OSCE), el Relator Especial para la Libertad de Expresión de la Organización de Estados Americanos (OEA) y el Relator Especial para la Libertad de Expresión y Acceso a la Información en África de la Comisión Africana de Derechos Humanos y de los Pueblos (ACHPR).

Esta consulta, que recibió aportes hasta el 28 de julio de 2025, servirá de base para una Declaración Conjunta sobre Inteligencia Artificial y Libertad de Expresión.

Nuestro aporte se sustenta en la experiencia regional en América Latina y se centra en los impactos de la inteligencia artificial (IA) y de los sistemas de IA generativa (GenAI) sobre la libertad de expresión, el pluralismo informativo y la participación democrática.

De la promesa tecnológica al control estatal: lo que revela el caso mexicano

En junio de 2025, México aprobó un paquete legislativo que incluyó reformas a la Ley de la Guardia Nacional, la Ley General de Población y la Ley General en Materia de Desaparición Forzada. Este conjunto de reformas legales creó una Clave Única de Registro de Población (CURP) biométrica que es obligatoria para acceder a servicios públicos y privados. Además, amplió significativamente las facultades de inteligencia de las Fuerzas Armadas y la Guardia Nacional. Esto se llevó a cabo a pesar de la movilización de organizaciones de la sociedad civil, que advirtieron sobre los graves riesgos que estas reformas representan para los derechos humanos y la democracia en el país.

Lejos de ser un caso aislado, este proceso refleja una tendencia regional cada vez más extendida en América Latina: la consolidación de infraestructuras de vigilancia y control social, legitimadas a través de reformas legales y sustentadas en el uso de tecnologías digitales y biométricas. Este fenómeno revela un panorama en que el tecnosolucionismo y la seguridad se utilizan como argumentos para erosionar libertades, reforzar el poder estatal y profundizar desigualdades estructurales.

Promesas y peligros de la identidad digital

La creación de la CURP biométrica en México implica el establecimiento de una base de datos centralizada que asocia el número único de registro de cada persona con sus datos biométricos, como huellas dactilares y fotografía. El objetivo declarado por el Gobierno es responder a la crisis generada por la creciente desaparición de personas, mediante la construcción de un sistema que permita registrar y rastrear cada interacción y movimiento de la ciudadanía en su vida cotidiana, desde el acceso a servicios públicos hasta actividades privadas, con el fin de facilitar su identificación y localización.

Al tratarse de un registro obligatorio, se elimina la posibilidad de un consentimiento informado sobre la recolección y el uso de los datos personales, lo que agrava los riesgos para la autonomía y la privacidad. Además, habría que considerar qué ocurre con quienes no logran registrarse: ¿quedarán excluidos del acceso a servicios esenciales? La obligatoriedad de la CURP biométrica como requisito para acceder a servicios públicos y privados implica que quienes no estén registrados en esta base o no puedan hacerlo quedarán fuera de derechos y prestaciones básicas.

Así, personas que no logran acercarse a los centros de registro, sobre todo las que viven en zonas remotas; aquellas que no tienen datos biométricos que puedan ser recopilados (como personas mayores con huellas dactilares deterioradas o personas con ciertas discapacidades); y personas trans cuya identidad de género y nombre social no se reflejan en su CURP -especialmente considerando que varios estados mexicanos no reconocen legalmente el nombre social- quedan aún más marginadas. Es decir, además de profundizar desigualdades estructurales ya existentes, este tipo de medidas produce nuevas formas de exclusión, reforzando barreras institucionales y sociales que afectan de manera desproporcionada a los grupos sociales históricamente excluidos.

Al mismo tiempo, este tipo de infraestructura plantea serias preocupaciones en términos de privacidad y desafía directamente el derecho al anonimato. El anonimato protege a las personas frente al rastreo constante de sus actividades y opiniones, especialmente en contextos donde disentir puede tener consecuencias.

También conlleva importantes riesgos en materia de ciberseguridad: aunque existen distintos niveles de madurez en ciberseguridad en los Estados de América Latina, se han registrado repetidos ataques y vulneraciones a bases de datos públicas en varios países. Las filtraciones de datos biométricos resultan especialmente graves, ya que se trata de información que, a diferencia de una contraseña, no puede ser modificada: forma parte intrínseca de la identidad física de cada persona. Su exposición indebida, así, puede llevar a fraudes y robo de identidad.

La creación de bases de datos centralizadas y la recopilación indiscriminada de datos biométricos no son fenómenos exclusivos de México. En 2023, Derechos Digitales ya advertía de la tendencia en un informe sobre la proliferación de sistemas de identidad digital en América Latina, señalando los riesgos asociados y la falta de controles efectivos, como la ausencia de garantías judiciales, la opacidad en el uso de los datos y el acceso por parte de múltiples entidades estatales sin supervisión.

Sin embargo, hay ejemplos que muestran decisiones orientadas a establecer límites: en Brasil, en 2022, el Supremo Tribunal Federal decidió imponer restricciones significativas al Cadastro Base do Cidadão -una base de datos también con información biométrica creada por decreto presidencial- al considerar inconstitucional el acceso irrestricto por parte de todos los órganos gubernamentales, reforzando así la necesidad de controles judiciales y criterios de proporcionalidad. Esta discusión resulta especialmente pertinente para México, donde el nuevo paquete legislativo otorga acceso a la base de datos biométrica a diversas instancias de inteligencia y a las Fuerzas Armadas sin requerir autorización judicial ni mecanismos de control democrático.

Inteligencia sin control: el poder opaco

Las reformas legales recientes en México otorgan a las Fuerzas Armadas y a la Guardia Nacional un poder sin precedentes en materia de inteligencia. Estas instituciones reciben facultades ampliadas para realizar labores de vigilancia e interceptación de comunicaciones sin necesidad de autorización judicial, eliminando cualquier contrapeso democrático. Además, se les concede acceso irrestricto a la base de datos de la CURP biométrica, lo que les permite rastrear de forma masiva e indiscriminada a la población, sin que las personas sean informadas de que sus datos están siendo consultados o utilizados.

Este escenario se ve agravado por la decisión del gobierno mexicano, aprobada en marzo de 2025 por el Congreso, de eliminar instituciones autónomas clave, como el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI). El órgano tenía entre sus competencias garantizar la protección de datos personales y el acceso a la información, y su extinción implica un grave retroceso en materia de transparencia y rendición de cuentas. En este contexto, también resulta pertinente llamar la atención sobre la recientemente aprobada Convención de Cibercrimen de la ONU, que fue incluso apoyada por México, cuyo enfoque favorece a la vigilancia y el intercambio transfronterizo de datos entre agencias sin establecer salvaguardas suficientes en materia de derechos humanos, privacidad y debido proceso.

Las nuevas leyes mexicanas legitiman la vigilancia permanente y opaca, donde el control estatal se expande sin supervisión efectiva. Se trata de una tendencia que no es exclusiva de México. En Argentina, por ejemplo, se transfirió el control de la ciberseguridad a la Secretaría de Inteligencia del Estado (SIDE), consolidando un aparato de vigilancia bajo mando directo del Poder Ejecutivo y debilitando garantías fundamentales. A esto se suma la aprobación reciente de la Ley de Inteligencia en Ecuador, que otorgó facultades amplias y ambiguas a los organismos de inteligencia, sin mecanismos claros de transparencia ni rendición de cuentas.

La tendencia regional apunta a un mismo patrón: justificar el incremento de poderes de vigilancia en nombre de la seguridad nacional, mientras se consolidan estructuras estatales cada vez más autoritarias. Estas reformas fortalecen un poder opaco, erosionan las garantías democráticas y colocan a las poblaciones en una situación de vulnerabilidad constante frente al Estado.

Tecnología como atajo político: el falso remedio

Como se mencionó, el principal argumento del gobierno mexicano para impulsar la CURP biométrica y el nuevo paquete de reformas fue responder a la crisis nacional de desapariciones. Actualmente, México enfrenta más de 129.000 personas desaparecidas, más de 5.600 fosas clandestinas y una crisis forense con más de 70.000 cuerpos sin identificar. Se trata de una situación extrema que exige respuestas urgentes, integrales y respetuosas de los Derechos Humanos.

Sin embargo, el paquete de leyes no fue acompañado de argumentos que sostengan de forma clara y verificable cómo estas reformas legales y la nueva infraestructura de vigilancia contribuirían efectivamente a resolver esta crisis. Por el contrario, las causas estructurales, como la impunidad, corrupción, falta de capacidades forenses e institucionales, no fueron enfrentadas por las reformas. Colectivos de familias buscadoras y organizaciones de derechos digitales han advertido que el paquete legislativo no sólo elude las verdaderas causas de la crisis, sino que instala un sistema de vigilancia masiva sin garantías, que expone aún más a las personas defensoras y a la población en situación de vulnerabilidad.

El tecnosolucionismo presenta la tecnología como una solución mágica a problemas sociales complejos. Pero la tecnología, por sí sola, no resuelve esos problemas ni sustituye políticas públicas integrales. Al contrario, su implementación desmedida y sin garantías puede generar nuevas capas de control social, agravando riesgos a los derechos humanos.

Este fenómeno se agrava cuando las reformas legales y la adopción de tecnologías se realizan sin participación social ni debate público, como pasó en México. En América Latina, esta tendencia es cada vez más visible. Por ejemplo, la implementación creciente de tecnologías de reconocimiento facial para supuestamente mejorar la seguridad pública se ha justificado sin evidencia alguna de su efectividad ni participación social. En cambio, hay abundante evidencia de que estas tecnologías profundizan la discriminación y la violencia contra poblaciones ya marginalizadas, especialmente personas negras y trans.

Es importante reconocer que esta problemática y la narrativa del tecnosolucionismo no se limita a contextos autoritarios. Aunque se agrave en estos casos, también se observan en países cuyos gobiernos se presentan como defensores de los Derechos Humanos. Abordar la implementación de tecnologías desde un enfoque de derechos implica cuestionar quién la diseña y cómo se implementa, con qué objetivos y bajo qué condiciones, priorizando siempre la autonomía y la dignidad de las personas. Cuando el uso de estas tecnologías se legitima a través de legislaciones que no respetan marcos de Derechos Humanos ni contemplan procesos con participación social significativa, su implementación termina consolidando estructuras de control que perpetúan la vigilancia y la exclusión, en lugar de fortalecer la democracia y garantizar derechos.

Hablar en clave para existir: resistencias digitales frente a la censura algorítmica

Estas frases alteradas aparecen en redes cada vez que abordamos temas que desafían las normas impuestas por el algoritmo: 4bu$o s3xual, su1c1d1o, desvivir. Se le llama “algospeak” a estas estrategias de lenguaje que buscan eludir la vigilancia de plataformas como TikTok, YouTube o Instagram a ciertos contenidos considerados inapropiados. Así se forma un código lleno de caracteres y eufemismos que no surge de la creatividad, sino de la necesidad de resistir un sistema que a menudo castiga la discusión de una realidad muchas veces incómoda mediante el silenciamiento.

La gestión algorítmica no solo limita el presente, también interviene en la posibilidad de construir futuros más justos. Al condicionar qué narrativas son visibles y cuáles no, los algoritmos afectan directamente la capacidad de articular ideas, reflexiones, desacuerdos y alternativas.

Las voces que denuncian violencias estructurales son etiquetadas como “inapropiadas” o simplemente eliminadas. De hecho, las personas defensoras de derechos humanos, activistas y periodistas son especialmente afectadas, porque sus relatos son sistemáticamente considerados como “sensibles” o “peligrosos” por sistemas que no entienden el contexto ni el propósito de las expresiones detectadas por los filtros automatizados.

Esta jerarquización automática de los discursos revela una visión del mundo profundamente sesgada. El algospeak es síntoma de un entorno que redefine lo que podemos decir, que aplica controles automáticos y reorganiza lo que consideramos importante. Pero el daño no es solo individual: afecta también lo que recordamos y cómo construimos colectivamente nuestros relatos en la defensa de los derechos humanos.

La doble vara del algoritmo

Los estándares de las plataformas no se aplican con el mismo rigor para todos los contenidos ni para todas las voces. Un ejemplo claro de este desbalance ocurrió en México, cuando publicaciones que denunciaban abusos policiales fueron eliminadas por usar música con derechos de autor. Aunque el objetivo era denunciar violencia institucional, el algoritmo priorizó la protección de propiedad intelectual por sobre el derecho a la verdad y la justicia. Al mismo tiempo, contenidos que promovían discursos misóginos o racistas se mantuvieron visibles sin consecuencias.

Esta doble vara, que castiga la denuncia y deja pasar el abuso, no es un error: es una consecuencia directa de sistemas diseñados sin contexto, sin perspectiva de derechos y sin rendición de cuentas. Se censuran las pruebas, pero no las violencias. Se penalizan las denuncias, pero no las estructuras que las provocan. Al proteger ciertas narrativas y silenciar otras, los algoritmos refuerzan el statu quo y erosionan las posibilidades de transformación social.

Además, según recoge la Red Internacional de Periodistas, este es un juego asimétrico. En ese laberinto de claves y restricciones, lo que está en riesgo no es solo el alcance inmediato; las denuncias se vuelven más difíciles de rastrear, y la información concreta de organizaciones, activistas o movimientos sociales desaparece para quienes más la necesitan.

El impacto en la acción colectiva y la memoria

El control automático que penaliza palabras sin ponerlas en contexto condiciona la forma en que narramos nuestras luchas, ya que nos obliga a moldear las palabras que usamos para nombrar nuestras realidades. En muchos casos, estas son palabras que han costado años conceptualizar y consensuar dentro de los movimientos sociales. Al no llamar las cosas por su nombre, se diluye el mensaje y se fragmenta la memoria colectiva.

Como advierte la revista Forced Migration Review, cuando comunidades en condiciones vulnerables se reapropian de términos o usan lenguajes de denuncia, los algoritmos parecen ser más efectivos para eliminar sus contenidos que para moderar discursos de odio o acoso que les atacan. Este desbalance se vuelve crítico cuando miramos quiénes quedan sistemáticamente fuera de las reglas del juego. Las experiencias de personas refugiadas y/o racializadas, por ejemplo, se vuelven aún más invisibilizadas.

Existe un desfase entre los contextos locales y las reglas impuestas globalmente por las plataformas. Muchas veces, los sistemas de moderación algorítmica no están adaptados a las realidades sociales, culturales y lingüísticas de comunidades del Sur Global, lo que intensifica la exclusión digital. Una palabra que en un idioma puede ser una forma legítima de denuncia, en otro es catalogada como violenta o riesgosa. Esta desconexión refuerza la desigualdad en el acceso a la palabra pública y subraya la necesidad de una moderación en el entorno digital que escuche y responda a las realidades plurales que habitan internet.

Quienes dominan los códigos pueden sortear la censura; quienes no, quedan afuera de la conversación. El Digital Future Society alerta que a activistas, creadores de contenido y periodistas se les exige desarrollar un lenguaje que se reinventa una y otra vez frente a la opacidad algorítmica. Pero cuando las palabras cambian constantemente para eludir la censura, se vuelve más difícil ponerlas en común y hacerlas accesibles para otras personas. Frente a estas restricciones debemos repensar cómo nos comunicamos y qué estrategias podemos adoptar.

¿Cómo resistimos?

Nombrar con claridad es un acto político. Llamar las cosas por su nombre, sin eufemismos, es también una forma de resistencia. Reapropiarse del lenguaje algorítmico no significa aceptarlo, sino visibilizarlo como síntoma de un sistema injusto. Algunas organizaciones ya crean glosarios y recursos compartidos para descifrar el algospeak, como el Algospeak Dictionary del Colectivo de Derechos Digitales para la Salud y los Derechos Sexuales y Reproductivos. Democratizar estos conocimientos es clave para que más personas puedan resistir y participar.

También necesitamos exigir mayor transparencia algorítmica. Las plataformas deben explicar cómo moderan y bajo qué criterios y con qué sesgos. Este reclamo no es técnico: es político. Implica defender la libertad de expresión, pero también proteger los temas políticos, culturales y sociales que importan y que hoy están siendo eliminados por sistemas automatizados.

Por último, urge construir y habilitar redes que no estén subordinadas a intereses corporativos. Espacios descentralizados como el fediverso, los medios comunitarios, cooperativas digitales o las alianzas entre organizaciones pueden resguardar nuestras narrativas y sostener la memoria. Resistir también es cuidar redes donde nuestras palabras no sean censuradas por algoritmos opacos.

Palabras que pesan

Las palabras tienen peso. Y cuando las escribimos completas, aunque duelan, aunque molesten, estamos recordando que hay cosas que no pueden ser contenidas, ni siquiera por un algoritmo. Recuperar el lenguaje, cuidarlo y defenderlo es una tarea urgente para quienes luchan por una internet más justa.

En tiempos de automatización y censura silenciosa, reapropiarnos del derecho a nombrar también es reapropiarnos del derecho a existir. No basta con adaptarse: necesitamos transformar el entorno digital para que nuestras palabras no tengan que esconderse.

El desafío de construir el futuro de los derechos humanos

La historia de Derechos Digitales comenzó hace dos décadas apostando a una idea común: que las tecnologías permitirían democratizar el ejercicio de un conjunto de derechos humanos de los cuales buena parte de nuestras poblaciones se veían excluidas. En particular, los derechos a acceder y compartir libremente contenidos artísticos, culturales y científico-académicos, así como noticias y opiniones sobre una amplia variedad de temas. Iniciamos nuestro activismo luchando por garantías a estas libertades en el ámbito tecnológico: que no se impusieran barreras técnicas ni jurídicas al acceso. Al contrario, que los nuevos marcos protegieran y desarrollaran nuestros derechos digitales.

Si bien nuestros orígenes se enmarcan más de una década después de que la apertura democrática en la mayoría de los países del Cono Sur abriera espacio a las primeras iniciativas sociales similares, construimos nuestro trabajo a partir de sus luchas y logros, y de las reflexiones y avances de movimientos iniciados años antes. No partimos desde cero, sino desde un mapa que ya mostraba zonas de conflicto, alianzas posibles y caminos por ensayar.

Una historia construida sobre sueños de libertad

Nuestra relación más obvia, al haber sido responsables de la adaptación y difusión de las licencias Creative Commons a Chile, es con el movimiento de “cultura libre”: con el que compartimos la resistencia al avance desenfrenado de la propiedad intelectual como mecanismo para controlar la circulación de contenidos digitales y proteger antiguos monopolios culturales y mediáticos. Sin embargo, este también nace con fuerte inspiración en dos movimientos previos: el que se construye alrededor del software libre, y aquel que se origina de las disputas por el acceso libre al conocimiento, en particular el acceso a la literatura científica.

El primer texto de nuestra actual página web, con fecha de 5 de mayo de 2005 refleja esta vinculación fundante. Su título: “¿Qué es el software libre?”. Su conclusión:

Considerando las políticas de licenciamiento impuestas por soluciones propietarias, las que suelen socavar las libertades ciudadanas, los beneficios que reporta el trabajo colaborativo y el aliciente para el desarrollo nacional, y los costes asociados a la implementación de soluciones informáticas de código abierto, Derechos Digitales manifiesta su decidida opción por el software libre u open source”.

Otro ejemplo del mismo mes, que apunta al vínculo con movimientos más tradicionales de derechos humanos, es el texto de Daniel Álvarez Valenzuela, fundador y entonces director de Derechos Digitales. Según él, internet podría “conferir a los ciudadanos ‘de a pie’ las mismas posibilidades de ejercer su derecho a la libertad de expresión que los grandes grupos económicos”.

Así, al argumentar sobre cómo la propiedad intelectual representaba una “mordaza” a la libertad de expresión, Álvarez recupera las reivindicaciones del fuerte activismo por la libertad de expresión y el derecho a la comunicación en América Latina. Movimientos responsables por denunciar la censura estatal y cuestionar el monopolio económico de los medios de comunicación en nuestra región.

Nuestros primeros textos reflejan otras relaciones con temáticas de interés de distintos grupos: transparencia y acceso a la información, acceso a la justicia, protección de datos, entre otras. Si bien esas referencias ampliaban el marco conceptual desde el cual abordábamos lo digital, nuestras alianzas y formas de trabajo siguieron, durante bastante tiempo, ligadas sobre todo a comunidades técnicas y jurídicas. Así, por mucho tiempo nuestro trabajo se enmarcó en un nicho dentro del amplio espectro del activismo en derechos humanos.

Promesas secuestradas

En 20 años de actuación, maduramos nuestra concepción sobre estas bases, siempre buscando proteger el ejercicio de derechos facilitado por las tecnologías de intentos de captura, criminalización y vigilancia. Pero lo que antes tomaba la forma de una discusión técnica, jurídica y delimitada a un ambiente digital accesible a una pequeña élite regional, hoy está en el centro de las preocupaciones cotidianas de un sinnúmero de personas afectadas de diferentes formas por las tecnologías digitales.

Primero porque el acceso a internet se ha incrementado significativamente en la región, aunque de manera desigual y a menudo en condiciones precarias. Las brechas no son solo de infraestructura, sino también de calidad, asequibilidad y autonomía. Muchas conexiones son lentas, inestables o costosas, y buena parte del acceso ocurre exclusivamente vía móvil, con planes que restringen contenidos y vulneran el principio de neutralidad de la red. Además, persiste una desigualdad profunda en el acceso a dispositivos adecuados y en las competencias necesarias para usar internet de forma segura, crítica y orientada al ejercicio de derechos. La desconexión ya no es el único problema: también lo es una conectividad limitada, subordinada y sin garantías.

Segundo porque ya no es necesario “estar” en internet para sentir los efectos de la digitalización que –a pesar de la eterna promesa de eficiencia– parece haber traído más riesgos que ventajas. La digitalización atraviesa hoy el acceso a servicios esenciales como salud, educación o justicia, sin que existan garantías adecuadas para todas las personas. Estas transformaciones, impulsadas muchas veces por actores privados sin transparencia ni control democrático, o embelesadas por la promesa de la inteligencia artificial, terminan agravando desigualdades y generando nuevas formas de exclusión. Si antes una preocupación central era con el filtrado de datos y la ciberseguridad, a ella se suman también las consecuencias tangibles de los mismos, la violencia y la manipulación del debate público digital a nuestras vidas y sociedades. Ya no hablamos solo de acceso a información, sino de la posibilidad misma de participar en la esfera pública sin ser invisibilizadas, acosadas o manipuladas.

Tercero, porque nuestros cuerpos son capturados y transformados en rastros digitales explotables para distintos fines ajenos a nuestra voluntad, a medida que las tecnologías digitales se aplican para mediar nuestro acceso a espacios y derechos. La expansión de sistemas de identificación biométrica, el monitoreo de actividades y el análisis predictivo han convertido nuestra vida en datos a explotar y nuestras huellas digitales en materia prima para el control social, la discriminación automatizada y la extracción de valor. Lo que alguna vez se entendió como mediación tecnológica, hoy opera como filtro, barrera o condición de acceso a la vida en sociedad.

Las promesas de apertura, descentralización y acceso que inspiraron el nacimiento del campo han sido sistemáticamente desplazadas por dinámicas de concentración, extracción y control que definen las infraestructuras digitales contemporáneas.

En estas condiciones, el entorno digital ya no parece un espacio naturalmente propicio para el ejercicio de derechos. Lo que comenzó como un terreno fértil para imaginar nuevas libertades, hoy plantea desafíos más urgentes, más desiguales, más difíciles de revertir. Pero si algo hemos aprendido en estos veinte años, es que el conflicto no clausura la posibilidad, sino que nos obliga a repensar nuestro trabajo.

Por el derecho a soñar

A pesar de estos patentes cambios y de un contexto geopolítico internacional refractario a las narrativas de derechos humanos, hoy más que nunca nos parece central reivindicar nuestra misión. No como una consigna repetida, sino como una tarea que se redefine constantemente frente a amenazas más sofisticadas, actores más poderosos y exclusiones más profundas. El escenario que enfrentamos es a menudo hostil, pero también más disputado: cada vez hay más fisuras que visibilizan una diversidad de voces que reclaman por justicia. Voces que requieren ambientes seguros para seguir manifestándose y entornos habilitantes, incluso a nivel digital.

A 20 años de nuestra fundación, seguimos apostando en el software libre para garantizar libertad, autonomía y protección. Mantenemos nuestra convicción en la necesidad de democratizar las comunicaciones y romper con los monopolios que se actualizan cada día a costa de la libertad de nuestras comunidades. Confiamos, más que nunca, en que los derechos humanos son una herramienta viva para enfrentar las crisis del presente y construir el futuro.

Los próximos años exigirán más que resistencia: necesitaremos nuevas alianzas, nuevas formas de incidencia y una comprensión más amplia de qué significa hoy defender derechos en entornos digitales. Necesitaremos resiliencia y solidaridad. Desde los márgenes donde trabajamos como sociedad civil latinoamericana y en toda la región, sabemos que no basta con reaccionar, sino que debemos proponer el futuro que queremos. Este seguirá siendo nuestro lugar.