Entre prohibir y educar: el falso dilema digital

Frente a los múltiples desafíos sociales planteados por la integración de las tecnologías en los más variados ámbitos de la vida cotidiana, es común la presentación de propuestas relacionadas con la “alfabetización digital”. En los debates sobre políticas públicas, el concepto surge muchas veces como un comodín para responder a las preguntas difíciles y transferir responsabilidades incómodas.

Según el discurso mayoritario, la alfabetización digital busca dotar a la ciudadanía, desde la infancia, capacidades para un uso más responsable de internet, los datos, la inteligencia artificial u otras tecnologías emergentes. Sin embargo, las discusiones recientes sobre los impactos de ciertas tecnologías en el desarrollo integral de las infancias demuestran la urgencia de políticas educativas que no solo entreguen habilidades de uso, sino que promuevan una comprensión crítica de estas herramientas y sus efectos.

La incorporación formal del concepto en políticas tecnológicas o educativas es central, pero sin una estrategia que dé cuenta también de las necesidades de formación docente asociadas, termina por abrir más espacio para la entrada de empresas de tecnologías en las escuelas. Ya sea con el entrenamiento directo de docentes y estudiantes en el uso de sus propios productos y servicios, como hace Google incluso como estrategia para impulsarlos en instituciones educativas, o a través de distintas alianzas, programas y contenidos que buscan también moldear la misma noción de alfabetización digital en función de sus intereses.

Navegando extremos

Mientras la defensa de la alfabetización digital queda vacía de contenido y carecemos de evidencias sobre su efectivo impacto en la garantía de derechos, la reciente prohibición del acceso a redes sociales a menores de 16 años en Australia y el fallo que declaró a Google y Meta culpables por no tomar acción frente a los riesgos presentados por sus productos han dado espacio a otro tipo de discusión. Emergen en la región debates públicos y propuestas legislativas que buscan responder de otra manera a los riesgos que estas tecnologías implican para las infancias.

Ya no se trata de educar para un uso responsable, sino directamente de prohibir.  Como expusimos en una columna reciente, propuestas de este tipo representan intentos simplistas para solucionar un problema extremadamente complejo. No solo eso: conllevan distintos tipos de desafíos para la protección de los derechos de las infancias y para su  implementación, que no necesariamente son tomados en cuenta en los debates legislativos.

Puede parecer algo simple, pero hacer efectiva una prohibición de redes sociales para determinados grupos etarios implica la adopción de mecanismos de control de edad que pueden ser poco efectivos, y al mismo tiempo, excesivamente intrusivos debido a la demanda de datos personales implicada. Obligar a las empresas a recolectar más datos personales para el acceso a sus servicios va en contramano del concepto de privacidad por diseño, abriendo espacio para filtraciones y brechas de seguridad que ponen en riesgo especialmente a quienes se encuentran en situación de mayor vulnerabilidad.

Por otro lado, la opción por restringir el uso de redes sociales puede sentirse como una prohibición general al uso de internet, especialmente para quienes se conectan primordialmente desde el teléfono móvil con planes de datos ya limitados. En el caso del uso compartido de estos dispositivos, la prohibición puede ser completamente inefectiva – con niños y niñas accediendo a las redes de sus familiares– o demasiado amplia, dificultando el uso legítimo por otras personas de la familia. Al no tomar en cuenta sus implicaciones en contextos de desigualdad como los latinoamericanos, este tipo de medida puede profundizar brechas preexistentes.

Más que una excusa, un deber

El acceso a internet es una precondición fundamental para el ejercicio de derechos humanos como la libertad de expresión, el acceso a la información, la educación, la salud, la cultura y la participación política en una sociedad democrática, entre muchos otros. Sin embargo, el derecho de acceso a internet no se concreta por la simple capacidad de conectarse.

Según la Comisión Interamericana de Derechos Humanos (CIDH), este derecho se refiere a la necesidad de garantizar la conectividad y el acceso universal, ubicuo, equitativo, verdaderamente asequible y de calidad adecuada a la infraestructura de internet y a los servicios de las tecnologías de información y comunicación en todo el territorio de los Estados. De acuerdo con la Comisión Económica para América Latina y el Caribe (CEPAL), para que la conectividad sea significativa, “la conexión a Internet debe ser rápida, confiable y estable, de modo de permitir la realización del conjunto de actividades cotidianas, productivas y de acceso a diferentes servicios sin interrupciones. Además, esta conectividad debe estar al alcance de todas las personas, independientemente de su contexto socioeconómico o territorial y no puede estar restringida a un teléfono básico”.

Datos recientes en la región dan cuenta de que el incremento en el acceso a internet en los últimos años oculta una realidad no solo lejana a tal ideal, sino también profundamente desigual: buena parte de la población, especialmente de clases más bajas, no tiene acceso integral a internet. Al contrario, se conecta a la red de manera parcial por medio de dispositivos móviles (muchas veces compartidos), paquetes de datos y zero rating, práctica que vulnera el principio de neutralidad de la red al privilegiar el acceso a ciertas aplicaciones a partir de acuerdos directos con grandes empresas de tecnologías. Las redes sociales son justamente las que se suelen incluir en tales planes con acceso ilimitado.

Ante este contexto, el rol de las instituciones públicas y comunitarias en facilitar la conectividad significativa se hace crítico. En el caso de las escuelas, su papel es central no solo para viabilizar un acceso universal, sino también para promover el acceso a conocimientos que permitirán su mejor aprovechamiento, incluso con miras a una participación activa y constructiva en la esfera pública digital. En sociedades cada vez más permeadas por las tecnologías, tales conocimientos son cruciales para la participación en la vida política, social y económica y deben ser parte integral de cualquier política de inclusión digital.

Hacia una educación crítica para las tecnologías

El avance del debate público sobre el impacto de ciertas tecnologías en las infancias en América Latina es fundamental. No solo desde un punto de vista individual, pero como un clamor colectivo en favor de límites al extractivismo sin frenos promovido por los grandes monopolios internacionales a costa de nuestros derechos. Cada vez es más visible que el impacto de las big tech en nuestras vidas y sociedades, así como sus estrategias de marketing y lobby, no difiere de lo que pasa en la industria de alimentos ultraprocesados, agrotóxicos o tabaco. Y frente a la honestidad obscena con la que los tech bros expresan su visión de mundo, necesitamos decir ¡basta! 

Sin embargo, desconectarse o prohibir el acceso a contenidos es una estrategia, como mínimo, frágil. La prohibición como medida aislada puede limitar la conectividad significativa y terminar por entregar un argumento más para legitimar el apetito de la industria por datos y más datos, la fuente de sus ganancias y poder. En última instancia, conlleva como riesgo la profundización de las ya marcadas brechas digitales existentes en nuestra región.

Por otro lado, es urgente replantear el argumento de la alfabetización digital y reclamar la incorporación de una educación crítica para las tecnologías como parte central de las políticas de inclusión digital y tecnológicas. No hacerlo es condenar a las futuras generaciones a un rol de usuarias pasivas, cuando no meras víctimas, de las grandes empresas de tecnologías.

Defender la democracia latinoamericana como trinchera de los derechos humanos

¿Es la democracia un derecho humano? Esta pregunta fue formulada por Guatemala ante la Corte Interamericana de Derechos Humanos (Corte IDH) a través del mecanismo de solicitud de Opinión Consultiva, es decir, una función interpretativa de la Corte que permite analizar los instrumentos jurídicos interamericanos ante nuevos desafíos que surgen a propósito de su aplicación. Dicha pregunta fue discutida en marzo pasado en una audiencia pública en Brasilia, donde distintos actores defendieron sus opiniones tanto a favor como en contra de su reconocimiento como derecho.

La solicitud de Opinión Consultiva por parte de Guatemala se motivó a raíz de situaciones que aquejan a toda la región. El deterioro de las instituciones democráticas, la persecución de personas defensoras de derechos humanos, la fragilidad de los procesos eleccionarios, el uso excesivo de la fuerza por parte del Estado en contextos de protesta, la instrumentalización y debilitamiento de la independencia de los sistemas de Justicia, entre otros. Por lo que Guatemala solicitó a dicho tribunal evaluar si la democracia es un derecho humano, en tanto que resulta “indispensable para el ejercicio de las libertades fundamentales y [otros] derechos humanos”.

La decisión -que será publicada en los próximos meses- será crucial en el contexto actual de América Latina. Por un lado, la región experimenta el auge de regímenes antidemocráticos que promueven políticas de “mano dura”, se distancian de los espacios multilaterales donde predomina el lenguaje de los derechos humanos, y buscan restringir progresivamente su alcance a nivel interno. Por otro lado, asistimos a un incremento de la influencia autoritaria de las Big Tech, cada vez más consolidado mediante alianzas público-privadas y cuyo alcance global tensiona a los regímenes democráticos. Todo ello en un contexto geopolítico marcado por la inefectividad o insuficiencia de los foros multilaterales en contener su poder, mientras asistimos a un despliegue masivo de tecnologías digitales, cuyas implementaciones han traído consigo nuevos fenómenos que aquejan a las democracias, y amplificado otros ya preexistentes.

Las posturas defendidas ante la Corte IDH

Aunque no es posible anticipar el sentido de la decisión de la Corte que, durante tres días de audiencias se mostró interesada pero también cautelosa respecto de los alcances y límites de este eventual nuevo derecho, sí podemos identificar tres grandes posturas que emergieron en el debate.

En un grupo minoritario se expresaron las voces en contra. Entre sus argumentos, sostienen que la democracia no está consagrada como derecho en el corpus iuris interamericano y que el Tribunal no debería exceder sus funciones interpretativas. Desde esta perspectiva, la democracia sería únicamente un sistema político, no un derecho humano. Entre quienes se manifestaron parcialmente a favor, se reconoce a la democracia como un principio fundamental, pero no como un derecho humano, argumentando que aún no existen estándares jurídicos suficientemente desarrollados para su reconocimiento como tal. Durante los debates de la audiencia, la posición mayoritaria fue a favor: se afirma que la democracia es un derecho humano interdependiente, que actúa como condición habilitante para el ejercicio de otros derechos, y que trasciende la dimensión estrictamente electoral (elegir y ser elegido).

Al respecto, vale la pena advertir que, aunque los instrumentos jurídicos interamericanos no explicitan la existencia del derecho humano a la democracia, la Corte IDH tiene algunas claves para emprender su trabajo interpretativo.

Por ejemplo, la Carta Democrática Interamericana, un instrumento que apoya la interpretación de los tratados interamericanos, expresa que los pueblos de América tienen derecho a la democracia. La Carta de la OEA reitera la protección de la persona como fundamento de la democracia y en la prioridad que ésta tiene para los Estados que se comprometen a promoverla en el seno de dicho organismo. La Convención Americana sobre Derechos Humanos -y otros instrumentos regionales- reiteran cuán relevantes son las condiciones democráticas como un objetivo de la región para la garantía de otros derechos. E incluso algunos fallos de la propia Corte -como el caso Gadea Mantilla Vs Nicaragua– señalan que la “democracia en los Estados americanos constituye una obligación jurídica internacional”. Estas, junto a otras fuentes del derecho internacional, fueron de hecho citadas por Guatemala para sostener la existencia del derecho autónomo a la democracia.

Nuestra posición: la democracia sí es un derecho humano

Cada postura tiene matices relevantes. Sin embargo, la posición defendida por Derechos Digitales, junto a CEJIL, Fundación Multitudes, Civicus y la Universidad Rafael Landívar, se enfoca en afirmar la existencia de ese derecho humano a la democracia.

Desde esta perspectiva, la democracia como derecho humano implica aproximarse a un conjunto más amplio de condiciones estructurales que facilitan otros derechos, más allá de los derechos políticos (elegir y ser elegido). Entre ellas, destacan en general, la protección de la división y separación de poderes, la integridad e independencia del Poder Judicial, la integridad de las instituciones democráticas. Así como también otras garantías más recientes que deben ser reconocidas como tal, como la garantía de la integridad de la información -que abarca la salud de los ecosistemas mediáticos y condiciones laborales dignas para el periodismo- y la protección del espacio cívico libre, abierto, seguro y plural, tanto en el ámbito analógico como digital.

Este derecho humano a la democracia interactúa de forma dinámica con otros derechos ya consolidados, como la libertad de expresión, la libertad de prensa y el derecho a la protesta o la privacidad, por mencionar algunos. Se trata de una relación bidireccional. Por ejemplo, sin garantías efectivas para el ejercicio del periodismo -incluyendo condiciones materiales, regulatorias y de seguridad- resulta imposible fiscalizar al poder, una función esencial en cualquier democracia robusta.

Asimismo, cuando el espacio cívico -especialmente el digital- se encuentra sometido a vigilancia masiva por parte del Estado o de corporaciones tecnológicas que no están debidamente reguladas, se generan efectos inhibitorios sobre la participación ciudadana. La autocensura, el silenciamiento del disenso y la criminalización de voces críticas erosionan los contrapesos necesarios frente a las mayorías. En este sentido, la democracia como derecho humano opera como una debida garantía del entorno habilitante que asegura la vigencia efectiva de otros derechos fundamentales.

Riesgos y potencialidades

El reconocimiento del derecho humano a la democracia, sin embargo, debe ser considerado sin ignorar que enfrenta amenazas y riesgos reales. En la región, evidenciamos un creciente fenómeno de desregulación o “simplificación” en materia de derechos (con la excusa de impulsar la innovación o promover el crecimiento económico), así como la desfinanciación de políticas públicas que sostienen los sistemas de protección social. A esto se añaden las amenazas derivadas de la digitalización masiva, donde un puñado de actores poderosos tiene gran capacidad de impacto en su ejercicio.

Entre esos nuevos riesgos, advertimos no solo la capacidad cada vez más expansiva de la desinformación, sino su instrumentalización en operaciones coordinadas por parte de funcionarios públicos que buscan deslegitimar o incentivar a la violencia contra las instituciones democráticas. Este problema, que merece un abordaje integral más allá del meramente jurídico (enfocado desde lo penal ya viene siendo deficiente y miope), se encuentra potenciado, entre otros, por el progresivo debilitamiento de los ecosistemas mediáticos. Esta fragilidad no sólo es generada a través de la asfixia económica que experimentan medios de prensa tradicional y alternativos, como fruto de la usurpación de su modelo de negocios -la publicidad- por parte de las Big Tech que además precariza y pone en peligro el trabajo periodístico, sino también a través de la violencia y estigmatización contra los medios que cuestionan al poder.

Otros retos de gran relevancia amenazan el espacio cívico plural, seguro y abierto, como lo es la violencia de género facilitada por las tecnologías (VGFT). Mujeres y niñas, en toda su diversidad, se encuentran en el centro de este fenómeno que busca silenciarlas, desplazarlas de la esfera pública, denigrar o estigmatizar en su contra, y hasta poner en riesgo su vida e integridad. Este fenómeno se agrava de cara a mujeres periodistas, defensoras de derechos humanos, y aspirantes a cargos públicos, por lo que merece un abordaje estatal más allá del tradicional enfoque punitivo.

Más allá de los riesgos que enfrenta la democracia como derecho humano, su reconocimiento tiene un potencial excepcional para facilitar la garantía otros derechos. Por su carácter colectivo permitiría poner el foco más allá del individuo y reforzar la dimensión estructural de derechos como el de la protección de datos personales y el de la privacidad en la era digital.

Por ejemplo, la vigilancia estatal (facilitada hoy con la colaboración de las Big Tech) tiene efectos profundamente antidemocráticos pues facilita la represión, la persecución y la estigmatización de cualquier persona declarada como su objetivo. La vigilancia apaga la diversidad de voces presentes, tanto en los medios de prensa, así como en el espacio cívico analógico y digital, desalentando también la participación en el debate público. En consecuencia, la protección de la privacidad no puede limitarse a una dimensión individual, sino que debe entenderse también como un componente esencial de la salud democrática.

No obstante, la mayoría de las herramientas jurídicas en la región continúan centradas en la protección individual -por ejemplo, a través de reclamos ante autoridades de protección de datos- o en colectivos específicos, como la protección de las infancias. Este enfoque resulta insuficiente frente a problemas estructurales que enfrenta la protección de la privacidad, como el desequilibrio informativo y de poder entre el titular y los Estados, que vigilan cada vez más a su población al tiempo que erosionan los marcos regulatorios dedicados a imponer pesos y contrapesos sobre dichas tareas.

Reconocer la democracia como un derecho humano, permitiría avanzar hacia mecanismos de protección colectiva de la privacidad mucho más robustos. Asimismo, fortalecería la capacidad de los Estados para exigir el cumplimiento de normas por parte de empresas tecnológicas transnacionales y para garantizar la efectividad de sus propias decisiones regulatorias a nivel interno.

¿Qué podemos esperar de la futura decisión de la Corte IDH?

Esta no es la primera vez que la Corte IDH enfrenta el desafío de reconocer nuevos derechos: ya lo hizo, por ejemplo, con el derecho al cuidado y el derecho a defender derechos. Sin embargo, en esta ocasión el reto es particularmente delicado desde el punto de vista jurídico.

El Tribunal deberá resolver cuestiones esencialmente jurídicas, por ejemplo, cómo reconocer el derecho humano a la democracia sin que esto sugiera la imposición de un modelo político uniforme a los Estados de la región, o cómo definir sus mecanismos de protección, reparación y evaluación de su cumplimiento.

Sea cual sea el resultado, la futura Opinión Consultiva tendrá un efecto jurídico para todos los Estados del sistema interamericano, incluso para aquellos que, aunque mantengan estructuras formales democráticas, actualmente se alejan de los estándares que los sustentan.

El debate sobre si la democracia es un derecho humano no es meramente teórico ni debe ser exclusivamente jurídico: refleja tensiones profundas sobre el presente y el futuro de nuestras sociedades. Reconocerla como tal no implica imponer un modelo político único ni desconocer otros derechos igualmente relevantes, como el de autodeterminación de los pueblos o el principio de no injerencia, sino afirmar que, sin condiciones democráticas sustantivas como la independencia de poderes, la protección de la integridad de la información, o la garantía de un espacio cívico abierto, libre y plural, el resto de los derechos pierde eficacia real.

En un contexto marcado por el autoritarismo emergente y el poder creciente de actores tecnológicos globales, el reconocimiento del derecho humano a la democracia podría convertirse en una herramienta clave para proteger, revitalizar y proyectar los sistemas democráticos de la región hacia el futuro.

De la teoría a la práctica: herramientas para evaluar el impacto de la IA en los derechos humanos

En la actualidad, vivimos un contexto de creciente uso de tecnologías de inteligencia artificial (IA) por parte de los gobiernos, sea en la gestión de políticas públicas, a partir de herramientas predictivas, como apoyo en la gestión de políticas sociales o, incluso, en la interacción de organismos oficiales con las personas a través del uso de chatbots. Desde 2019, en Derechos Digitales estudiamos este tipo de casos en el marco de la iniciativa Inteligencia Artificial e Inclusión, que incluye 10 análisis del uso de IA en países de América Latina y dos informes comparados que apuntan a tendencias regionales. Uno de los puntos de falencia detectados en estos estudios consiste en la falta de mecanismos de control y supervisión por parte de las distintas partes interesadas o afectadas por tales iniciativas. Por otro lado, desde quienes las implementan parece haber una necesidad de herramientas que ayuden a responder a la siguiente pregunta: ¿cómo anticipar y mitigar los efectos negativos que los sistemas automatizados pueden tener sobre los derechos de las personas?

Un instrumento que puede ayudar a responder este interrogante son las evaluaciones de impacto en derechos humanos. En términos generales, estas evaluaciones se apoyan en el derecho internacional de los derechos humanos, en particular los Principios Rectores sobre las Empresas y los Derechos Humanos (UNGP), y sirven para analizar cómo una determinada intervención impacta en distintos derechos y grupos sociales, incorporando principios como la transparencia, la rendición de cuentas y la no discriminación. A la vez, cuando son pensados para el contexto de la IA, se inspiran en mecanismos de estudio de impacto adoptados en distintos ámbitos, como por ejemplo la protección de datos personales. Sin embargo, conllevan un conjunto de desafíos a su implementación que van desde asegurar los recursos necesarios para un análisis efectivo, hasta la necesidad de un entorno institucional y regulatorio que los haga significativos como herramienta de protección de derechos y no solo un ejercicio formal de validación de decisiones ya tomadas.

En este sentido, las herramientas analizadas en las siguientes líneas incluyen referencias a potenciales efectos en derechos humanos específicos, citados con los marcos y artículos específicos correspondientes. Es por esto que no fueron incluidos en este listado análisis de impacto como la herramienta de Evaluación de Impacto de la UNESCO, que tiene como fuente principal de referencia la Recomendación de Ética de la IA de la organización.

HUDERIA: herramienta de evaluación de impacto del Consejo de Europa

Uno de los desarrollos más recientes en este campo es el marco de Evaluación de Impacto en Derechos Humanos, Democracia y Estado de Derecho Para Sistemas de Inteligencia Artificial (HUDERIA, por sus siglas en inglés) impulsado por el Consejo de Europa. Se trata de una metodología diseñada específicamente para evaluar sistemas de IA desde una perspectiva integral, incorporando no solo la noción de derechos humanos, sino también consideraciones vinculadas a la democracia y el Estado de derecho. Fue aprobada por el Comité de Ministros del Consejo de Europa el 26 de febrero de 2025, mientras que su componente operativo, el modelo de análisis contextual (COBRA), fue admitido posteriormente el 25 de febrero de 2026, consolidando así el marco completo de evaluación de efectos.

Metodológicamente, HUDERIA se estructura como un proceso que abarca distintas etapas. Al inicio, plantea una fase de contextualización (COBRA) orientada a comprender el entorno en el que se despliega el sistema, sus finalidades y los posibles riesgos iniciales. A esto le sigue una fase de investigación en profundidad, que combina evidencia empírica con estándares de derechos humanos, incorporando elementos como la participación de las personas potencialmente afectadas y la transparencia en la toma de decisiones. Posteriormente, el proceso culmina en la elaboración de recomendaciones y medidas de mitigación, junto con mecanismos de seguimiento que buscan asegurar que el monitoreo no quede como un ejercicio meramente formal.

Si bien HUDERIA intenta superar la lógica de checklist o autoevaluación para avanzar hacia una evaluación capaz de capturar la complejidad de los sistemas de IA y sus impactos en contextos reales, esta misma profundidad plantea desafíos importantes en términos de implementación. La metodología requiere recursos, capacidades técnicas e institucionales, así como un compromiso efectivo con la transparencia y la participación, lo que puede dificultar su adopción generalizada en el corto plazo. En este sentido, HUDERIA puede leerse como un intento de avanzar hacia herramientas de diagnóstico más robustas y alineadas con estándares internacionales, pero también como un reflejo de las tensiones propias de este campo: entre la necesidad de herramientas rigurosas y la dificultad de traducirlas en prácticas concretas y sostenibles.

Toolkit de evaluación de impacto en derechos humanos de la IA del PNUD

Otro de los desarrollos recientes en este campo es el Toolkit de Evaluación de Impacto en Derechos Humanos de la Inteligencia Artificial, desarrollado por el equipo del Programa de las Naciones Unidas para el Desarrollo (PNUD) en su Centro Regional de Estambul, con aportes de diversas oficinas de país y socios regionales de Europa y Asia Central. Publicado en diciembre de 2025, se trata de una herramienta diseñada para apoyar a gobiernos, organizaciones y otros actores en la identificación, diagnóstico y mitigación de riesgos en derechos humanos asociados al uso de sistemas de IA, en particular en contextos donde las capacidades institucionales aún están en desarrollo. A diferencia de otros abordajes, el toolkit del PNUD adopta una orientación eminentemente práctica, pensada para ser utilizada por actores no técnicos que necesitan interactuar con sistemas de IA sin contar con conocimientos especializados. En este sentido, busca facilitar la incorporación de un enfoque de derechos humanos a lo largo de todo el ciclo de vida de la IA, desde el diseño y desarrollo hasta su implementación y monitoreo.

Metodológicamente, el toolkit se estructura en tres componentes principales. En primer lugar, un manual técnico que introduce conceptos clave de la IA y describe su ciclo de vida, identificando riesgos en derechos humanos en cada etapa. En segundo lugar, una herramienta de autoevaluación organizacional, que permite a las instituciones valorar su nivel de preparación para llevar adelante este tipo de análisis, considerando aspectos como políticas internas, capacidades y procesos. Finalmente, incluye un modelo de evaluación de impacto, que ofrece una metodología para identificar derechos potencialmente afectados, determinar la magnitud de los impactos y definir medidas de mitigación.

El toolkit aborda áreas clave como la no discriminación, la privacidad y la protección de datos, la transparencia y la rendición de cuentas, el debido proceso y el acceso a remedios, alineándose con estándares internacionales como los Principios Rectores de las Naciones Unidas sobre Empresas y Derechos Humanos y los principios de la OCDE. Su principal aporte radica en su accesibilidad y modularidad: ofrece guías, preguntas orientadoras y herramientas concretas que permiten operacionalizar el análisis de impacto en contextos reales.

En contraste con HUDERIA, que propone una evaluación más profunda y contextual de los impactos, el toolkit del PNUD prioriza un enfoque operativo y adaptable, orientado a facilitar su adopción en distintos entornos institucionales. Ambos instrumentos, desarrollados en momentos prácticamente paralelos, reflejan aproximaciones complementarias dentro de un campo en desarrollo.

A la vez, ambos plantean limitantes en relación a su capacidad para mitigar riesgos. Dependen, en gran medida, de la voluntad de gobiernos, organismos estatales o entidades privadas para su uso, o de las capacidades de las organizaciones de derechos humanos para llevar adelante estas tareas pese a las restricciones presupuestarias y de recursos que presenta el sector en la actualidad.

Evaluaciones de impacto en derechos fundamentales (FRIA): guía de ECNL y el Instituto Danés para los Derechos Humanos

En el contexto de la regulación europea, el European Center for Not-for-Profit Law (ECNL) y el Danish Institute for Human Rights desarrollaron una guía para la implementación de evaluaciones de impacto en derechos fundamentales (Fundamental Rights Impact Assessments, FRIA), en el marco de la Ley de Inteligencia Artificial de la Unión Europea (AI Act) en 2024. A diferencia de las otras herramientas analizadas, la FRIA se configura como una obligación que debe ser implementada para determinados sistemas de alto riesgo antes de su primer uso (según lo establecido en el artículo 27 de la AI Act).

Más que una metodología cerrada, la guía propone un enfoque estructurado para llevar adelante estas evaluaciones, orientado a asegurar que el análisis de impactos en derechos fundamentales forme parte del proceso de toma de decisiones antes del despliegue de sistemas de IA. En este sentido, la FRIA se inserta en el encuadre más amplio del AI Act, articulándose con otras obligaciones aplicables a los sistemas de alto riesgo, como el desarrollo de capacidades internas en IA, la supervisión humana o el reporte de incidentes. Así, busca funcionar como un mecanismo de gobernanza que permita identificar riesgos, evaluar su gravedad y definir medidas de mitigación de manera anticipada.

Metodológicamente, la guía organiza la FRIA como un proceso en varias fases, que incluyen la planificación y definición del alcance, la estimación de riesgos sobre los derechos fundamentales, la adopción de medidas de mitigación y el monitoreo posterior. Un elemento central es la incorporación de la participación de personas potencialmente afectadas y otros actores relevantes, así como la documentación y transparencia de los resultados. Asimismo, la guía aborda su relación con otras herramientas existentes, como las evaluaciones de impacto en protección de datos (DPIA), señalando que, si bien pueden presentar puntos de contacto, deben entenderse como evaluaciones diferenciadas pero complementarias.

A diferencia de HUDERIA o del toolkit del PNUD, que proponen metodologías más desarrolladas y detalladas, la FRIA establece principalmente un marco de requisitos y criterios mínimos derivados de la regulación, dejando margen a los actores para definir cómo implementar la evaluación en la práctica. Cabe mencionar que tanto el toolkit del PNUD como la FRIA mencionan el instrumento del Consejo de Europa como un antecedente clave.

¿Y qué pasa en América Latina?

En América Latina, el desarrollo de este tipo de herramientas aún es incipiente. Si bien existen algunos esfuerzos aislados desde la sociedad civil, la academia o ciertos organismos públicos, las evaluaciones de impacto en derechos humanos aplicadas a la IA siguen siendo poco frecuentes y no forman parte de prácticas institucionalizadas. En este escenario, en la actualidad, la Relatoría Especial para la Libertad de Expresión de la Comisión Interamericana de Derechos Humanos trabaja en un informe regional sobre el asunto, que incluyó un espacio de consulta abierta, a principios de 2026, ante la cual Derechos Digitales realizó una serie de aportes. Si bien no se trata de una evaluación de impacto en los términos analizados, la sistematización de estos riesgos por parte de un organismo del Sistema Interamericano de Derechos Humanos puede sentar un precedente clave para avanzar en una herramienta de regional de este tipo.

Asimismo, es necesario que la implementación de estas herramientas se desarrolle de forma crítica y consensuada, para evitar caer en el cumplimiento de un mero checklist. La publicación de los resultados de las investigaciones, en este sentido, representa un potencial recurso para ser utilizado como precedente a la hora de implementar estas tecnologías en distintos lugares bajo situaciones similares.

La región tampoco cuenta, por el momento, con un marco consolidado que sirva como referencia común para orientar su implementación, como pasa con la Ley de IA de la Unión Europea. En este contexto, el desafío no es solo adaptar herramientas desarrolladas en otros entornos, como las analizadas en este artículo, sino también avanzar en la construcción de capacidades, estándares y prácticas propias que permitan evaluar de manera sistemática los impactos de estas tecnologías en los derechos de las personas. El reto no es solo técnico o regulatorio, sino también político, y exige que quienes puedan ser afectadas en el despliegue de estos sistemas estén en el centro del proceso, como parte activa del diseño y seguimiento de la evaluación de impactos.

Las tecnologías del ICE y el perverso sistema automatizado de persecución a migrantes latinos

La administración Trump ha convertido al Servicio de Inmigración y Control de Aduanas de EE. UU. (ICE, por sus siglas en inglés) en una agencia de vigilancia masiva. Con un presupuesto que supera los USD 28.000 millones en 2025 (el triple que el año anterior), la agencia ha tejido una red que cruza bases de datos gubernamentales, compra información de empresas y despliega tecnología en las calles.

Un migrante mexicano lo descubrió cuando el ICE rastreó las transferencias de remesas que enviaba a su familia en México, identificó su dirección en Hawái y lo arrestó, pese a no tener antecedentes criminales. En Chicago, una mujer colombiana fue detenida en lo que parecía una parada de tráfico rutinaria: su vehículo había sido marcado con anticipación, cruzando registros estatales con bases de datos federales. Otro migrante mexicano, que vendía flores en una ciudad de Los Ángeles, estuvo semanas detenido porque el ICE lo confundió con un sospechoso de nombre similar, pese a tener documentos que probaban su inocencia. Tres casos, tres tecnologías distintas, un mismo sistema.

La agencia lleva años construyendo este ecosistema de vigilancia, una arquitectura de datos originalmente creada tras el 11 de septiembre para “combatir terroristas”, ahora redirigida hacia comunidades migrantes que trabajan y sostienen la economía del país. Un embudo que comienza con datos que las personas mismas generan (remesas, registros vehiculares, ubicaciones de celular), pasa por el cruce con bases de datos gubernamentales y comerciales, y termina en una operación de calle donde un agente ICE con un teléfono decide el destino de alguien en segundos. Un sistema que, en ese proceso, no distingue entre quien tiene una orden de deportación y quien simplemente existe en sus bases de datos.

Etapa 1: la maquinaria de recolección masiva de datos

El punto de partida del sistema son los datos. ICE no recolecta la mayoría de la información por sí misma: la compra. Cada vez que alguien paga una factura de luz, manda una remesa, saca una licencia de conducir o publica algo en redes sociales, esa información puede terminar en manos de la agencia. Empresas como Thomson Reuters y LexisNexis reúnen datos de múltiples fuentes sobre una misma persona (historiales de crédito, direcciones, números de teléfono, registros vehiculares, vínculos familiares) y se los venden al ICE. No hace falta una orden judicial, ya que la ley no lo exige cuando los datos los vende una empresa privada, y esa es exactamente la puerta de entrada del ICE.

El celular también delata. Aplicaciones que millones de personas utilizan a diario registran su ubicación constantemente, y empresas como Venntel o PenLink capturan y revenden al gobierno esos registros de movimientos a través de GPS. Y en la calle, la red Flock Safety opera 100.000 cámaras en 49 estados que leen 20.000 millones de matrículas de automóviles al mes.

A eso se suman los datos biométricos. La foto de la licencia de conducir queda en bases de datos estatales a las que el ICE tiene acceso. Clearview AI fue más lejos: extrajo imágenes de redes sociales y sitios de noticias hasta acumular más de 50.000 millones de rostros, y el ICE firmó un contrato para aprovechar esa base. Por último, lo que el propio Estado ya sabía también está disponible, como por ejemplo declaraciones de impuestos, registros médicos de Medicaid y datos del Seguro Social. En 2025, un juez federal determinó que el IRS, la autoridad tributaria norteamericana, infringió la ley aproximadamente 42.000 veces al compartir datos de contribuyentes con el ICE.

Etapa 2: la inteligencia artificial convierte datos en objetivos

La información recolectada en la primera etapa no es suficiente. El sistema necesita convertirla en personas localizables, y para eso existen empresas como Palantir. Fundada con capital de la CIA, esta compañía tecnológica mantiene contratos con el ICE desde 2011. Su plataforma cruza todas las fuentes de información de la etapa anterior y construye un perfil con ubicación probable. No es una búsqueda manual, es un modelo de IA que procesa miles de variables para determinar dónde podría estar alguien ahora mismo.

La herramienta más reveladora que Palantir desarrolló para el ICE es ELITE. Funciona, según un agente que testificó bajo juramento ante un tribunal, como un Google Maps de personas deportables. Básicamente muestra en un mapa la ubicación posible de cada objetivo, con una puntuación de probabilidad. Para calcularla, cruza, por ejemplo, la dirección registrada en Medicaid con el último registro de GPS y la última vez que su placa fue captada por una cámara. Además, construye un expediente automático con antecedentes penales y órdenes judiciales. El sistema tiene restricciones internas sobre qué puede hacer y a quién puede marcar como objetivo. Sin embargo, en ciertos operativos que la agencia denomina “especiales”, aplican filtros distintos para identificar personas que en condiciones normales no calificarían como objetivo. Hasta ahora, el ICE no ha explicado públicamente cuándo ocurre esto ni quién lo autoriza.

En 2025, el organismo migratorio pagó USD 30 millones adicionales para expandir ese sistema y construir ImmigrationOS, una plataforma diseñada para rastrear a una persona desde que entra al país hasta que es deportada, con seguimiento en tiempo real. Una persona que entró al sistema como un dato termina aquí reducida a un caso con estado y fecha estimada de salida del país, sin haber sido escuchada ni haber podido refutar lo que el algoritmo decidió sobre ella.

Etapa 3: cualquier calle puede ser una zona de vigilancia

Con un objetivo identificado, el sistema pasa de los algoritmos a la calle. El agente llega con una aplicación llamada Mobile Fortify en su teléfono del gobierno, apunta a la cara de cualquier persona (no necesariamente la que buscaba), y en segundos coteja esa imagen con millones de fotografías recolectadas previamente en la Etapa 1. Vale aclarar que esas fotografías recolectadas fueron tomadas sin el aviso correspondiente: las personas no saben que algún día esos registros formarán parte de un sistema de identificación masiva. Si hay coincidencia, el sistema devuelve nombre, fecha de nacimiento, nacionalidad y si existe una orden de deportación. Si la imagen facial no es suficiente, otra herramienta de BI2 Technologies repite el proceso con el iris del ojo. Todo esto ocurre en la calle, sin que la persona haya hecho nada, sin que lo sepa, y sin que ningún juez lo haya autorizado.

Lo más preocupante de Mobile Fortify es que fue desplegada mientras aún estaba en fase de prueba, sin evaluación de impacto sobre privacidad. Aún más, no cuenta con precisión. En un caso documentado ante un tribunal en Oregon, el sistema escaneó a la misma mujer dos veces y devolvió dos nombres diferentes. Aun así, el ICE trata sus resultados como prueba definitiva, por encima incluso de un acta de nacimiento.

Incluso hay herramientas que operan de forma aún más encubierta. Los simuladores celulares, conocidos también como IMSI Catchers, se disfrazan de torres de telefonía para forzar a los teléfonos cercanos a conectarse e identificar qué dispositivos están en un área. La agencia migratoria compró vehículos equipados con estos artefactos para desplegarlos de forma encubierta en vecindarios específicos. Para quienes están en proceso migratorio existe SmartLINK, una aplicación que el ICE obliga a instalar en el teléfono personal, que rastrea la ubicación y exige verificaciones periódicas mediante reconocimiento facial. Una migrante colombiana en California lo descubrió cuando la app le bloqueó un viaje a otro estado. Cuando preguntó, un oficial le dijo que ella no había hecho nada malo, era una decisión discrecional del organismo.

Cuando las personas migrantes están detenidas, sufren una mayor pérdida de privacidad. Dispositivos de las empresas Cellebrite y Magnet Forensics desbloquean y copian el contenido completo de un teléfono en minutos, como mensajes, fotos, historial de ubicación y contactos. De hecho, aplicaciones con cifrado, como WhatsApp, no pueden proteger la información en este orden. El cifrado impide que los mensajes sean interceptados mientras viajan por internet, pero una vez que el teléfono está desbloqueado en manos de un agente, ese cifrado es irrelevante. Las conversaciones de una persona detenida pueden convertirse en el punto de partida para rastrear a otras que nunca tuvieron contacto con el ICE.

Protegerse también es una forma de resistir

Entender cómo funciona este sistema ya es una forma de resistencia. Para quienes están migrando o piensan hacerlo, ese conocimiento puede marcar la diferencia desde el primer día. El celular es la fuente de datos más vulnerable. Utilizar Signal, en vez de WhatsApp, reduce significativamente el rastro: Signal no almacena metadatos ni comparte información con terceros. Revisar qué aplicaciones tienen acceso a la ubicación y revocar los permisos innecesarios limita lo que empresas pueden capturar y vender. En zonas con alta presencia del ICE, una bolsa Faraday bloquea todas las señales del teléfono móvil, impidiendo que los simuladores celulares lo detecten. Y en redes sociales, publicar ubicaciones o etiquetar lugares es entregar voluntariamente la información que el sistema pagaría por obtener.

Sin embargo, las medidas individuales tienen un límite, el sistema descrito no se puede desmontar con una app. La Electronic Frontier Foundation publica guías gratuitas y actualizadas sobre cómo proteger la privacidad digital en situaciones de riesgo, su sección Surveillance Self-Defense es un punto de partida concreto. Organizaciones como ACLU, National Immigration Law Center y Just Futures Law están litigando activamente en esa dirección. Difundir su trabajo y exigir a los representantes que tomen posición es también una forma de actuar.

¿La libertad de las personas depende de un algoritmo?

Lo que Edward Snowden reveló en 2013 sobre la vigilancia masiva de la NSA pareció, en su momento, el límite de lo imaginable. Hoy, el accionar del ICE lo supera ampliamente. A diferencia de los programas de Snowden, este sistema no opera en las sombras, tiene contratos públicos, nombres de empresas y cifras de inversión.

Este sistema perverso no termina en el momento de la detención. Las fotografías tomadas por Mobile Fortify se almacenan por 15 años; los contactos extraídos del teléfono de una persona detenida se convierten en nuevos sujetos de interés. Y detrás de cada etapa hay una empresa que factura. El Brennan Center lo llama un “complejo industrial de deportación”, empresas cuyos ingresos dependen directamente del desarrollo y crecimiento del sistema automatizado.

La IA comete errores, como cualquier sistema automatizado. Hay una diferencia fundamental entre una IA entrenada para recomendar películas y una entrenada con décadas de datos de agencias de seguridad estadounidenses para localizar personas y deportarlas. Cuando la primera se equivoca, ves una película que no te gusta. Cuando la segunda se equivoca, una persona inocente termina detenida semanas, como aquel migrante mexicano que trabajaba vendiendo flores. El problema no es solo el error, es que incluso cuando el sistema funciona como fue diseñado, una persona pierde su libertad por decisión de un algoritmo, sin que nadie la haya visto ni escuchado y sin que haya podido defenderse. La pregunta que ninguna agencia ha respondido es quién asume la responsabilidad por eso, y la respuesta, hasta ahora, brilla por su ausencia.

Palantir, Clearview, Thomson Reuters, LexisNexis, GEO Group: estas son solo algunas de las empresas que forman este ecosistema (hay decenas más que no se mencionaron). Lo que se describió en esta columna es sólo una fracción de esta arquitectura de vigilancia que sigue creciendo, contrato por contrato, dato por dato. En el aire queda una pregunta que, no debe abordarse desde un aspecto tecnológico, sino más bien desde la dimensión ético-política: ¿qué clase de sociedades se moldean cuando se construyen sistemas capaces de privar de la libertad a las personas en base a una puntuación y una fecha de deportación? ¿Quiénes son las primeras y principales víctimas de este sistema de expulsión automatizado?

La guerra por otros medios: control de software e infraestructura estratégica

La guerra que comenzaron Israel y EE. UU. contra Irán acapara la agenda mediática. Las pantallas se inundan constantemente de bombardeos mutuos e imágenes impactantes que parecen tomadas de un filme o de un videojuego. Sin embargo, hay elementos de este conflicto que no se llegan a ver tan fácilmente: existe otra arista de la guerra que tiene a la tecnología como protagonista.

La batalla también se libra a través de los medios de comunicación en las narrativas contradictorias entre un bando y otro. Ello complejiza la posibilidad de encontrar certezas en medio de un contexto bélico de estas características. Sin embargo, hay elementos que son plausibles de ser analizados como ciertos.

En varios medios circula la noticia sobre el trabajo de inteligencia que realizaron Israel y EE. UU. para lograr ejecutar al ayatolá Ali Khamenei. Entre las tareas de inteligencia, se dice que habrían intervenido cámaras de tráfico y de circuitos cerrados en algunas oficinas donde se desempeñaban los altos mandos militares de Irán. Con toda esa información les fue posible determinar la ubicación del ayatolá, e incluso conocer cuáles podían ser sus vías de evacuación.

Ante esta situación, y más allá de las particularidades del propio conflicto en Oriente Próximo, cabe preguntarse: ¿qué tan seguros son los sistemas tecnológicos de nuestros países? ¿La dependencia tecnológica es una brecha de seguridad para los Estados? ¿Existe alguna forma de minimizar este riesgo? Para reflexionar sobre estas preguntas iremos por partes.

Dependencia tecnológica

Es de público conocimiento que un gran porcentaje de Estados dependen tecnológicamente de un puñado de países que tienen la capacidad productiva para fabricar dispositivos electrónicos. Como venimos señalado en Derechos Digitales, América Latina no escapa a ese contexto. Es así como cada dispositivo tecnológico -en nuestras casas, lugares de trabajo y espacios públicos- fue diseñado y construido por empresas radicadas en el Norte Global y en algunas regiones de Asia.

Ahora bien, ¿son confiables en términos de seguridad los dispositivos que utilizamos? Y más aún: ¿hay posibilidades de que las instituciones de seguridad de los Estados donde están localizadas estas empresas hayan generado acuerdos con ellas para tener acceso a los dispositivos en caso de “ser necesario”?

En la historia reciente, existe suficiente evidencia y ejemplos como para suponer que los dispositivos electrónicos pueden ser intervenidos, tanto en situaciones de conflictos como también con el fin de desplegar vigilancia masiva. Conocido es el caso en que el ex analista de inteligencia de la CIA y la NSA, Edward Snowden, denunció en 2013 públicamente con documentos el funcionamiento de una vasta red de vigilancia global por parte de EE. UU. y países aliados, facilitada a partir de la colaboración con distintas empresas de tecnología.

Más recientemente, Israel se atribuyó en 2024 ataques simultáneos en Siria y el Líbano a través de equipos electrónicos que contaban con carga explosiva. Situación que originó gran preocupación en organizaciones internacionales de Derechos Humanos debido a lo indiscriminado de los ataques. También cabe recordar que, días atrás, se generó una polémica entre el Pentágono y Anthropic, la empresa detrás del motor de inteligencia artificial Claude. La discusión se centra en que el Pentágono solicita a la empresa quitar los límites éticos del motor para poder utilizarlo en vigilancia masiva y manejo autónomo de armas. La compañía se negó, e incluso demandó al Pentágono por exceder su autoridad y sus salvaguardas éticas, violando derechos básicos.

A primera vista, la guerra parece un tema lejano para la historia de los últimos años en América Latina. Sin embargo, las recientes operaciones militares estadounidenses en las inmediaciones de Cuba, o en Venezuela, por ejemplo, encienden las alarmas. En este convulsionado contexto, ¿es razonable pensar que en el corto o mediano plazo nuestra región se pueda ver involucrada en algún conflicto de mayor escala? Si ese fuera el escenario, ¿la dependencia tecnológica representaría una brecha de seguridad y soberanía para los países latinoamericanos? Si analizamos los antecedentes antes mencionados, la respuesta es que muy probablemente sí.

Minimización de la brecha

En la actual división global del trabajo, solo algunos países poseen la capacidad para diseñar y construir dispositivos electrónicos. Esta situación deja en desventaja al resto de los países del mundo que, en un futuro inmediato pero también en un período prolongado de tiempo, precisan invertir en tecnologías y capacidades humanas que no están dispuestos a pagar, o ni siquiera pueden afrontarlo.

Ahora bien, los equipos electrónicos se componen esencialmente de dos capas: la física y la lógica (hardware y software, respectivamente). Esta distinción cobra gran relevancia en el análisis que proponemos. Si bien no todos los Estados tienen la capacidad de construir la capa física, ¿qué sucede con la capa lógica?

La capa lógica, o software, es un programa computacional. Dentro de la gama de programas computacionales, nos referiremos a los que pertenecen a las categorías de “sistema operativo” o “firmware”. En ambos casos, se trata de programas de bajo nivel que interactúan directamente con el hardware (capa física). Para nombrar algunos ejemplos, podemos mencionar los sistemas operativos Windows, OSx y GNU/Linux, como así también aquellos que permiten el funcionamiento de teléfonos como iOS y Android.

De la misma forma ocurre con los sistemas de videovigilancia. Se componen de cámaras y de un sistema central que procesa y gestiona las grabaciones, llamado DVR (Digital Video Recorder) o NVR (Network Video Recorder) en función de la forma en que las cámaras se comunican: analógica o digital respectivamente. Dicho centro de procesamiento actúa como un ordenador especializado para esa tarea y, por tanto, posee un firmware o sistema operativo para su funcionamiento. Dentro de sus funciones están: configurar las cámaras, gestionar grabaciones y administrar el control de acceso.

Los sistemas de videovigilancia desactualizados pueden poseer vulnerabilidades, que ya son conocidas. A la vez, existe una gran cantidad de documentación pública sobre cómo explotar esas vulnerabilidades para acceder a los sistemas de videovigilancia, como por ejemplo el proyecto Shodan. Por lo tanto, si ya son conocidas las debilidades en sistemas desactualizados, es muy probable que empresas de seguridad ofensiva tengan herramientas para vulnerar la seguridad de estos dispositivos, tal como se afirma en el portal especializado Wired. De forma alternativa, existen una serie de proyectos de código abierto para administrar cámaras que cuentan con las ventajas ya mencionadas.

Por otra parte, otra característica de la capa lógica es que puede estar construida de forma cerrada o abierta. La forma cerrada (o software privativo) refiere a programas que desarrollan empresas para el manejo de equipos en el que la persona usuaria final no puede analizar, modificar o mejorar el código fuente. Generalmente, viene precargado en el dispositivo en forma de archivo ejecutable, el cual es ilegible. En la otra vereda, está la forma abierta (o software libre) vinculada a programas que, en muchos casos, son construidos de forma comunitaria, e incluso pueden contar con colaboración de empresas. Su característica es que es totalmente abierto, disponible para analizar, modificar y mejorar.

Ahora bien, volvamos al cuestionamiento de la dependencia tecnológica sobre qué hacer si un dispositivo viene diseñado, por ejemplo, con una puerta trasera. En el caso de que la capa lógica esté desarrollada sobre la concepción de software privativo, es muy difícil poder identificarla y actuar para modificar su comportamiento con el fin de suprimir dicha vulnerabilidad, pues no hay acceso al código. Por el contrario, en el caso del software libre sí tenemos la posibilidad de hacer auditorias independientes, así como suprimir funciones o alterar su comportamiento, lo que a simple vista otorga una gran ventaja.

Otra desventaja del software privativo es que necesita de pagos periódicos para su actualización. Por distintos motivos, las instituciones no mantienen las versiones más actualizadas lo que las deja con mayor propensión a ataques de vulnerabilidades conocidas, como es el caso de Guacamaya Leaks. En aquel episodio, un grupo de hackers intervino sistemas de varias instituciones militares en América Latina, aprovechando, principalmente, estas debilidades de sus desactualizados sistemas de software pago.

Software libre y seguridad nacional

Con la proliferación de los sistemas digitales de comunicación y, más aún, con el Internet de las cosas (IoT), donde muchos dispositivos cotidianos están conectados entre sí, es sumamente importante analizar qué rol puede jugar la dependencia tecnológica en escenarios de conflicto, ya sea armados o no.

La discusión no puede quedarse en si el software privativo es mejor o peor que el software libre: en ambos casos se encontrarán vulnerabilidades. El análisis debe centrarse en el control que se puede tener de los dispositivos y sistemas. En ese sentido, el software libre corre con ventaja al permitir el control de las funciones y, al mismo tiempo, el acceso libre a las actualizaciones. Además, al tratarse de código abierto, el software libre habilita una permanente auditoría, por lo que es menos probable que contenga funciones maliciosas por diseño.

En un mundo donde las potencias se disputan recursos estratégicos en otros territorios, es indispensable que los Estados latinoamericanos reconfiguren, a mediano y largo plazo, su seguridad digital y las medidas necesarias para enfrentar una amenaza externa.

Elecciones en un terreno sin reglas claras

Cuando hablamos de desinformación electoral no nos referimos únicamente a “noticias falsas”. Se trata de un conjunto de prácticas que buscan influir en la percepción del electorado, instalar dudas sobre los procesos democráticos o desacreditar candidaturas e instituciones. Incluye desde encuestas falsas y declaraciones inventadas hasta campañas coordinadas de hostigamiento, manipulación de contenido y uso estratégico de tecnologías emergentes como la IA o los deepfakes. Como ha advertido Derechos Digitales en distintos trabajos, el problema no es solo la existencia de contenidos engañosos, sino el ecosistema que permite su circulación y amplificación.

Las elecciones presidenciales recientes en la región, como las de Chile, Bolivia o Costa Rica, muestran que estas dinámicas no son marginales, sino estructurales. Y todo indica que serán centrales en los procesos electorales que se avecinan en 2026 en países como Brasil, Colombia y Perú.

De fenómeno marginal a herramienta política

En los últimos años, la desinformación dejó de ser un fenómeno esporádico para convertirse en parte integrada de las estrategias de campaña. Una investigación reciente de Bolivia Verifica y ProBox sobre las elecciones bolivianas de 2025 lo resume de forma clara: la desinformación digital ya no es algo marginal, sino una práctica que se despliega sistemáticamente en momentos críticos del proceso electoral. Durante esos comicios, se identificaron alrededor de 250 contenidos falsos o engañosos, marcando un precedente en el volumen de desinformación en Bolivia, incluyendo un uso inédito de herramientas de inteligencia artificial.

El estudio también identificó patrones que se repiten en distintos países de la región. El más frecuente fue la circulación de declaraciones falsas atribuidas a candidaturas u otros actores públicos, utilizadas estratégicamente para influir en la intención de voto. En segundo lugar, destacaron las encuestas falsas, utilizadas para instalar percepciones sobre quién va ganando o perdiendo en la contienda.

Este tipo de contenidos no circula de forma aislada. Las campañas desinformativas operan de manera coordinada y multiplataforma. Según la investigación de Derechos Digitales sobre elecciones y desinformación en Brasil, una narrativa puede surgir en espacios abiertos como TikTok o X, escalar rápidamente y luego trasladarse a aplicaciones de mensajería como WhatsApp o Telegram, donde su circulación se vuelve más difícil de rastrear o contrarrestar.

Narrativas de fraude y erosión de la confianza democrática

Entre las distintas formas que adopta la desinformación electoral, una de las más persistentes es la instalación de narrativas de fraude. Estas narrativas no necesariamente buscan demostrar irregularidades reales, sino instalar una sospecha permanente sobre la legitimidad del proceso electoral.

En el caso boliviano, este tipo de contenido ocupó un lugar central en la conversación digital durante las elecciones de 2025. Tal como documentaron Bolivia Verifica y ProBox, circularon de forma masiva declaraciones falsas atribuidas a candidaturas, encuestas manipuladas y contenidos diseñados para desacreditar a actores políticos, medios de comunicación y al propio Tribunal Supremo Electoral, con el objetivo de erosionar la confianza en el proceso.

Un fenómeno distinto, pero relacionado, se observó en Costa Rica. Allí, más que instalar una narrativa técnica de fraude, se han visto intentos sostenidos de deslegitimar al Tribunal Supremo de Elecciones a través de contenidos engañosos y campañas de desprestigio, incluyendo la difusión de información falsa desde cuentas institucionales que luego debió ser eliminada. Estos episodios muestran cómo la desinformación puede apuntar directamente a debilitar la credibilidad de las autoridades electorales, incluso en contextos donde estas aún mantienen altos niveles de confianza pública.

Al final, estas supuestas evidencias o ataques directos a las instituciones, terminan funcionando como estrategias para erosionar la confianza en las reglas del juego democrático, desplazando el debate desde las propuestas hacia la legitimidad misma de la elección. En ese terreno, la narrativa anti-sistema no es inocua, ya que abre espacio y favorece a candidaturas que construyen su estrategia precisamente en tensionar las instituciones democráticas.

Violencia política digital y sus efectos en la participación

Otro de los aspectos más críticos de la desinformación electoral en la región es su vínculo con la violencia política de género. Las campañas digitales no afectan a todas las personas por igual, dado que las candidatas mujeres y las personas LGBTIQA+ son, de manera sistemática, objeto de ataques que combinan desinformación, hostigamiento y discursos estigmatizantes.

En Chile, durante la última campaña presidencial, se evidenció cómo redes de cuentas, muchas de ellas automatizadas, amplificaban ataques contra candidatas mujeres, mezclando contenido falso con insultos y discursos de odio. Este tipo de violencia no solo afecta a las personas directamente atacadas, sino que también tiene un efecto más amplio: desincentiva la participación política y restringe quiénes pueden ocupar el espacio público. A su vez, genera un efecto circular: a menor diversidad entre quienes participan y acceden a espacios de poder, menor es también la capacidad de impulsar políticas que aborden estas violencias y sus impactos.

La expansión de herramientas de inteligencia artificial añade una nueva capa a este fenómeno. Como ha documentado la organización Situada sobre deepfakes, estas tecnologías facilitan la creación de contenido manipulado, muchas veces de carácter sexual, que afecta de manera desproporcionada a mujeres. En contextos electorales, esto se traduce en una herramienta particularmente efectiva para desacreditar o intimidar candidatas, reforzando desigualdades estructurales.

En la región, esta dinámica no es aislada. Como advierte IDEA Internacional, la violencia política digital contra mujeres se ha consolidado como una forma sistemática de limitar su participación en la vida pública, combinando acoso, amenazas y desinformación con sesgo de género. Estos ataques no solo buscan desacreditar, sino también reducir su visibilidad y capacidad de incidencia en espacios de decisión.

Inteligencia artificial, regulación y nuevas asimetrías

El uso de inteligencia artificial en campañas políticas es una realidad en América Latina, pero su impacto no es homogéneo. Si bien estas tecnologías permiten producir contenido falso de manera más rápida y a menor costo, su circulación sigue dependiendo de las mismas plataformas digitales que estructuran el ecosistema informativo.

Al mismo tiempo, empiezan a aparecer diferencias relevantes entre países. Mientras en algunos contextos el uso de estas tecnologías ocurre en marcos regulatorios difusos o inexistentes, otros han comenzado a establecer ciertos límites. Como advierte un informe conjunto de Derechos Digitales y otras organizaciones presentado ante Naciones Unidas sobre elecciones e integridad de la información, la falta de regulación clara puede facilitar la amplificación de desinformación y violencia digital en procesos electorales.

El caso brasileño permite observar algunos avances en esta materia. La autoridad electoral ha establecido límites específicos al uso de inteligencia artificial en campañas, incluyendo restricciones a sistemas automatizados para evitar que recomienden opciones de voto. Esto contrasta con otros contextos de la región. En Colombia, por ejemplo, se han documentado casos en que sistemas de inteligencia artificial como Grok han emitido respuestas con sesgo político en el contexto electoral, incluyendo recomendaciones o posicionamientos frente a candidaturas, evidenciando vacíos regulatorios y la falta de estándares claros para este tipo de herramientas.

Brasil, por su parte, muestra las tensiones propias de intentar regular un fenómeno que evoluciona rápidamente, donde las medidas institucionales conviven con limitaciones importantes en la circulación de contenidos en plataformas y aplicaciones de mensajería. La coordinación entre autoridades, empresas tecnológicas y sociedad civil ha sido relevante para responder a episodios de desinformación, pero no ha sido suficiente para contenerlos de manera estructural.

En muchos países de la región, estas condiciones ni siquiera están presentes. La cooperación con plataformas es limitada y los mecanismos de coordinación entre actores públicos y privados son débiles o inexistentes, lo que deja un terreno mucho más abierto para la circulación de desinformación en contextos electorales.

A esto se suma un problema más estructural: las plataformas no solo fallan en colaborar, sino que también han ido cerrando espacios de diálogo en otras esferas del debate público. Como se ha advertido en análisis previos de Derechos Digitales, sus decisiones de moderación, el funcionamiento opaco de sus algoritmos y modelos de negocio que priorizan contenidos polarizantes terminan moldeando el ecosistema informativo, amplificando ciertas narrativas y debilitando otras. En contextos electorales, estas dinámicas no desaparecen, sino que se intensifican.

Reglas que no alcanzan a la política digital

Uno de los principales problemas es que las reglas electorales siguen respondiendo a una realidad que ya cambió. Las normas fueron diseñadas para campañas en televisión, radio o espacios públicos, pero hoy la política se juega en plataformas digitales, con influencers, microsegmentación de mensajes y circulación en aplicaciones de mensajería.

Esta brecha se hace evidente en casos concretos de la región. En Colombia, por ejemplo, las campañas digitales operan en gran medida fuera de los marcos regulatorios existentes, donde contenidos difundidos desde cuentas personales o redes de apoyo no siempre son considerados propaganda electoral, dejando amplios espacios sin regulación.

Este cambio no es solo tecnológico, sino también político. Las campañas digitales permiten adaptar mensajes a audiencias específicas, operar con distintos niveles de visibilidad y, en muchos casos, evadir los marcos tradicionales de regulación electoral. Lo que antes era una franja televisiva, hoy puede tomar la forma de un video viral, una cadena de WhatsApp o una publicación aparentemente espontánea, cuya autoría y financiamiento resultan difíciles de rastrear.

En este escenario, gran parte de la actividad política digital, incluyendo la desinformación, ocurre en zonas grises regulatorias. A esto se suma la falta de colaboración de las plataformas digitales, que no han desarrollado herramientas adecuadas para enfrentar la circulación de contenidos engañosos en contextos electorales en la región, se rehúsan a transparentar cómo funcionan sus algoritmos y no hacen una rendición de cuentas adecuada a sus usuarios y a la ciudadanía en general.

La disputa por el ecosistema informativo

Las elecciones de 2026 no solo van a poner a prueba a las candidaturas, sino también a las condiciones en que se construye el debate público. En un escenario donde la desinformación forma parte de las campañas, la discusión ya no se trata  sobre programas o propuestas, ahora pasa a jugarse en cómo circula la información y quién logra instalar ciertas versiones de la realidad.

Ese terreno no es neutral. Está marcado por plataformas que toman decisiones sin demasiada transparencia, por Estados que llegan tarde -o definitivamente no llegan- a regular estos procesos, y por desigualdades en la forma en que las personas acceden y procesan la información. Estas desigualdades no son solo de acceso, sino también de condiciones: desde modelos como el zero rating que limitan la diversidad de contenidos disponibles, hasta las brechas en alfabetización digital inciden en cómo circula la información. A esto se suma el uso indebido de datos personales para segmentar y dirigir mensajes políticos, muchas veces sin supervisión efectiva, lo que profundiza aún más estas asimetrías.

En la práctica, esto termina definiendo quién puede participar en la conversación pública y en qué condiciones. No todos los actores compiten en igualdad de condiciones, y eso tiene efectos concretos en cómo se construyen las percepciones, las dudas y las decisiones electorales.

La pregunta, entonces, se centra en qué tipo de espacio público estamos construyendo. Y, en última instancia, qué tan capaces somos de sostener procesos democráticos en un entorno cada vez más mediado por plataformas, opaco y difícil de gobernar.

La militarización de la inteligencia artificial: violencia de género en contextos de guerra y conflicto armado

Esta columna fue publicada originalmente en Volcánicas

En un contexto marcado por una acelerada escalada de tensiones geopolíticas, el debilitamiento del sistema multilateral y un creciente desprecio por las normas internacionales, el mundo presencia la expansión de guerras, conflictos armados e intervenciones militares ilegales de enorme impacto para las poblaciones civiles. Al mismo tiempo, la IA se ha convertido en uno de los ejes centrales del discurso político y corporativo global.

La competencia por su desarrollo y control no solo enfrenta a gobiernos y grandes empresas tecnológicas, sino que también revela tensiones más profundas vinculadas al poder global, la seguridad y el futuro del ejercicio de los derechos humanos.

Entre las consecuencias más urgentes -y menos reguladas- del despliegue acelerado de estos sistemas se encuentra el aumento de formas de violencia de género facilitadas por tecnologías (VG FT). Observamos la aparición y expansión de prácticas como el acoso automatizado, la creación de imágenes íntimas falsas mediante modelos generativos, campañas de desinformación con sesgo de género, y formas cada vez más invasivas de vigilancia digital. A la vez, la gobernanza de estas tecnologías sigue estando profundamente fragmentada: mientras los marcos regulatorios sobre IA rara vez incorporan los riesgos específicos asociados a la violencia de género, las políticas dirigidas a abordar la VG FT todavía no integran plenamente los impactos de estos sistemas.

En este escenario, el desarrollo y despliegue de IA se entrelaza cada vez más con dinámicas de militarización y guerra. Este 8 de marzo nos obliga, por tanto, a mirar de frente una dimensión todavía insuficientemente abordada: la VG FT en contextos de guerra y conflictos armados.

Una aplicación incompatible con los derechos humanos

El despliegue de tecnologías basadas en IA en contextos de guerra y de conflicto armado no solo ya es un hecho, sino que continúa expandiéndose. Se utilizan, por ejemplo, para vigilancia masiva, análisis predictivo de amenazas, sistemas de armas autónomos y localización de “objetivos”.

Como han advertido numerosas expertas y organizaciones, los sistemas de IA no pueden evaluar adecuadamente principios fundamentales del derecho internacional humanitario, como la distinción entre combatientes y civiles o la proporcionalidad de un ataque. A esto se suman las implicancias para los mecanismos de responsabilidad y rendición de cuentas, ya de por sí difíciles de ejercer en estos contextos.

Como ocurre con muchas aplicaciones de IA, su incorporación suele justificarse en términos de eficacia. Pero: ¿qué significa “eficacia” en este contexto? ¿Puede hablarse de eficacia cuando se trata de sistemas utilizados para identificar, vigilar y atacar a personas? ¿Qué tipo de acción se considera eficaz en un escenario donde el resultado final es la expansión de la violencia? Si se parte de la premisa de que la eficacia depende del objetivo que se busca alcanzar, estudios señalan que estos sistemas están muy lejos de ser eficaces respecto a los objetivos que se les asignan.

Cuando sesgos y errores incorporados en el diseño de la IA se traducen en fallas al identificar objetivos, el costo recae literalmente sobre vidas humanas. La preocupación no se limita a fallos técnicos. En completa ausencia de reglas y límites, esos sistemas a veces son diseñados para identificar y atacar a personas que presenten determinados “marcadores”.

En cualquiera de estos escenarios, la noción misma de eficacia queda profundamente cuestionada. Si los sistemas fallan, el resultado es la muerte de personas que nunca debieron ser consideradas objetivos. Si funcionan como fueron diseñados, identifican y atacan a personas en función de su identidad. En ambos casos, lo que está en juego es la legitimidad misma de estos sistemas y su compatibilidad con el derecho internacional.

También se suele afirmar que estas tecnologías permitirían reducir las bajas civiles gracias a ataques supuestamente más “precisos”. El genocidio en Gaza ofrece un contraste brutal con ese argumento. A pocos meses del inicio del ataque militar por parte de Israel, expertas y expertos de Naciones Unidas advertían que se había destruido “un porcentaje mayor de viviendas e infraestructura civil que en cualquier otro conflicto que se recuerde”. En ese mismo contexto, señalaron el presunto uso de sistemas de IA para identificar objetivos y atacar viviendas familiares, con escasa consideración por la presencia de civiles en su interior o en sus alrededores.

Investigaciones periodísticas posteriores confirmaron el uso de IA por parte del ejército israelí en Gaza. Entre ellos destacan, por su carácter particularmente perverso, los sistemas conocidos como Lavender, Gospel y Where’s Daddy? (¿Dónde está papi?). Según reportes del Instituto de Estudios Palestinos, estos sistemas procesan enormes volúmenes de datos obtenidos a partir de años de vigilancia masiva sobre la población palestina que es utilizada para generar listas de personas y estructuras consideradas objetivos.

Mientras el sistema conocido como Gospel “recomienda” edificios e infraestructuras para ser bombardeadas, Lavender identifica personas como objetivos potenciales. Un sistema adicional, Where’s Daddy?, se utiliza específicamente para rastrear a las personas señaladas y ejecutar bombardeos cuando estas ingresan a su destino, el cual muchas veces es su vivienda familiar.

Según testimonios de agentes de inteligencia israelíes, la validación previa a autorizar un ataque podía durar alrededor de veinte segundos. Ese breve intervalo se utilizaba principalmente para comprobar si la persona señalada por el sistema era un hombre, usando al género como indicador de posible “combatiente”. No está claro si se trata de un procedimiento formalizado o de una práctica extendida dentro de las unidades involucradas.

Las consecuencias de este tipo de prácticas han sido devastadoras, siendo la mayoría de las personas asesinadas mujeres y niños. Lejos de proteger a la población civil, estos sistemas amplían la capacidad de identificar y atacar personas y aceleran el uso de la fuerza.

El uso de IA con fines militares se extiende a otros contextos y regiones del mundo. Según reportes periodísticos, Claude habría sido utilizado como apoyo en la invasión militar ilegal liderada por Estados Unidos en Venezuela en enero de este año, poniendo en evidencia que las implicaciones de estas tecnologías también alcanzan a América Latina.

La combinación de IA, vigilancia persistente y procesamiento masivo de datos en tiempo real configura nuevas formas de intervención basadas en la asimetría tecnológica y la superioridad informacional. Comprender esta lógica resulta crucial para América Latina y el Caribe, donde en los últimos años se han intensificado acuerdos militares, despliegues “temporarios” de tropas y sistemas de monitoreo vinculados a Estados Unidos en distintos países de la región.

La geopolítica detrás de la inteligencia artificial

El desarrollo y uso militar de la IA tiene como trasfondo una carrera tecnológica que asocia su desarrollo con la “dominación global” en una versión de la carrera armamentista en la Guerra Fría. Central a tal proceso es el desmantelamiento de legislaciones orientadas a generar protecciones. En el caso estadounidense, los documentos oficiales son explícitos al afirmar que quien controle el ecosistema de IA podrá fijar las reglas globales y obtener ventajas económicas y militares.

Los procesos multilaterales capaces de poner límites a tal lógica han fallado, como fue el caso del Pacto para el Futuro, adoptado en 2024 y presentado como una iniciativa para fortalecer el sistema internacional frente a los desafíos del siglo XXI. A pesar de que las bases normativas ya existen dentro del propio sistema internacional de derechos humanos, incluyendo la Resolución 48/4 del Consejo de Derechos Humanos y el informe del Alto Comisionado de las Naciones Unidas para los Derechos Humanos, que recomiendan establecer moratorias o incluso prohibiciones para sistemas de IA que no puedan utilizarse en conformidad con el derecho internacional.

No resulta sorprendente -aunque no por ello deja de ser indignante- que las iniciativas derivadas de este proceso se inscriban en esa misma falta de voluntad política para establecer límites efectivos. El Panel Científico Internacional Independiente sobre Inteligencia Artificial, creado a partir del Pacto para el Futuro para evaluar los impactos y riesgos de estas tecnologías, establece explícitamente que su mandato se limitará al ámbito no militar, asegurando así que una de las discusiones más urgentes sobre estas tecnologías quede deliberadamente fuera del análisis.

Las grandes empresas tecnológicas desempeñan un papel central en esta estructura. A través de crecientes alianzas público-privadas, contribuyen a consolidar dinámicas de poder cada vez más autoritarias y asociadas a prácticas abusivas de derechos humanos. Este poder se sustenta no solo en la enorme concentración económica e informacional que acumulan -facilitada en gran medida por la desregulación del sector-, sino también en la creciente convergencia entre intereses corporativos y estatales, que se proyecta de forma cada vez más evidente en la arena militar.

En un reciente informe, la Relatora Especial de Naciones Unidas sobre la situación de los derechos humanos en los territorios palestinos ocupados identificó 48 compañías globales que apoyarían directa o indirectamente el genocidio en Gaza. Según Albanese, la continuidad de esta violencia no puede comprenderse sin considerar también los incentivos económicos que la sostienen: el genocidio, advierte, también es rentable.

Perspectivas feministas frente a la militarización de la IA

La incorporación de IA en actividades militares está transformando las formas en que se produce y se ejerce la violencia de género en contextos de conflicto armado y crisis humanitarias. Sin embargo, el análisis de los conflictos y de los procesos de paz continúa estando dominado por perspectivas patriarcales que invisibilizan las afectaciones diferenciadas que enfrentan las mujeres, así como las contribuciones que los movimientos de mujeres han realizado en la construcción de la paz.

Abordar estas dinámicas desde una perspectiva de género implica reconocer dos dimensiones interrelacionadas. Por un lado, la militarización tecnológica profundiza violencias ya presentes en contextos de guerra, donde las desigualdades estructurales se intensifican y las violaciones de derechos humanos contra mujeres y niñas adquieren formas particularmente graves. Por otro, la incorporación de sistemas basados en IA está dando lugar a nuevas formas de violencia, lo que vuelve urgente ampliar los marcos desde los cuales se las analizan.

Para entender la violencia de género facilitada por tecnologías es recomendable incorporar factores contextuales desde una perspectiva interseccional que permita comprender estas violencias de manera situada. Las formas que adoptan tales violencias no son universales ni se experimentan de la misma manera en todos los territorios; están atravesadas por desigualdades sociales, culturales y políticas que configuran tanto las dinámicas de violencia como las posibilidades de respuesta.

Los ejemplos son múltiples. Entre ellos se encuentran campañas de desinformación generadas o amplificadas mediante IA, ataques dirigidos contra mujeres a través de contenidos como deepfakes -utilizados para desacreditar o silenciar a figuras públicas y activistas-, y el despliegue de tecnologías biométricas y de reconocimiento facial que permiten rastrear e identificar poblaciones enteras sin salvaguardias adecuadas. Estas herramientas, a menudo presentadas como neutrales o necesarias para la seguridad o la gestión humanitaria, pueden exponer especialmente a mujeres activistas y a otras comunidades en situación de vulnerabilidad.

Como evidencia el caso de Gaza, estos sistemas también interactúan con categorías simplificadas de género. Programas utilizados para identificar y rastrear objetivos han operado en gran medida a partir de marcadores binarios de género (hombre es igual a “combatiente”), aunque contribuyendo en la práctica a ataques que terminan afectando de manera desproporcionada a mujeres y niños. Este patrón se inserta, además, en un contexto más amplio de violencia basada en género documentado por organismos internacionales, incluyendo la destrucción de servicios de salud reproductiva y otras prácticas que diversas expertas han descrito como parte de un proceso de femigenocidio.

Organizaciones humanitarias han advertido que el uso de sistemas digitales en contextos militares puede acelerar el ritmo de la guerra, reduciendo los tiempos de deliberación y debilitando los mecanismos de control humano sobre el uso de la fuerza. En escenarios ya marcados por altos niveles de violencia y deshumanización, esta aceleración incrementa los daños para la población civil y amplifica patrones preexistentes de discriminación, exclusión y violencia de género.

Frente a este panorama, resulta urgente ampliar los marcos desde los cuales comprendemos la violencia de género facilitada por tecnologías, incorporando las dinámicas de militarización, colonialismo y desigualdad global que atraviesan el desarrollo y despliegue de estas tecnologías. Al mismo tiempo, la evidencia acumulada refuerza la necesidad de establecer límites claros al uso de IA con fines militares. Sistemas que no pueden operar en conformidad con el derecho internacional humanitario y el derecho internacional de los derechos humanos deberían ser prohibidos.

Este 8 de marzo nos recuerda que las luchas feministas han sido fundamentales para cuestionar las lógicas de violencia, militarización y dominación que atraviesan nuestras sociedades. Frente a la expansión de la militarización de la IA, incorporar perspectivas feministas no es opcional: es una condición fundamental para comprender sus impactos reales y para imaginar alternativas que pongan a la vida -y no a la violencia- en el centro.

Cumbre de Impacto de IA: ¿Nada nuevo a la vista?

La Cumbre de Impacto de la IA en India (India AI Impact Summit), realizada entre los días 16 y 20 de febrero, conllevaba la promesa de fortalecer una perspectiva del Sur Global a las discusiones sobre gobernanza de la inteligencia artificial (IA). El evento traía como principio la frase “bienestar para todas las personas, felicidad para todas las personas”, estampada en centenares de carteles de la Cumbre en Nueva Delhi, junto con la imagen del primer ministro Narendra Modi, quien evidentemente buscaba proyectar su propia figura con el encuentro.

Quienes pudimos acompañar las discusiones nos quedamos con la duda sobre qué se entiende por “bienestar” o “felicidad” y quiénes efectivamente se beneficiarán de ellas frente al avance de la IA. A pesar de la convocatoria alrededor de los principios (sutras) “personas”, “planeta” y “progreso”, el evento estuvo marcado por discursos tecnooptimistas y por la falta de diversidad –de género, sectores y perspectivas– en una agenda minuciosamente seleccionada por el gobierno local. Lo preocupante no es solamente el mantenimiento del tono, sino el tipo de resultado que lo acompaña: un modelo de cooperación internacional que promueve despliegue acelerado, pero que elude deliberadamente la pregunta por límites, responsabilidades y remedios.

Mientras se puso sobre la mesa un conjunto de principios para la cooperación internacional en materia de IA, la Cumbre habilitó a India inversiones de grandes empresas de tecnologías. Más importante, en un contexto geopolítico de securitización de la carrera tecnológica, abrió espacio para el establecimiento de acuerdos Sur-Sur en materia tecnológica, destacando la visita del presidente de Brasil y sus ministros al país.

A pesar de la importancia de tales movimientos en el actual escenario, los resultados se muestran limitados a compromisos voluntarios y declaraciones no vinculantes, siguiendo el modelo de cumbres anteriores. No hubo mención a los derechos humanos y se cerró cualquier espacio para discusiones regulatorias donde puedan tener mayor peso los movimientos de varios Estados que van en esta dirección. En su lugar, predominó un lenguaje de “innovación”, “confianza” y “capacidades”, que puede sonar neutral y positivo, pero que en la práctica invisibiliza el debate sobre obligaciones de transparencia, debida diligencia y reparación. Como de costumbre, la agenda de justicia y derechos quedó en manos de la sociedad civil, que tuvo poco espacio y escasa visibilidad en el evento oficial.

Una carrera sin frenos

La Cumbre fue la cuarta edición de una serie iniciada en Inglaterra en 2023, cuyo mandato se viene transformando a cada año. Pero, por si quedaban dudas, la Declaración Final del evento demuestra que, a pesar de las expectativas y la retórica nacionalista –que incluía referencias a elementos del hinduismo–, la primera Cumbre de IA realizada en el Sur Global no se diferenció en nada de sus antecesoras. Aunque cambió el lugar y la narrativa, se mantuvo la fórmula de un escenario de compromisos abstractos, en paralelo a un mercado de acuerdos e inversiones presentados como inevitables. Además de servir como palco para los empresarios de las grandes empresas de tecnología globales, que dominaron las noticias sobre el evento, su principal conclusión favorece a su agenda y negocios.

Según el texto, “las decisiones que tomemos ahora moldearán el futuro habilitado por la IA que heredarán las nuevas generaciones”. La afirmación deja poco espacio para la discusión sobre el rol que tanto las generaciones presentes como las futuras queremos que tenga la IA, pese a las crecientes evidencias de sus daños y los cuestionamientos a los efectos sociales a que ha estado sujeta.

No se trata aquí de ponernos en contra de la tecnología o de negar sus potenciales beneficios. Al contrario, fuimos desde América Latina hasta India con el propósito de fortalecer coaliciones y elaborar las bases para una IA justa, junto a docenas de organizaciones de todo el Sur Global. En distintos eventos paralelos, defendimos la importancia de los diálogos multilaterales sobre gobernanza de IA y planteamos la necesidad urgente de construir mecanismos globales que ayuden a garantizar que los sistemas de IA cumplan con estándares de derechos humanos. En otras palabras, que sirvan a las personas, al planeta y al progreso. Sin embargo, la distancia entre esos debates y la declaración final de la Cumbre, adoptada por 89 países, es patente y alarmante.

El texto, organizado según los grupos de trabajo temáticos que guiaron las discusiones, refuerza la noción de inevitabilidad de la IA y se dedica a promoverla tal cual es planteada por Silicon Valley, limitando con eso el espacio para cualquier discusión sobre los necesarios límites a su desarrollo y despliegue. Ejemplo de ello es la defensa de sistemas de IA eficientes a nivel energético, que borra completamente las preocupaciones por los impactos socioambientales de los centros de datos.

En lo que se refiere a la democratización de los recursos de IA, por su parte, se hace referencia a la Carta por la Difusión Democrática de la IA, también adoptada en la Cumbre, pero haciendo hincapié en su carácter no vinculante y voluntario. La Carta incluye guías importantes para la cooperación internacional en áreas como: la inclusión digital; la representatividad de idiomas y contextos subrepresentados en los modelos de IA; el estímulo a la apertura por medio de la adopción de estándares abiertos e interoperables; el desarrollo de habilidades en IA, entre otras. Sin embargo, refuerza como primer objetivo el aumento de las capacidades de IA sin ninguna consideración sobre sus impactos medioambientales, laborales y en derechos humanos.

El abordaje refleja contextos nacionales donde el discurso sobre soberanía tecnológica se presenta de manera contradictoria y ampliamente dependiente de desarrollos tecnológicos propietarios y extranjeros. Los anuncios de inversiones de las grandes empresas en India durante la Cumbre ilustran tal narrativa: alianzas con universidades para la oferta de modelos y asistentes de IA, y capacitación para el uso de herramientas comerciales e inversiones para la adopción de esta tecnología por los gobiernos son algunos ejemplos de alianzas establecidas en la ocasión. Paradójicamente, se invoca soberanía al mismo tiempo que se profundiza la adopción de modelos, asistentes y herramientas cuyo diseño, control y condiciones de uso permanecen fuera del alcance de los países que los incorporan.

La idea de soberanía tecnológica sin crítica al modelo establecido o perspectiva de derechos y sostenibilidad se reflejaba también en un espacio de exposiciones donde empresas locales se posicionaban junto a las Big Tech para promocionar sus negocios. Sistemas de IA para la vigilancia y uso militar se presentaban lado a lado de las versiones “educativas” de modelos comerciales de IA generativa. Afuera quedaron las voces que se oponen o defienden limitaciones al uso de este tipo de sistemas en tales entornos.

Hay camino por delante

A pesar de sus limitaciones, es necesario reconocer la importancia de la mención, en la Declaración Final, de los procesos multilaterales en curso y del respeto a la soberanía de los países. Ambos aspectos se muestran clave en un texto que logró unir a China y Estados Unidos como firmantes.

Por un lado, se valida un proceso en curso en el ámbito de Naciones Unidas que tiene como mandato dar un paso más en la definición de límites a usos de IA que no respetan derechos humanos. Cabe destacar que la agenda contó con distintos espacios de discusión con representantes del Panel Científico de IA y tuvo la presencia del Secretario General de Naciones Unidas y de su Oficina para las Tecnologías Digitales y Emergentes (ODED, por sus siglas en inglés). Por otro, se deja, correctamente, un margen para discusiones a nivel nacional que pueden reflejar mejor sus contextos y prioridades y donde otros sectores pueden actuar como contrapeso. Ese margen será decisivo allí donde existan instituciones capaces de resistir la presión combinada del discurso de securitización, de intereses nacionales de algunos países, y de los intereses comerciales que buscan presentar la adopción de IA como una obligación sin alternativas.

Hay que reconocer que tales conquistas se encuentran también limitadas por una arena internacional marcada por el ascenso del autoritarismo y el desmantelamiento de las instituciones multilaterales, en particular de derechos humanos. Sin embargo, representan una señal: el rol de la IA en el futuro de las nuevas generaciones sigue en disputa.

Igualmente relevante es el reconocimiento de la participación de múltiples partes interesadas en los debates sobre el tema. Es fundamental que eso no se traduzca en más espacio para mega empresarios de tecnología y se apunte a mecanismos de participación significativa de la sociedad civil, en línea con lo acordado en la Declaración de Sao Paulo.

La ocasión de la Cumbre, en ese sentido, habilitó la coordinación entre distintos actores académicos y de la sociedad civil del Sur Global con miras al debate que sigue. En un contexto en que las conversaciones siguen mayormente concentradas en pocos actores del Norte, tal coordinación es crítica para avanzar hacia estándares que permitan un futuro en que la IA efectivamente esté al servicio de la justicia, la equidad y el ejercicio de derechos.

Si la carrera de la IA sigue sin frenos, es urgente definir las reglas del tránsito antes de que el impacto sea contra una pared.

Chile y el complejo camino para regular las plataformas digitales

Los esfuerzos emprendidos por el Congreso chileno para la regulación de las plataformas no cesan. Desde 2020 hasta la fecha, se presentaron casi medio centenar de proyectos de ley que buscan, bien sea a través de la creación de una ley general o a través de la reforma de otros cuerpos normativos existentes, abordar un muy extenso conjunto de asuntos relacionados.

Entre los temas de interés de quienes regulan, se incluyeron proyectos de regulación de personas trabajadoras de plataformas, de aplicaciones de transporte ciudadano, también de plataformas de delivery de comidas y, por supuesto, iniciativas enfocadas en la regulación de fenómenos como la desinformación, el ejercicio de la libertad de expresión en internet, el uso de redes sociales y dispositivos digitales por niños, niñas y adolescentes, la difusión no consentida de imágenes con contenido sexual y el uso de deepfakes para dicho fin, entre otros.

Regular las plataformas digitales: una tarea inminente

Regular las plataformas digitales nunca fue tan urgente como ahora. Con su diseño, algunas de ellas generan nuevas y complejas dinámicas en el mundo del trabajo; otras, deciden con reglas poco claras o transparentes sobre la diversidad, amplitud de voces y temas que se discuten en la esfera pública digital. Algunas otras tienen el potencial, mediante su diseño opaco -que ahora se aceita con el uso de la IA- de exacerbar fenómenos complejos como la desinformación o la violencia en línea que se traslada al mundo analógico.

La mayoría, especialmente las más grandes plataformas digitales de gran escala desarrolladas por un grupo reducido de empresas, concentran una influencia considerable en la vida social y pública, con efectos potenciales en la salud mental y en procesos colectivos, como el ejercicio democrático.

Es importante destacar que, si bien regular emerge como una necesidad en este contexto, ello no es sinónimo de que no exista una regulación que no permita abordar su funcionamiento. En Chile, de hecho, existe un marco normativo que abarca materias como protección del consumo, protección a la competencia y la propiedad intelectual, protección de datos, de trabajo, de acceso a la información, entre otros, y ese debería ser el punto de partida.

Pero, en la práctica, regular de manera específica a las plataformas digitales se viene constituyendo como una prioridad, pues en su funcionamiento se involucran un entramado complejo de actores e intereses, así como se explotan y exacerban fenómenos (como la desinformación, la violencia de género en línea, el extractivismo severo de datos) que deben ser abordados de manera tal que la protección de las personas esté en el centro, y logre ser efectiva.

Problemas de los intentos de regulación

Regular las plataformas puede ser un fin loable, pero hacerlo de manera efectiva requiere más que la buena voluntad de las personas legisladoras. Por un lado, se precisa de técnica legislativa con un enfoque de derechos humanos para, por ejemplo, no sacrificarlos en aras de enfoques reactivos, casi siempre punitivistas o prohibicionistas que suelen, con frecuencia, ser la primera o única respuesta de quienes legislan.

Regular las plataformas desde un enfoque de derechos humanos significa, en términos generales, dos cosas. Por un lado, priorizar su protección, aún si eso significa, en ocasiones, poner límites a la manera en como se desarrolla un determinado modelo de negocio. Y, por otro lado, alinear las políticas y prácticas corporativas a tres verbos que deben ser accionables desde la política pública: prevenir, mitigar, y reparar los impactos ocasionados por sus operaciones.

Por ejemplo, el más reciente proyecto de ley sobre deepfakes, originado en la Cámara de Diputados para regular el uso no autorizado de atributos personales como la voz o la imagen a través de sistemas de IA, erosiona principios esenciales de la libertad de expresión, como el derecho de toda persona a formular críticas respecto a figuras y funcionarios públicos. Además, adopta figuras problemáticas como la “notificación y retiro” de contenidos en línea a cargo de las plataformas digitales, sin que medie orden judicial, entre otros. Omite, casi por completo, abordar las obligaciones de las empresas tecnológicas en la prevención, mitigación y reparación de los derechos de sus personas usuarias.

O el más ambicioso proyecto de ley discutido hasta ahora, en materia de regulación de plataformas, que fue debatido en el Congreso chileno en 2021. Se trata de una iniciativa que busca regular la totalidad de las plataformas digitales frente a un amplio y diverso conjunto de problemas: la desinformación, la protección de las infancias en línea, la protección de datos, la responsabilidad objetiva de las plataformas digitales -en dirección contraria a los consensos básicos sobre el efecto de esa medida en la libertad de expresión-, entre otros.

Este tipo de proyecto generalista no considera en su diseño que no todas las plataformas generan los mismos impactos para los distintos tipos de personas usuarias de sus servicios, ni tampoco considera que las plataformas crean dinámicas diferenciadas en el ejercicio de derechos (libertad de expresión, privacidad, trabajo, etc.) y por eso mismo, no pueden ser tratadas de la misma forma. A su vez, no tiene en cuenta que en un mercado digital altamente concentrado, la realidad de las plataformas (su tamaño y cobertura) y la localización de las empresas que las desarrollan, debe ser considerada en las dinámicas de futura exigibilidad de esa ley. Nuevamente, una iniciativa que no articula los deberes empresariales de prevenir, mitigar o reparar a sus usuarios como compromisos exigibles en derechos humanos.

Pero los problemas para regular las plataformas digitales en Chile no se limitan a cuestiones de técnica legislativa. En la región, hemos visto cómo el lobby de las plataformas digitales es tan feroz que, iniciativas regulatorias bien orientadas terminan frustrándose o diluyéndose hasta volverse ineficaces.

Tal es el caso de la reciente Ley de Salud Mental en Colombia, donde las plataformas digitales presionaron a quienes integraban el órgano legislativo para que, en lugar de que les fuera exigible su corresponsabilidad sobre lo que circula en línea e impacta en la salud de las niñeces, se afirmara una vez más el modelo de autorregulación. En la práctica, esto deja intacto su poder unilateral e inescrutable para definir los límites en la protección de sus personas usuarias.

O el caso de Brasil, donde el proyecto de regulación de la IA atenuó, por la presión de las grandes empresa tecnológicas, aspectos críticos como las evaluaciones de impacto en derechos, inicialmente obligatorias y ahora tan solo facultativas; matizó la protección de artistas y creadores, y omitió casi por completo los impactos ambientales de los Centros de Datos que oxigenan el funcionamiento de la IA.

Un lobby que se agudiza y saca dientes en el marco del gobierno de Donald Trump, que amenaza a las autoridades de los países que intenten regular a la Big Tech en el marco de la guerra arancelaria, tal y como pasó con Brasil en 2025 a quien EE. UU. aumentó los aranceles como reacción a la investigación judicial adelantada por jueces de ese país contra las plataformas digitales que tuvieron un rol preeminente en el golpe de Estado impulsado por J. Bolsonaro.

¿La salida viene de afuera? Chile en la esfera internacional

Aún cuando en Chile avanzan con rezago las regulaciones que abordan el impacto sociopolítico y sociotécnico de las plataformas digitales, la realidad es que la conversación sobre su regulación y gobernanza permanece más activa en la esfera internacional, en donde el país se posicionó como un actor visible en América Latina que acompaña, lidera o suscribe procesos de gobernanza de las plataformas digitales y la IA.

Por ejemplo, tomó un rol destacado en la negociación del Pacto Global Digital, y de la más reciente Cumbre Mundial de la Sociedad de la Información (WSIS, por sus siglas en inglés). Respaldó la Iniciativa Global de UNESCO para la Integridad de la Información Climática, así como adhirió a la Declaración sobre Integridad de la Información sobre Cambio Climático. También, su representación fue visible en 2024 en la Cumbre de IA en París, en la que afirmó la importancia de avanzar en una gobernanza global de la IA con un enfoque de derechos humanos.

Sin embargo, las iniciativas de gobernanza y regulación de las plataformas digitales se encuentran amenazadas por la situación geopolítica actual, en la que la desafiliación reciente de EE. UU. de prácticamente cualquier entorno multilateral y de múltiples partes interesadas, amenaza con dejar solos en la discusión a los países que buscan que el estado actual de la gobernanza de las Big Tech cambie.

De manera que, a nivel nacional o internacional, los esfuerzos de regulación (y gobernanza) enfrentan retos que no son menores. Retos que, a medida que retardan el diseño de marcos de protección de las personas en riesgo, dejan preguntas que urge responder: ¿qué salidas, más allá de la acción individual de los países, conviene imaginar para avanzar en la efectiva regulación de las plataformas que pongan en su centro a las personas?, ¿cómo restar poder de lobby a las empresas tecnológicas que amenazan la efectividad y alcance de los esfuerzos regulatorios, cualquiera que sea su diseño y contenido?, ¿cómo incidir para que su modelo de negocios se alinee a los derechos de sus personas usuarias? O bien, ¿cómo mejorar la técnica legislativa de los proyectos de ley que, con fines loables pero con enfoques desacertados, buscan regular a las plataformas digitales?

Sobre esto último, desde Derechos Digitales tenemos claro que en todo proceso de política pública, la participación significativa de personas usuarias, grupos de la sociedad civil, empresas y otros grupos de interés, es la precondición necesaria para balancear los intereses en la discusión. El panorama regulatorio en Chile ahora se enfrenta a un cambio de sensibilidad política que se inclina hacia la extrema derecha. Esperamos, incluso, en ese escenario poder tomar parte de las discusiones que, anticipamos, se darán sobre regulación de las plataformas en el nuevo gobierno.

La erosión de la libertad de expresión en Costa Rica

Durante décadas, Costa Rica se presentó como una excepción democrática en Centroamérica, un país donde los derechos humanos se consolidaron frente a escenarios de inestabilidad en la región. Sin embargo, en los últimos años ese relato se ha tensionado en torno a la libertad de expresión. El país no está viviendo una ruptura autoritaria abrupta, sino una erosión progresiva que combina hostilidad política, vacíos legales y normalización social del silenciamiento.

La Clasificación Mundial de Libertad de Expresión de Reporteros Sin Fronteras muestra una caída progresiva: del 8° lugar en 2022, al 23° en 2023, 26° en 2024 y 36° en 2025, lo que representa el mayor retroceso en su trayectoria reciente. Este descenso no ocurre en abstracto: diversas coberturas periodísticas y análisis indican que durante el gobierno del presidente saliente Rodrigo Chaves Robles se impulsó una línea de confrontación con medios y periodistas, manifestada en ataques verbales, estigmatización de la prensa, presiones económicas y restricciones al acceso a la información pública que alimentan un clima de hostilidad, poco común en la historia del país.

Señales persistentes de presión sobre el ecosistema informativo y digital

En los años recientes, se vienen dando episodios que configuran un patrón reconocible de presión a la prensa. Uno de ellos fue la subasta de frecuencias de radio y televisión que generó fuertes cuestionamientos por su posible impacto en el pluralismo informativo y el acceso equitativo al espectro radioeléctrico. A esto se suman incidentes donde periodistas de medios digitales, especializados en verificación de datos, fueron objeto de restricciones o tratos diferenciados durante conferencias de prensa del Ejecutivo. En estos casos, la Sala Constitucional reconoció que estas prácticas vulneraban el ejercicio libre del periodismo.

Otro suceso fue el retiro de pauta estatal a un medio de comunicación luego de la publicación de contenidos satíricos sobre el gobierno. Según el Informe Nacional sobre Prácticas de Derechos Humanos 2024 del Departamento de Estado de EE. UU., se indica que la acción configuró una forma indirecta de sanción económica.

Esta rotura está teniendo repercusiones concretas en la percepción social y en las prácticas comunicativas de la ciudadanía. Los datos de la III Encuesta sobre Libertad de Expresión (Proledi-UCR 2025) revelan que más de la mitad de la población percibe un deterioro en su libertad de expresión y declara haber evitado expresar opiniones en redes sociales por temor a represalias o consecuencias. La percepción de censura y autocensura está en los niveles máximos de los últimos tres años, marcando el pulso de un entorno en el que internet y las plataformas digitales se convierten tanto en espacios esenciales de discusión como en territorios de riesgo para quienes discrepamos o criticamos al poder.

Costa Rica atrapada en la ola autoritaria

Las recientes elecciones del 1 de febrero marcaron un punto de inflexión en la política costarricense. La candidata oficialista Laura Fernández (aliada política y exministra de Chaves) logró una victoria en primera vuelta con alrededor del 51% de los sufragios, superando al principal contendiente de la oposición y evitando la segunda ronda.

Más allá del resultado de la votación, lo que preocupa es la consolidación de un clima político que debilita los contrapesos democráticos. La normalización del ataque a la prensa, la deslegitimación sistemática de voces críticas y la construcción de enemigos internos son rasgos ampliamente documentados en procesos de autoritarismo en la región. Que estas prácticas encuentren respaldo electoral en Costa Rica marca un quiebre en el país.

Sin equipararse aún a los escenarios más extremos, el gobierno costarricense comienza a reproducir patrones conocidos en los países centroamericanos. Desde Derechos Digitales lo hemos alertado. En el caso de El Salvador, por ejemplo, se dieron exilios masivos de periodistas y organizaciones de la sociedad civil en 2025, una situación que resuena más allá de sus fronteras y evidencia la fragilidad de la libertad de expresión cuando se normalizan narrativas de control por encima del debate crítico. En Honduras o Nicaragua, los medios enfrentan no solo presiones económicas y legales sino amenazas directas, lo que pone en perspectiva la preocupación costarricense como parte de un denominador común más amplio en la región.

El informe de la Fundación Heinrich Böll sobre libertad de expresión en Centroamérica evidencia que Guatemala, Honduras, El Salvador y Nicaragua ocupan posiciones muy bajas en los índices internacionales, reflejando contextos donde censura, criminalización del periodismo y violencia contra comunicadores son fenómenos recurrentes, y donde muchas veces no queda medio independiente alguno.

El escenario electoral de 2026 consolidó prácticas y narrativas que proyectan sus efectos más allá del ciclo electoral.

Derechos reconocidos, protecciones insuficientes

En términos generales, la libertad de expresión y de prensa en Costa Rica cuenta con una protección normativa robusta. La Constitución Política reconoce el derecho a la libre comunicación del pensamiento sin censura previa y prohíbe cualquier forma de restricción indirecta. A ello se suma la adhesión del país a instrumentos internacionales como la Convención Americana sobre Derechos Humanos y la Declaración de Principios sobre Libertad de Expresión, que obligan al Estado no solo a abstenerse de censurar, sino a garantizar condiciones efectivas para su ejercicio libre y seguro.

Sin embargo, esta solidez no se traduce en un desarrollo legislativo integral que permita enfrentar los desafíos contemporáneos. Como se evidenció en los casos registrados anteriormente, el rol de la Sala Constitucional fue clave para contener algunas de las amenazas más evidentes. Estos fallos funcionaron como un contrapeso institucional frente a decisiones administrativas y prácticas gubernamentales que, de otro modo, habrían consolidado restricciones indirectas al ejercicio periodístico. Pero el rol de la Sala Constitucional como principal barrera de protección también evidencia que se depende cada vez más de la judicialización posterior, y no de políticas públicas preventivas.

A las alertas señaladas, se suma la evaluación de la Sociedad Interamericana de Prensa (SIP), que en 2025 señaló la existencia de un “ambiente de creciente deterioro de la libertad de expresión” en Costa Rica, marcado por el hostigamiento en redes sociales a personas críticas del gobierno y por el uso discrecional de recursos públicos como la pauta oficial. Estas prácticas, aun cuando no constituyen censura directa, generan un efecto inhibidor para la autoexpresión.

Diversas organizaciones de la sociedad civil vienen planteando una advertencia: el marco legal costarricense resulta insuficiente para abordar la violencia digital. Informes como Freedom on the Net 2024 subrayan que, las referencias a internet se resuelven caso por caso a partir de derechos tradicionales, sin una tipificación clara ni mecanismos procesales adecuados para enfrentar violencias en plataformas digitales, lo que deja amplios márgenes de impunidad y desprotección.

Esta brecha entre el reconocimiento normativo y la protección efectiva fue documentada también por otras organizaciones especializadas. El informe Libertad de Expresión en Costa Rica 2024 de la Universidad para la Paz advierte que las agresiones al ejercicio periodístico se reproducen y amplifican en entornos digitales, donde se organizan campañas de descrédito, se normaliza la intimidación y no se dan las condiciones para un debate público libre. En una línea complementaria, el Informe Alternativo del Examen Periódico Universal (EPU), elaborado por Sulá Batsú y CEJIL, señala un aumento sostenido de violencia digital de género y ataques de odio en línea dirigidos particularmente a mujeres periodistas y defensoras.

Sobre este tema, el trabajo de Derechos Digitales refuerza que estas dinámicas afectan de manera diferenciada a mujeres y personas LGBTIQA+, ya que restringe la participación pública y reproduce desigualdades estructurales en el entorno digital. Recientemente, junto al Fondo de Población de las Naciones Unidas (UNFPA), se propusieron principios orientadores para reformas legislativas y políticas públicas, que apuntan a transformar no solo el reconocimiento normativo, sino también las capacidades estatales y sociales necesarias para proteger y garantizar la libertad de expresión en espacios digitales de forma efectiva y con perspectiva de derechos humanos.

Fortalecer la libertad de expresión en medio de la erosión democrática

En América Latina, el debilitamiento de la libertad de expresión se convirtió en una de las primeras señales de tendencia autoritaria, la experiencia en nuestros territorios demuestra que su desgaste rara vez comienza con censura directa. Costa Rica todavía cuenta con instituciones, estándares y capacidades para revertirlo, pero esa ventana no es indefinida.

Asumir que la libertad de expresión está garantizada por inercia es uno de los riesgos más altos del momento actual. Para fortalecerla no basta con invocar la tradición democrática ni confiar exclusivamente en la fortaleza institucional heredada.

Implica asumir responsabilidades concretas: actualizar el marco legal para enfrentar violencias digitales sin criminalizar la expresión, establecer reglas claras y transparentes para la comunicación estatal, garantizar mecanismos efectivos de protección a periodistas y personas comunicadoras, y reconocer que las plataformas digitales son hoy infraestructuras políticas que requieren regulación con enfoque de derechos humanos.