La militarización de la inteligencia artificial: violencia de género en contextos de guerra y conflicto armado

Esta columna fue publicada originalmente en Volcánicas

En un contexto marcado por una acelerada escalada de tensiones geopolíticas, el debilitamiento del sistema multilateral y un creciente desprecio por las normas internacionales, el mundo presencia la expansión de guerras, conflictos armados e intervenciones militares ilegales de enorme impacto para las poblaciones civiles. Al mismo tiempo, la IA se ha convertido en uno de los ejes centrales del discurso político y corporativo global.

La competencia por su desarrollo y control no solo enfrenta a gobiernos y grandes empresas tecnológicas, sino que también revela tensiones más profundas vinculadas al poder global, la seguridad y el futuro del ejercicio de los derechos humanos.

Entre las consecuencias más urgentes -y menos reguladas- del despliegue acelerado de estos sistemas se encuentra el aumento de formas de violencia de género facilitadas por tecnologías (VG FT). Observamos la aparición y expansión de prácticas como el acoso automatizado, la creación de imágenes íntimas falsas mediante modelos generativos, campañas de desinformación con sesgo de género, y formas cada vez más invasivas de vigilancia digital. A la vez, la gobernanza de estas tecnologías sigue estando profundamente fragmentada: mientras los marcos regulatorios sobre IA rara vez incorporan los riesgos específicos asociados a la violencia de género, las políticas dirigidas a abordar la VG FT todavía no integran plenamente los impactos de estos sistemas.

En este escenario, el desarrollo y despliegue de IA se entrelaza cada vez más con dinámicas de militarización y guerra. Este 8 de marzo nos obliga, por tanto, a mirar de frente una dimensión todavía insuficientemente abordada: la VG FT en contextos de guerra y conflictos armados.

Una aplicación incompatible con los derechos humanos

El despliegue de tecnologías basadas en IA en contextos de guerra y de conflicto armado no solo ya es un hecho, sino que continúa expandiéndose. Se utilizan, por ejemplo, para vigilancia masiva, análisis predictivo de amenazas, sistemas de armas autónomos y localización de “objetivos”.

Como han advertido numerosas expertas y organizaciones, los sistemas de IA no pueden evaluar adecuadamente principios fundamentales del derecho internacional humanitario, como la distinción entre combatientes y civiles o la proporcionalidad de un ataque. A esto se suman las implicancias para los mecanismos de responsabilidad y rendición de cuentas, ya de por sí difíciles de ejercer en estos contextos.

Como ocurre con muchas aplicaciones de IA, su incorporación suele justificarse en términos de eficacia. Pero: ¿qué significa “eficacia” en este contexto? ¿Puede hablarse de eficacia cuando se trata de sistemas utilizados para identificar, vigilar y atacar a personas? ¿Qué tipo de acción se considera eficaz en un escenario donde el resultado final es la expansión de la violencia? Si se parte de la premisa de que la eficacia depende del objetivo que se busca alcanzar, estudios señalan que estos sistemas están muy lejos de ser eficaces respecto a los objetivos que se les asignan.

Cuando sesgos y errores incorporados en el diseño de la IA se traducen en fallas al identificar objetivos, el costo recae literalmente sobre vidas humanas. La preocupación no se limita a fallos técnicos. En completa ausencia de reglas y límites, esos sistemas a veces son diseñados para identificar y atacar a personas que presenten determinados “marcadores”.

En cualquiera de estos escenarios, la noción misma de eficacia queda profundamente cuestionada. Si los sistemas fallan, el resultado es la muerte de personas que nunca debieron ser consideradas objetivos. Si funcionan como fueron diseñados, identifican y atacan a personas en función de su identidad. En ambos casos, lo que está en juego es la legitimidad misma de estos sistemas y su compatibilidad con el derecho internacional.

También se suele afirmar que estas tecnologías permitirían reducir las bajas civiles gracias a ataques supuestamente más “precisos”. El genocidio en Gaza ofrece un contraste brutal con ese argumento. A pocos meses del inicio del ataque militar por parte de Israel, expertas y expertos de Naciones Unidas advertían que se había destruido “un porcentaje mayor de viviendas e infraestructura civil que en cualquier otro conflicto que se recuerde”. En ese mismo contexto, señalaron el presunto uso de sistemas de IA para identificar objetivos y atacar viviendas familiares, con escasa consideración por la presencia de civiles en su interior o en sus alrededores.

Investigaciones periodísticas posteriores confirmaron el uso de IA por parte del ejército israelí en Gaza. Entre ellos destacan, por su carácter particularmente perverso, los sistemas conocidos como Lavender, Gospel y Where’s Daddy? (¿Dónde está papi?). Según reportes del Instituto de Estudios Palestinos, estos sistemas procesan enormes volúmenes de datos obtenidos a partir de años de vigilancia masiva sobre la población palestina que es utilizada para generar listas de personas y estructuras consideradas objetivos.

Mientras el sistema conocido como Gospel “recomienda” edificios e infraestructuras para ser bombardeadas, Lavender identifica personas como objetivos potenciales. Un sistema adicional, Where’s Daddy?, se utiliza específicamente para rastrear a las personas señaladas y ejecutar bombardeos cuando estas ingresan a su destino, el cual muchas veces es su vivienda familiar.

Según testimonios de agentes de inteligencia israelíes, la validación previa a autorizar un ataque podía durar alrededor de veinte segundos. Ese breve intervalo se utilizaba principalmente para comprobar si la persona señalada por el sistema era un hombre, usando al género como indicador de posible “combatiente”. No está claro si se trata de un procedimiento formalizado o de una práctica extendida dentro de las unidades involucradas.

Las consecuencias de este tipo de prácticas han sido devastadoras, siendo la mayoría de las personas asesinadas mujeres y niños. Lejos de proteger a la población civil, estos sistemas amplían la capacidad de identificar y atacar personas y aceleran el uso de la fuerza.

El uso de IA con fines militares se extiende a otros contextos y regiones del mundo. Según reportes periodísticos, Claude habría sido utilizado como apoyo en la invasión militar ilegal liderada por Estados Unidos en Venezuela en enero de este año, poniendo en evidencia que las implicaciones de estas tecnologías también alcanzan a América Latina.

La combinación de IA, vigilancia persistente y procesamiento masivo de datos en tiempo real configura nuevas formas de intervención basadas en la asimetría tecnológica y la superioridad informacional. Comprender esta lógica resulta crucial para América Latina y el Caribe, donde en los últimos años se han intensificado acuerdos militares, despliegues “temporarios” de tropas y sistemas de monitoreo vinculados a Estados Unidos en distintos países de la región.

La geopolítica detrás de la inteligencia artificial

El desarrollo y uso militar de la IA tiene como trasfondo una carrera tecnológica que asocia su desarrollo con la “dominación global” en una versión de la carrera armamentista en la Guerra Fría. Central a tal proceso es el desmantelamiento de legislaciones orientadas a generar protecciones. En el caso estadounidense, los documentos oficiales son explícitos al afirmar que quien controle el ecosistema de IA podrá fijar las reglas globales y obtener ventajas económicas y militares.

Los procesos multilaterales capaces de poner límites a tal lógica han fallado, como fue el caso del Pacto para el Futuro, adoptado en 2024 y presentado como una iniciativa para fortalecer el sistema internacional frente a los desafíos del siglo XXI. A pesar de que las bases normativas ya existen dentro del propio sistema internacional de derechos humanos, incluyendo la Resolución 48/4 del Consejo de Derechos Humanos y el informe del Alto Comisionado de las Naciones Unidas para los Derechos Humanos, que recomiendan establecer moratorias o incluso prohibiciones para sistemas de IA que no puedan utilizarse en conformidad con el derecho internacional.

No resulta sorprendente -aunque no por ello deja de ser indignante- que las iniciativas derivadas de este proceso se inscriban en esa misma falta de voluntad política para establecer límites efectivos. El Panel Científico Internacional Independiente sobre Inteligencia Artificial, creado a partir del Pacto para el Futuro para evaluar los impactos y riesgos de estas tecnologías, establece explícitamente que su mandato se limitará al ámbito no militar, asegurando así que una de las discusiones más urgentes sobre estas tecnologías quede deliberadamente fuera del análisis.

Las grandes empresas tecnológicas desempeñan un papel central en esta estructura. A través de crecientes alianzas público-privadas, contribuyen a consolidar dinámicas de poder cada vez más autoritarias y asociadas a prácticas abusivas de derechos humanos. Este poder se sustenta no solo en la enorme concentración económica e informacional que acumulan -facilitada en gran medida por la desregulación del sector-, sino también en la creciente convergencia entre intereses corporativos y estatales, que se proyecta de forma cada vez más evidente en la arena militar.

En un reciente informe, la Relatora Especial de Naciones Unidas sobre la situación de los derechos humanos en los territorios palestinos ocupados identificó 48 compañías globales que apoyarían directa o indirectamente el genocidio en Gaza. Según Albanese, la continuidad de esta violencia no puede comprenderse sin considerar también los incentivos económicos que la sostienen: el genocidio, advierte, también es rentable.

Perspectivas feministas frente a la militarización de la IA

La incorporación de IA en actividades militares está transformando las formas en que se produce y se ejerce la violencia de género en contextos de conflicto armado y crisis humanitarias. Sin embargo, el análisis de los conflictos y de los procesos de paz continúa estando dominado por perspectivas patriarcales que invisibilizan las afectaciones diferenciadas que enfrentan las mujeres, así como las contribuciones que los movimientos de mujeres han realizado en la construcción de la paz.

Abordar estas dinámicas desde una perspectiva de género implica reconocer dos dimensiones interrelacionadas. Por un lado, la militarización tecnológica profundiza violencias ya presentes en contextos de guerra, donde las desigualdades estructurales se intensifican y las violaciones de derechos humanos contra mujeres y niñas adquieren formas particularmente graves. Por otro, la incorporación de sistemas basados en IA está dando lugar a nuevas formas de violencia, lo que vuelve urgente ampliar los marcos desde los cuales se las analizan.

Para entender la violencia de género facilitada por tecnologías es recomendable incorporar factores contextuales desde una perspectiva interseccional que permita comprender estas violencias de manera situada. Las formas que adoptan tales violencias no son universales ni se experimentan de la misma manera en todos los territorios; están atravesadas por desigualdades sociales, culturales y políticas que configuran tanto las dinámicas de violencia como las posibilidades de respuesta.

Los ejemplos son múltiples. Entre ellos se encuentran campañas de desinformación generadas o amplificadas mediante IA, ataques dirigidos contra mujeres a través de contenidos como deepfakes -utilizados para desacreditar o silenciar a figuras públicas y activistas-, y el despliegue de tecnologías biométricas y de reconocimiento facial que permiten rastrear e identificar poblaciones enteras sin salvaguardias adecuadas. Estas herramientas, a menudo presentadas como neutrales o necesarias para la seguridad o la gestión humanitaria, pueden exponer especialmente a mujeres activistas y a otras comunidades en situación de vulnerabilidad.

Como evidencia el caso de Gaza, estos sistemas también interactúan con categorías simplificadas de género. Programas utilizados para identificar y rastrear objetivos han operado en gran medida a partir de marcadores binarios de género (hombre es igual a “combatiente”), aunque contribuyendo en la práctica a ataques que terminan afectando de manera desproporcionada a mujeres y niños. Este patrón se inserta, además, en un contexto más amplio de violencia basada en género documentado por organismos internacionales, incluyendo la destrucción de servicios de salud reproductiva y otras prácticas que diversas expertas han descrito como parte de un proceso de femigenocidio.

Organizaciones humanitarias han advertido que el uso de sistemas digitales en contextos militares puede acelerar el ritmo de la guerra, reduciendo los tiempos de deliberación y debilitando los mecanismos de control humano sobre el uso de la fuerza. En escenarios ya marcados por altos niveles de violencia y deshumanización, esta aceleración incrementa los daños para la población civil y amplifica patrones preexistentes de discriminación, exclusión y violencia de género.

Frente a este panorama, resulta urgente ampliar los marcos desde los cuales comprendemos la violencia de género facilitada por tecnologías, incorporando las dinámicas de militarización, colonialismo y desigualdad global que atraviesan el desarrollo y despliegue de estas tecnologías. Al mismo tiempo, la evidencia acumulada refuerza la necesidad de establecer límites claros al uso de IA con fines militares. Sistemas que no pueden operar en conformidad con el derecho internacional humanitario y el derecho internacional de los derechos humanos deberían ser prohibidos.

Este 8 de marzo nos recuerda que las luchas feministas han sido fundamentales para cuestionar las lógicas de violencia, militarización y dominación que atraviesan nuestras sociedades. Frente a la expansión de la militarización de la IA, incorporar perspectivas feministas no es opcional: es una condición fundamental para comprender sus impactos reales y para imaginar alternativas que pongan a la vida -y no a la violencia- en el centro.

Cumbre de Impacto de IA: ¿Nada nuevo a la vista?

La Cumbre de Impacto de la IA en India (India AI Impact Summit), realizada entre los días 16 y 20 de febrero, conllevaba la promesa de fortalecer una perspectiva del Sur Global a las discusiones sobre gobernanza de la inteligencia artificial (IA). El evento traía como principio la frase “bienestar para todas las personas, felicidad para todas las personas”, estampada en centenares de carteles de la Cumbre en Nueva Delhi, junto con la imagen del primer ministro Narendra Modi, quien evidentemente buscaba proyectar su propia figura con el encuentro.

Quienes pudimos acompañar las discusiones nos quedamos con la duda sobre qué se entiende por “bienestar” o “felicidad” y quiénes efectivamente se beneficiarán de ellas frente al avance de la IA. A pesar de la convocatoria alrededor de los principios (sutras) “personas”, “planeta” y “progreso”, el evento estuvo marcado por discursos tecnooptimistas y por la falta de diversidad –de género, sectores y perspectivas– en una agenda minuciosamente seleccionada por el gobierno local. Lo preocupante no es solamente el mantenimiento del tono, sino el tipo de resultado que lo acompaña: un modelo de cooperación internacional que promueve despliegue acelerado, pero que elude deliberadamente la pregunta por límites, responsabilidades y remedios.

Mientras se puso sobre la mesa un conjunto de principios para la cooperación internacional en materia de IA, la Cumbre habilitó a India inversiones de grandes empresas de tecnologías. Más importante, en un contexto geopolítico de securitización de la carrera tecnológica, abrió espacio para el establecimiento de acuerdos Sur-Sur en materia tecnológica, destacando la visita del presidente de Brasil y sus ministros al país.

A pesar de la importancia de tales movimientos en el actual escenario, los resultados se muestran limitados a compromisos voluntarios y declaraciones no vinculantes, siguiendo el modelo de cumbres anteriores. No hubo mención a los derechos humanos y se cerró cualquier espacio para discusiones regulatorias donde puedan tener mayor peso los movimientos de varios Estados que van en esta dirección. En su lugar, predominó un lenguaje de “innovación”, “confianza” y “capacidades”, que puede sonar neutral y positivo, pero que en la práctica invisibiliza el debate sobre obligaciones de transparencia, debida diligencia y reparación. Como de costumbre, la agenda de justicia y derechos quedó en manos de la sociedad civil, que tuvo poco espacio y escasa visibilidad en el evento oficial.

Una carrera sin frenos

La Cumbre fue la cuarta edición de una serie iniciada en Inglaterra en 2023, cuyo mandato se viene transformando a cada año. Pero, por si quedaban dudas, la Declaración Final del evento demuestra que, a pesar de las expectativas y la retórica nacionalista –que incluía referencias a elementos del hinduismo–, la primera Cumbre de IA realizada en el Sur Global no se diferenció en nada de sus antecesoras. Aunque cambió el lugar y la narrativa, se mantuvo la fórmula de un escenario de compromisos abstractos, en paralelo a un mercado de acuerdos e inversiones presentados como inevitables. Además de servir como palco para los empresarios de las grandes empresas de tecnología globales, que dominaron las noticias sobre el evento, su principal conclusión favorece a su agenda y negocios.

Según el texto, “las decisiones que tomemos ahora moldearán el futuro habilitado por la IA que heredarán las nuevas generaciones”. La afirmación deja poco espacio para la discusión sobre el rol que tanto las generaciones presentes como las futuras queremos que tenga la IA, pese a las crecientes evidencias de sus daños y los cuestionamientos a los efectos sociales a que ha estado sujeta.

No se trata aquí de ponernos en contra de la tecnología o de negar sus potenciales beneficios. Al contrario, fuimos desde América Latina hasta India con el propósito de fortalecer coaliciones y elaborar las bases para una IA justa, junto a docenas de organizaciones de todo el Sur Global. En distintos eventos paralelos, defendimos la importancia de los diálogos multilaterales sobre gobernanza de IA y planteamos la necesidad urgente de construir mecanismos globales que ayuden a garantizar que los sistemas de IA cumplan con estándares de derechos humanos. En otras palabras, que sirvan a las personas, al planeta y al progreso. Sin embargo, la distancia entre esos debates y la declaración final de la Cumbre, adoptada por 89 países, es patente y alarmante.

El texto, organizado según los grupos de trabajo temáticos que guiaron las discusiones, refuerza la noción de inevitabilidad de la IA y se dedica a promoverla tal cual es planteada por Silicon Valley, limitando con eso el espacio para cualquier discusión sobre los necesarios límites a su desarrollo y despliegue. Ejemplo de ello es la defensa de sistemas de IA eficientes a nivel energético, que borra completamente las preocupaciones por los impactos socioambientales de los centros de datos.

En lo que se refiere a la democratización de los recursos de IA, por su parte, se hace referencia a la Carta por la Difusión Democrática de la IA, también adoptada en la Cumbre, pero haciendo hincapié en su carácter no vinculante y voluntario. La Carta incluye guías importantes para la cooperación internacional en áreas como: la inclusión digital; la representatividad de idiomas y contextos subrepresentados en los modelos de IA; el estímulo a la apertura por medio de la adopción de estándares abiertos e interoperables; el desarrollo de habilidades en IA, entre otras. Sin embargo, refuerza como primer objetivo el aumento de las capacidades de IA sin ninguna consideración sobre sus impactos medioambientales, laborales y en derechos humanos.

El abordaje refleja contextos nacionales donde el discurso sobre soberanía tecnológica se presenta de manera contradictoria y ampliamente dependiente de desarrollos tecnológicos propietarios y extranjeros. Los anuncios de inversiones de las grandes empresas en India durante la Cumbre ilustran tal narrativa: alianzas con universidades para la oferta de modelos y asistentes de IA, y capacitación para el uso de herramientas comerciales e inversiones para la adopción de esta tecnología por los gobiernos son algunos ejemplos de alianzas establecidas en la ocasión. Paradójicamente, se invoca soberanía al mismo tiempo que se profundiza la adopción de modelos, asistentes y herramientas cuyo diseño, control y condiciones de uso permanecen fuera del alcance de los países que los incorporan.

La idea de soberanía tecnológica sin crítica al modelo establecido o perspectiva de derechos y sostenibilidad se reflejaba también en un espacio de exposiciones donde empresas locales se posicionaban junto a las Big Tech para promocionar sus negocios. Sistemas de IA para la vigilancia y uso militar se presentaban lado a lado de las versiones “educativas” de modelos comerciales de IA generativa. Afuera quedaron las voces que se oponen o defienden limitaciones al uso de este tipo de sistemas en tales entornos.

Hay camino por delante

A pesar de sus limitaciones, es necesario reconocer la importancia de la mención, en la Declaración Final, de los procesos multilaterales en curso y del respeto a la soberanía de los países. Ambos aspectos se muestran clave en un texto que logró unir a China y Estados Unidos como firmantes.

Por un lado, se valida un proceso en curso en el ámbito de Naciones Unidas que tiene como mandato dar un paso más en la definición de límites a usos de IA que no respetan derechos humanos. Cabe destacar que la agenda contó con distintos espacios de discusión con representantes del Panel Científico de IA y tuvo la presencia del Secretario General de Naciones Unidas y de su Oficina para las Tecnologías Digitales y Emergentes (ODED, por sus siglas en inglés). Por otro, se deja, correctamente, un margen para discusiones a nivel nacional que pueden reflejar mejor sus contextos y prioridades y donde otros sectores pueden actuar como contrapeso. Ese margen será decisivo allí donde existan instituciones capaces de resistir la presión combinada del discurso de securitización, de intereses nacionales de algunos países, y de los intereses comerciales que buscan presentar la adopción de IA como una obligación sin alternativas.

Hay que reconocer que tales conquistas se encuentran también limitadas por una arena internacional marcada por el ascenso del autoritarismo y el desmantelamiento de las instituciones multilaterales, en particular de derechos humanos. Sin embargo, representan una señal: el rol de la IA en el futuro de las nuevas generaciones sigue en disputa.

Igualmente relevante es el reconocimiento de la participación de múltiples partes interesadas en los debates sobre el tema. Es fundamental que eso no se traduzca en más espacio para mega empresarios de tecnología y se apunte a mecanismos de participación significativa de la sociedad civil, en línea con lo acordado en la Declaración de Sao Paulo.

La ocasión de la Cumbre, en ese sentido, habilitó la coordinación entre distintos actores académicos y de la sociedad civil del Sur Global con miras al debate que sigue. En un contexto en que las conversaciones siguen mayormente concentradas en pocos actores del Norte, tal coordinación es crítica para avanzar hacia estándares que permitan un futuro en que la IA efectivamente esté al servicio de la justicia, la equidad y el ejercicio de derechos.

Si la carrera de la IA sigue sin frenos, es urgente definir las reglas del tránsito antes de que el impacto sea contra una pared.

Chile y el complejo camino para regular las plataformas digitales

Los esfuerzos emprendidos por el Congreso chileno para la regulación de las plataformas no cesan. Desde 2020 hasta la fecha, se presentaron casi medio centenar de proyectos de ley que buscan, bien sea a través de la creación de una ley general o a través de la reforma de otros cuerpos normativos existentes, abordar un muy extenso conjunto de asuntos relacionados.

Entre los temas de interés de quienes regulan, se incluyeron proyectos de regulación de personas trabajadoras de plataformas, de aplicaciones de transporte ciudadano, también de plataformas de delivery de comidas y, por supuesto, iniciativas enfocadas en la regulación de fenómenos como la desinformación, el ejercicio de la libertad de expresión en internet, el uso de redes sociales y dispositivos digitales por niños, niñas y adolescentes, la difusión no consentida de imágenes con contenido sexual y el uso de deepfakes para dicho fin, entre otros.

Regular las plataformas digitales: una tarea inminente

Regular las plataformas digitales nunca fue tan urgente como ahora. Con su diseño, algunas de ellas generan nuevas y complejas dinámicas en el mundo del trabajo; otras, deciden con reglas poco claras o transparentes sobre la diversidad, amplitud de voces y temas que se discuten en la esfera pública digital. Algunas otras tienen el potencial, mediante su diseño opaco -que ahora se aceita con el uso de la IA- de exacerbar fenómenos complejos como la desinformación o la violencia en línea que se traslada al mundo analógico.

La mayoría, especialmente las más grandes plataformas digitales de gran escala desarrolladas por un grupo reducido de empresas, concentran una influencia considerable en la vida social y pública, con efectos potenciales en la salud mental y en procesos colectivos, como el ejercicio democrático.

Es importante destacar que, si bien regular emerge como una necesidad en este contexto, ello no es sinónimo de que no exista una regulación que no permita abordar su funcionamiento. En Chile, de hecho, existe un marco normativo que abarca materias como protección del consumo, protección a la competencia y la propiedad intelectual, protección de datos, de trabajo, de acceso a la información, entre otros, y ese debería ser el punto de partida.

Pero, en la práctica, regular de manera específica a las plataformas digitales se viene constituyendo como una prioridad, pues en su funcionamiento se involucran un entramado complejo de actores e intereses, así como se explotan y exacerban fenómenos (como la desinformación, la violencia de género en línea, el extractivismo severo de datos) que deben ser abordados de manera tal que la protección de las personas esté en el centro, y logre ser efectiva.

Problemas de los intentos de regulación

Regular las plataformas puede ser un fin loable, pero hacerlo de manera efectiva requiere más que la buena voluntad de las personas legisladoras. Por un lado, se precisa de técnica legislativa con un enfoque de derechos humanos para, por ejemplo, no sacrificarlos en aras de enfoques reactivos, casi siempre punitivistas o prohibicionistas que suelen, con frecuencia, ser la primera o única respuesta de quienes legislan.

Regular las plataformas desde un enfoque de derechos humanos significa, en términos generales, dos cosas. Por un lado, priorizar su protección, aún si eso significa, en ocasiones, poner límites a la manera en como se desarrolla un determinado modelo de negocio. Y, por otro lado, alinear las políticas y prácticas corporativas a tres verbos que deben ser accionables desde la política pública: prevenir, mitigar, y reparar los impactos ocasionados por sus operaciones.

Por ejemplo, el más reciente proyecto de ley sobre deepfakes, originado en la Cámara de Diputados para regular el uso no autorizado de atributos personales como la voz o la imagen a través de sistemas de IA, erosiona principios esenciales de la libertad de expresión, como el derecho de toda persona a formular críticas respecto a figuras y funcionarios públicos. Además, adopta figuras problemáticas como la “notificación y retiro” de contenidos en línea a cargo de las plataformas digitales, sin que medie orden judicial, entre otros. Omite, casi por completo, abordar las obligaciones de las empresas tecnológicas en la prevención, mitigación y reparación de los derechos de sus personas usuarias.

O el más ambicioso proyecto de ley discutido hasta ahora, en materia de regulación de plataformas, que fue debatido en el Congreso chileno en 2021. Se trata de una iniciativa que busca regular la totalidad de las plataformas digitales frente a un amplio y diverso conjunto de problemas: la desinformación, la protección de las infancias en línea, la protección de datos, la responsabilidad objetiva de las plataformas digitales -en dirección contraria a los consensos básicos sobre el efecto de esa medida en la libertad de expresión-, entre otros.

Este tipo de proyecto generalista no considera en su diseño que no todas las plataformas generan los mismos impactos para los distintos tipos de personas usuarias de sus servicios, ni tampoco considera que las plataformas crean dinámicas diferenciadas en el ejercicio de derechos (libertad de expresión, privacidad, trabajo, etc.) y por eso mismo, no pueden ser tratadas de la misma forma. A su vez, no tiene en cuenta que en un mercado digital altamente concentrado, la realidad de las plataformas (su tamaño y cobertura) y la localización de las empresas que las desarrollan, debe ser considerada en las dinámicas de futura exigibilidad de esa ley. Nuevamente, una iniciativa que no articula los deberes empresariales de prevenir, mitigar o reparar a sus usuarios como compromisos exigibles en derechos humanos.

Pero los problemas para regular las plataformas digitales en Chile no se limitan a cuestiones de técnica legislativa. En la región, hemos visto cómo el lobby de las plataformas digitales es tan feroz que, iniciativas regulatorias bien orientadas terminan frustrándose o diluyéndose hasta volverse ineficaces.

Tal es el caso de la reciente Ley de Salud Mental en Colombia, donde las plataformas digitales presionaron a quienes integraban el órgano legislativo para que, en lugar de que les fuera exigible su corresponsabilidad sobre lo que circula en línea e impacta en la salud de las niñeces, se afirmara una vez más el modelo de autorregulación. En la práctica, esto deja intacto su poder unilateral e inescrutable para definir los límites en la protección de sus personas usuarias.

O el caso de Brasil, donde el proyecto de regulación de la IA atenuó, por la presión de las grandes empresa tecnológicas, aspectos críticos como las evaluaciones de impacto en derechos, inicialmente obligatorias y ahora tan solo facultativas; matizó la protección de artistas y creadores, y omitió casi por completo los impactos ambientales de los Centros de Datos que oxigenan el funcionamiento de la IA.

Un lobby que se agudiza y saca dientes en el marco del gobierno de Donald Trump, que amenaza a las autoridades de los países que intenten regular a la Big Tech en el marco de la guerra arancelaria, tal y como pasó con Brasil en 2025 a quien EE. UU. aumentó los aranceles como reacción a la investigación judicial adelantada por jueces de ese país contra las plataformas digitales que tuvieron un rol preeminente en el golpe de Estado impulsado por J. Bolsonaro.

¿La salida viene de afuera? Chile en la esfera internacional

Aún cuando en Chile avanzan con rezago las regulaciones que abordan el impacto sociopolítico y sociotécnico de las plataformas digitales, la realidad es que la conversación sobre su regulación y gobernanza permanece más activa en la esfera internacional, en donde el país se posicionó como un actor visible en América Latina que acompaña, lidera o suscribe procesos de gobernanza de las plataformas digitales y la IA.

Por ejemplo, tomó un rol destacado en la negociación del Pacto Global Digital, y de la más reciente Cumbre Mundial de la Sociedad de la Información (WSIS, por sus siglas en inglés). Respaldó la Iniciativa Global de UNESCO para la Integridad de la Información Climática, así como adhirió a la Declaración sobre Integridad de la Información sobre Cambio Climático. También, su representación fue visible en 2024 en la Cumbre de IA en París, en la que afirmó la importancia de avanzar en una gobernanza global de la IA con un enfoque de derechos humanos.

Sin embargo, las iniciativas de gobernanza y regulación de las plataformas digitales se encuentran amenazadas por la situación geopolítica actual, en la que la desafiliación reciente de EE. UU. de prácticamente cualquier entorno multilateral y de múltiples partes interesadas, amenaza con dejar solos en la discusión a los países que buscan que el estado actual de la gobernanza de las Big Tech cambie.

De manera que, a nivel nacional o internacional, los esfuerzos de regulación (y gobernanza) enfrentan retos que no son menores. Retos que, a medida que retardan el diseño de marcos de protección de las personas en riesgo, dejan preguntas que urge responder: ¿qué salidas, más allá de la acción individual de los países, conviene imaginar para avanzar en la efectiva regulación de las plataformas que pongan en su centro a las personas?, ¿cómo restar poder de lobby a las empresas tecnológicas que amenazan la efectividad y alcance de los esfuerzos regulatorios, cualquiera que sea su diseño y contenido?, ¿cómo incidir para que su modelo de negocios se alinee a los derechos de sus personas usuarias? O bien, ¿cómo mejorar la técnica legislativa de los proyectos de ley que, con fines loables pero con enfoques desacertados, buscan regular a las plataformas digitales?

Sobre esto último, desde Derechos Digitales tenemos claro que en todo proceso de política pública, la participación significativa de personas usuarias, grupos de la sociedad civil, empresas y otros grupos de interés, es la precondición necesaria para balancear los intereses en la discusión. El panorama regulatorio en Chile ahora se enfrenta a un cambio de sensibilidad política que se inclina hacia la extrema derecha. Esperamos, incluso, en ese escenario poder tomar parte de las discusiones que, anticipamos, se darán sobre regulación de las plataformas en el nuevo gobierno.

La erosión de la libertad de expresión en Costa Rica

Durante décadas, Costa Rica se presentó como una excepción democrática en Centroamérica, un país donde los derechos humanos se consolidaron frente a escenarios de inestabilidad en la región. Sin embargo, en los últimos años ese relato se ha tensionado en torno a la libertad de expresión. El país no está viviendo una ruptura autoritaria abrupta, sino una erosión progresiva que combina hostilidad política, vacíos legales y normalización social del silenciamiento.

La Clasificación Mundial de Libertad de Expresión de Reporteros Sin Fronteras muestra una caída progresiva: del 8° lugar en 2022, al 23° en 2023, 26° en 2024 y 36° en 2025, lo que representa el mayor retroceso en su trayectoria reciente. Este descenso no ocurre en abstracto: diversas coberturas periodísticas y análisis indican que durante el gobierno del presidente saliente Rodrigo Chaves Robles se impulsó una línea de confrontación con medios y periodistas, manifestada en ataques verbales, estigmatización de la prensa, presiones económicas y restricciones al acceso a la información pública que alimentan un clima de hostilidad, poco común en la historia del país.

Señales persistentes de presión sobre el ecosistema informativo y digital

En los años recientes, se vienen dando episodios que configuran un patrón reconocible de presión a la prensa. Uno de ellos fue la subasta de frecuencias de radio y televisión que generó fuertes cuestionamientos por su posible impacto en el pluralismo informativo y el acceso equitativo al espectro radioeléctrico. A esto se suman incidentes donde periodistas de medios digitales, especializados en verificación de datos, fueron objeto de restricciones o tratos diferenciados durante conferencias de prensa del Ejecutivo. En estos casos, la Sala Constitucional reconoció que estas prácticas vulneraban el ejercicio libre del periodismo.

Otro suceso fue el retiro de pauta estatal a un medio de comunicación luego de la publicación de contenidos satíricos sobre el gobierno. Según el Informe Nacional sobre Prácticas de Derechos Humanos 2024 del Departamento de Estado de EE. UU., se indica que la acción configuró una forma indirecta de sanción económica.

Esta rotura está teniendo repercusiones concretas en la percepción social y en las prácticas comunicativas de la ciudadanía. Los datos de la III Encuesta sobre Libertad de Expresión (Proledi-UCR 2025) revelan que más de la mitad de la población percibe un deterioro en su libertad de expresión y declara haber evitado expresar opiniones en redes sociales por temor a represalias o consecuencias. La percepción de censura y autocensura está en los niveles máximos de los últimos tres años, marcando el pulso de un entorno en el que internet y las plataformas digitales se convierten tanto en espacios esenciales de discusión como en territorios de riesgo para quienes discrepamos o criticamos al poder.

Costa Rica atrapada en la ola autoritaria

Las recientes elecciones del 1 de febrero marcaron un punto de inflexión en la política costarricense. La candidata oficialista Laura Fernández (aliada política y exministra de Chaves) logró una victoria en primera vuelta con alrededor del 51% de los sufragios, superando al principal contendiente de la oposición y evitando la segunda ronda.

Más allá del resultado de la votación, lo que preocupa es la consolidación de un clima político que debilita los contrapesos democráticos. La normalización del ataque a la prensa, la deslegitimación sistemática de voces críticas y la construcción de enemigos internos son rasgos ampliamente documentados en procesos de autoritarismo en la región. Que estas prácticas encuentren respaldo electoral en Costa Rica marca un quiebre en el país.

Sin equipararse aún a los escenarios más extremos, el gobierno costarricense comienza a reproducir patrones conocidos en los países centroamericanos. Desde Derechos Digitales lo hemos alertado. En el caso de El Salvador, por ejemplo, se dieron exilios masivos de periodistas y organizaciones de la sociedad civil en 2025, una situación que resuena más allá de sus fronteras y evidencia la fragilidad de la libertad de expresión cuando se normalizan narrativas de control por encima del debate crítico. En Honduras o Nicaragua, los medios enfrentan no solo presiones económicas y legales sino amenazas directas, lo que pone en perspectiva la preocupación costarricense como parte de un denominador común más amplio en la región.

El informe de la Fundación Heinrich Böll sobre libertad de expresión en Centroamérica evidencia que Guatemala, Honduras, El Salvador y Nicaragua ocupan posiciones muy bajas en los índices internacionales, reflejando contextos donde censura, criminalización del periodismo y violencia contra comunicadores son fenómenos recurrentes, y donde muchas veces no queda medio independiente alguno.

El escenario electoral de 2026 consolidó prácticas y narrativas que proyectan sus efectos más allá del ciclo electoral.

Derechos reconocidos, protecciones insuficientes

En términos generales, la libertad de expresión y de prensa en Costa Rica cuenta con una protección normativa robusta. La Constitución Política reconoce el derecho a la libre comunicación del pensamiento sin censura previa y prohíbe cualquier forma de restricción indirecta. A ello se suma la adhesión del país a instrumentos internacionales como la Convención Americana sobre Derechos Humanos y la Declaración de Principios sobre Libertad de Expresión, que obligan al Estado no solo a abstenerse de censurar, sino a garantizar condiciones efectivas para su ejercicio libre y seguro.

Sin embargo, esta solidez no se traduce en un desarrollo legislativo integral que permita enfrentar los desafíos contemporáneos. Como se evidenció en los casos registrados anteriormente, el rol de la Sala Constitucional fue clave para contener algunas de las amenazas más evidentes. Estos fallos funcionaron como un contrapeso institucional frente a decisiones administrativas y prácticas gubernamentales que, de otro modo, habrían consolidado restricciones indirectas al ejercicio periodístico. Pero el rol de la Sala Constitucional como principal barrera de protección también evidencia que se depende cada vez más de la judicialización posterior, y no de políticas públicas preventivas.

A las alertas señaladas, se suma la evaluación de la Sociedad Interamericana de Prensa (SIP), que en 2025 señaló la existencia de un “ambiente de creciente deterioro de la libertad de expresión” en Costa Rica, marcado por el hostigamiento en redes sociales a personas críticas del gobierno y por el uso discrecional de recursos públicos como la pauta oficial. Estas prácticas, aun cuando no constituyen censura directa, generan un efecto inhibidor para la autoexpresión.

Diversas organizaciones de la sociedad civil vienen planteando una advertencia: el marco legal costarricense resulta insuficiente para abordar la violencia digital. Informes como Freedom on the Net 2024 subrayan que, las referencias a internet se resuelven caso por caso a partir de derechos tradicionales, sin una tipificación clara ni mecanismos procesales adecuados para enfrentar violencias en plataformas digitales, lo que deja amplios márgenes de impunidad y desprotección.

Esta brecha entre el reconocimiento normativo y la protección efectiva fue documentada también por otras organizaciones especializadas. El informe Libertad de Expresión en Costa Rica 2024 de la Universidad para la Paz advierte que las agresiones al ejercicio periodístico se reproducen y amplifican en entornos digitales, donde se organizan campañas de descrédito, se normaliza la intimidación y no se dan las condiciones para un debate público libre. En una línea complementaria, el Informe Alternativo del Examen Periódico Universal (EPU), elaborado por Sulá Batsú y CEJIL, señala un aumento sostenido de violencia digital de género y ataques de odio en línea dirigidos particularmente a mujeres periodistas y defensoras.

Sobre este tema, el trabajo de Derechos Digitales refuerza que estas dinámicas afectan de manera diferenciada a mujeres y personas LGBTIQA+, ya que restringe la participación pública y reproduce desigualdades estructurales en el entorno digital. Recientemente, junto al Fondo de Población de las Naciones Unidas (UNFPA), se propusieron principios orientadores para reformas legislativas y políticas públicas, que apuntan a transformar no solo el reconocimiento normativo, sino también las capacidades estatales y sociales necesarias para proteger y garantizar la libertad de expresión en espacios digitales de forma efectiva y con perspectiva de derechos humanos.

Fortalecer la libertad de expresión en medio de la erosión democrática

En América Latina, el debilitamiento de la libertad de expresión se convirtió en una de las primeras señales de tendencia autoritaria, la experiencia en nuestros territorios demuestra que su desgaste rara vez comienza con censura directa. Costa Rica todavía cuenta con instituciones, estándares y capacidades para revertirlo, pero esa ventana no es indefinida.

Asumir que la libertad de expresión está garantizada por inercia es uno de los riesgos más altos del momento actual. Para fortalecerla no basta con invocar la tradición democrática ni confiar exclusivamente en la fortaleza institucional heredada.

Implica asumir responsabilidades concretas: actualizar el marco legal para enfrentar violencias digitales sin criminalizar la expresión, establecer reglas claras y transparentes para la comunicación estatal, garantizar mecanismos efectivos de protección a periodistas y personas comunicadoras, y reconocer que las plataformas digitales son hoy infraestructuras políticas que requieren regulación con enfoque de derechos humanos.

WhatsApp y la Unión Europea: ¿Descentralización de las comunicaciones digitales?

A diario nos comunicamos a través de WhatsApp: compartimos conversaciones con ex compañeros de colegio, decidimos sobre asuntos familiares y profesionales, vivimos el romance; muchas alegrías y tristezas suceden en esta plataforma. Casi todas las personas con un teléfono inteligente en América Latina utilizamos WhatsApp y somos más de 3 mil millones personas en el mundo.

Es así como Meta, dueña de WhatsApp, es responsable de las comunicaciones de gran parte del planeta. Es decir, una caída técnica, una prohibición de funcionamiento o un conflicto empresarial pueden tener consecuencias globales. Algo que ya ocurrió en el pasado y sobre lo cual reflexionamos en su momento.

Desde un punto de vista tecnopolítico, existe un problema de concentración de poder. Nuestras conversaciones fluyen a través de una de las aplicaciones de Meta. Si bien se supone que WhatsApp usa cifrado extremo a extremo, ya solo usar la aplicación implica entregarle nuestros metadatos. Esto quiere decir que nuestros contactos, con qué frecuencia hablamos con ellos, desde dónde y a qué hora, además de gran cantidad de información adicional, es recolectada por Meta por el simple hecho de usar sus servicios.

La concentración de poder no solo tiene implicancias en materia de privacidad. Por ejemplo, una aplicación de la cual dependen buena parte de las comunicaciones de la población podría verse amenazada por un conflicto geopolítico. Es decir, esta dependencia convierte a una herramienta de comunicación en un arma para el conflicto entre Estados.

A raíz de las revelaciones de Snowden, desde 2013 sabemos que EE. UU. utiliza las plataformas digitales de empresas estadounidenses para espiar las comunicaciones globales. Los embargos económicos de EE. UU. también implican restricciones en la adquisición de software a países como Cuba, Irán y Siria. Con estos antecedentes, cabe preguntarse: ¿qué pasaría si EE. UU. entrara en guerra con Europa a causa de Groenlandia? ¿WhatsApp funcionaría sin problemas para las personas europeas?

Este tipo de escenarios plantean preocupaciones globales que no son nuevas: desde distintas regiones y Estados del mundo existen múltiples intentos para tensionar la concentración económica, de datos y de poder en el entorno digital. En el caso de la Unión Europea (UE), tomaron la decisión de regular las plataformas digitales buscando establecer criterios y límites claros por medio de la Ley de Mercados Digitales (DMA por sus siglas en inglés).

Descentralizar la mensajería por ley

Los aspectos de concentración de poder, soberanía digital y privacidad, motivaron a la UE a crear la Ley DMA. Esta normativa busca regular a las empresas que dominan el mercado digital, denominadas en la legislación como “guardianes de acceso” (gatekeepers en inglés), para evitar abusos de poder, prácticas anticompetitivas y garantizar la interoperabilidad con plataformas más pequeñas. WhatsApp (Meta) fue designada como “gatekeeper” en 2023, entre otros motivos por tener más de 45 millones de personas usuarias activas al mes dentro de la UE. Esta condición le obliga a cumplir con los requisitos de la DMA, incluyendo la obligación de poder interoperar con plataformas más pequeñas.

La expectativa de una legislación de estas características es ambiciosa: permitir a las personas conversaciones a través de distintos servicios conectados. La consecuencia debería ser que quienes utilizan aplicaciones como Signal, Telegram, o plataformas europeas como Threema o Wire, se puedan comunicar con aquellas que tienen WhatsApp.

Sin embargo, la implementación conlleva una paradoja. La forma en la que está redactada la ley obliga a la plataforma que se quiere regular a que defina las reglas técnicas mediante las cuáles interactuaría con otras aplicaciones. La legislación estableció que hasta marzo de 2024, WhatsApp debía definir e implementar un plan para interactuar con otras plataformas. A fines de 2025, WhatsApp comenzó a interoperar con otras aplicaciones, pero solo con dos: Haiket y BirdyChat, recientemente creadas, y de las cuales se sabe muy poco.

Aplicaciones como Signal o Threema se oponen a la interoperatividad planteada por la DMA. Las dos empresas sostienen que su enfoque en favor de la privacidad y seguridad podría verse vulnerado al interactuar con otros proveedores ya que, de esta manera, no pueden asegurar el cuidado de los datos cuando pasan a manos de proveedores como WhatsApp. Al ser aplicaciones con bases de usuarios más pequeñas que WhatsApp, no son vistas como “guardianes de acceso” y por lo tanto no tienen obligación de cumplir con la DMA.

La ley podría así lograr que WhatsApp se conecte con aplicaciones irrelevantes, mientras que sus competidores más sólidos se mantienen al margen, dejando su dominio prácticamente intacto.

Los estándares abiertos y la idea de federación

Lo que la UE quiere hacer con WhatsApp es muy parecido a lo que se conoce como federación: un sistema donde plataformas independientes pueden comunicarse entre sí usando estándares abiertos. Un ejemplo es el correo electrónico: las personas que usan Gmail pueden comunicarse con otras que utilizan casillas de Outlook, Protonmail u otro proveedor. Si bien Gmail, con 1800 millones de usuarios, es un actor dominante en el terreno del correo electrónico, no es quien pone las reglas sobre las cuales se comunican los otros proveedores. Esto es posible gracias a protocolos consensuados como el “Protocolo Simple de Transferencia de Correo” (SMTP en inglés), sin la necesidad de intervención estatal.

Hay una diferencia clave: el correo electrónico surgió de la colaboración voluntaria entre desarrolladores que construyeron internet, acordando reglas para un sistema de correspondencia digital asincrónico y federado que previamente no existía.

Siguiendo la tradición de estándares federados, a inicios de este siglo surgió el “Protocolo extensible de mensajería y comunicación de presencia” (XMPP en inglés), inspirado en el servicio de correo electrónico donde las cuentas son del tipo usuario@dominio.com. Se trata de un protocolo conocido y utilizado por comunidades como las del software libre. Hasta 2013, Google Talk, el chat de Gmail en ese momento, implementaba este mecanismo mediante el cual una cuenta de Gmail podía comunicarse con cuentas de chat alojadas en servidores más pequeños y diversos.

Curiosamente, WhatsApp utiliza una versión modificada de XMPP conocida como FunXMPPque está optimizada para las necesidades de la aplicación y que además desactiva las funcionalidades de federación.

De todas formas, XMPP no es la única opción para comunicaciones de chat federadas. En 2014 se empezó a construir el protocolo Matrix con características similares a XMPP, pero con el cifrado extremo a extremo desarrollado como parte fundamental del protocolo, con el fin de cuidar su seguridad. En la actualidad, en Derechos Digitales utilizamos este estándar como la base de nuestra oficina virtual en un servidor manejado por nuestro equipo técnico. Incluso nos podemos comunicar con otras organizaciones que también van por el mismo camino: la apropiación de nuestras comunicaciones.

XMPP y Matrix no son protocolos perfectos y tienen muchos aspectos por mejorar. El primero tuvo un desarrollo lento y el soporte de chat cifrado entre extremos no fue adoptado por todos los servidores y clientes. Matrix resuelve el problema de cifrado extremo a extremo, pero también podría mejorar para establecerse como un estándar oficial. Igualmente, estos aspectos no opacan su relevancia como protocolos abiertos que sostienen el espíritu de la comunicación descentralizada y abierta que caracteriza a internet.

Fortalecer protocolos y estándares para una soberanía tecnológica

El intento de la UE apunta a fortalecer una internet más descentralizada y con menos concentración de poder en pocas empresas. Más allá de una perspectiva política, la apuesta refleja preocupaciones técnicas profundas sobre la resiliencia de las comunicaciones digitales a través de la independencia tecnológica, el cifrado y la interoperabilidad. Si bien representa un avance significativo, aún quedan dudas sobre la estrategia de dar el control sobre la forma de federarse a las aplicaciones que se quieren regular.

Por otro lado, las soluciones basadas en estándares abiertos, como XMPP y Matrix, ayudan a poner las mismas reglas para todas las aplicaciones que implementan el estándar. Es decir, en lugar de que WhatsApp defina cómo se comunica con el resto, el estándar abierto define las reglas por las que todas las partes se comunican entre sí. De esta manera, no se le da un poder especial a la aplicación que se pretende regular, similar a lo que sucede con el correo electrónico y Gmail.

Moverse a un sistema federado tiene ventajas como la independencia de proveedor, eliminar un único punto de fallo y la posibilidad de tener infraestructura propia para nuestras comunicaciones. También nos presenta retos: los organismos de estandarización técnicos deben acordar las actualizaciones de los estándares a futuro.

En América Latina, nuestros gobiernos ni se asoman a este tipo de discusiones, y somos pocas las comunidades que estamos reflexionando sobre estos temas. Sin embargo, los estándares abiertos están disponibles, y si organizaciones como Derechos Digitales pueden tener su propio servidor de chat federado, seguramente muchas otras también puedan emprender el mismo camino hacia una soberanía tecnológica cada vez mayor.

Chile en WSIS+20: expectativas altas, resultados moderados

En la Cumbre Mundial de la Sociedad de la Información (WSIS por sus siglas en inglés), que concluyó en diciembre pasado, países de la región como Chile tuvieron un rol notable en el proceso de negociación. Recordemos que la Cumbre buscó revisar los acuerdos pactados en 2015 que giraron en torno a la gobernanza de las tecnologías digitales, centrada entonces en las personas y enfocada en el desarrollo sostenible, la lucha contra la desigualdad y el cierre de la brecha digital, entre otros.

La revisión de los 20 años de la primera WSIS finalizó en 2025 con una resolución aprobada por la Asamblea General de las Naciones Unidas. Un documento que, en pocas palabras, apenas si mantuvo aspectos mínimos de los acuerdos pasados, en lugar de avanzar hacia compromisos urgentes como, por ejemplo, reconocer y fortalecer la rendición de cuentas del sector privado, introducir mayores salvaguardas y garantías en relación con el despliegue y desarrollo de la inteligencia artificial e incluso considerar moratorias frente a los usos problemáticos.

Chile: expectativas y resultados del proceso de negociación

En ese proceso de negociación multilateral, que fue complejo y estuvo lleno de tensiones dadas por el escenario geopolítico actual, Chile participó a través del G77 + China y por su propia cuenta, movilizando cuatro prioridades: conservar compromisos en materia de desarrollo, la renovación del Foro de Gobernanza de Internet (IGF) y la continuidad del modelo de múltiples partes interesadas, conservar los acuerdos preexistentes en materia de derechos humanos, y explicitar esfuerzos enfocados en la equidad de género.

Estas prioridades están dadas por la agenda internacional desplegada por Chile en los últimos años. Desde 2024, el país lidera la agenda del desarrollo con la copresidencia del ODS 4, enfocado en la equidad en la educación. A nivel regional, ha sido vocal con el fortalecimiento del IGF así como con el robustecimiento del modelo de múltiples partes interesadas para mejorar la gobernanza de internet. Y de manera consistente, en la última revisión de la WSIS que tuvo lugar en 2015, defendió acuerdos de derechos humanos, en especial en libertad de expresión y privacidad. Más recientemente, las relaciones internacionales del país se han enfocado en defender la política externa de género en los espacios multilaterales, que ha resonado en foros como la Comisión de la Condición Jurídica y Social de la Mujer (CSW por sus siglas en inglés), o las negociaciones del Pacto Digital Mundial.

En materia de desarrollo

En las negociaciones sobre desarrollo, Chile apoyó por su cuenta y en el marco del G77 + China, que se mantuvieran referencias a la Agenda 2030 de Desarrollo Sostenible que, para países como Estados Unidos, debían ser eliminadas junto a las referencias sobre derechos humanos, en aras de la brevedad y concisión de la resolución final. Dicha vinculación es crucial porque la Cumbre apunta a la realización de la Agenda a través de la gobernanza de las tecnologías digitales. La eliminación de dicha referencia hubiera dejado sin sus bases fundacionales a la Cumbre.

La resolución, en efecto, mantuvo algunas referencias a la Agenda 2030. Por ejemplo, al señalar que el cierre de la brecha digital debe enfocarse en la realización de los Objetivos de Desarrollo Sostenible ODS (párrafo 25), se debe garantizar coherencia en la aplicación de los resultados de la Cumbre con los ODS (párrafo 106), y se debe buscar alinear estrechamente la realización de las Líneas de Acción (ejes críticos de la Cumbre) con la Agenda 2030 (párrafo 111). También, encarga a los organismos de las Naciones Unidas a cargo de operacionalizar su implementación de cara a los ODS (párrafo 122), entre otros.

El IGF y el modelo de múltiples partes interesadas

En materia de renovación del IGF, el G77 + China abogó por la permanencia de su mandato. Aunque perfectible, es un foro crítico cuyo mandato, según el G77 + China, debía ser fortalecido a través de una mejor estructura, financiamiento para su realización, y por sobre todo, a través de una más amplia participación de países del Sur Global.

Sobre el modelo de múltiples partes interesadas, el G77 + China apuntó en el mismo sentido, a integrar en los procesos de negociación referencias enfocadas en estructurar, transparentar y mejorar la participación de partes interesadas, en especial de los países en vía de desarrollo.

La resolución final de la Cumbre, hizo permanente el mandato del IGF y enmarcó su funcionamiento futuro dentro de los procedimientos presupuestarios de la ONU, llamando a garantizar una financiación estable y sostenible (párrafo 96-103). También, hizo referencia a otros foros de múltiples partes interesadas (como los lineamientos de NETMundial+10) como una referencia útil y aspiracional en la realización de dicho modelo que, según la resolución, debe continuar en el centro de la gobernanza de internet (párrafo 91 a 94).

Que la resolución final de la Cumbre mencionara nuevamente la centralidad del modelo de múltiples partes en la gobernanza de las tecnologías digitales no es menor. En esta reciente negociación, hubo Estados -como China o Rusia- que presionaron, de hecho, por dar mayor centralidad a otros modelos de gobernanza basados en un rol más intenso del multilateralismo, que se centra en los Estados como los actores más importantes. Que se conservara y afirmara la importancia del modelo de múltiples partes es un logro que no es menor, aunque su inclusión se hizo sin reconocer las limitaciones que enfrenta en el marco del escenario geopolítico actual donde las relaciones estatales enfrentan serias tensiones y donde la participación de la sociedad civil en la esfera internacional enfrenta serias amenazas y riesgos.

Derechos humanos

Desde la primera Cumbre, la agenda de derechos humanos fue insertada de manera transversal en la idea misma de la gobernanza de internet. En la Agenda de Túnez y el Plan de Acción de Ginebra, constan referencias a los derechos humanos, y derechos como la libertad de expresión y la privacidad. En la negociación de la Cumbre, Chile enfocó por su cuenta esfuerzos dedicados a la conservación de los acuerdos ya pactados, que países como Estados Unidos buscaron erosionar bajo argumentos de concisión del texto final de la conversación.

Al final, sí se hizo mención explícita a los derechos humanos que figuran en la resolución aprobada en diciembre de 2025 (párrafos 8-78), pero hay omisiones que brillaron por su ausencia, como el impacto de la plataformización en el mundo del trabajo y los derechos de los trabajadores, o el tono debilitado que recibieron los compromisos y responsabilidades del sector privado que, con sus tecnologías y modelos de negocio, impactan profundamente en el ejercicio de derechos.

Equidad de género

Chile, por su cuenta, movilizó el reconocimiento expreso de la violencia de género facilitada por las tecnologías digitales, en concreto, en el párrafo 11 de la futura resolución.. La resolución final reconoció en dicho párrafo la transversalización de la perspectiva de género, la brecha digital de género, y contempló el fenómeno de la violencia sexual y de género, aunque su lenguaje se enfocó exclusivamente en la protección de mujeres y niñas, excluyendo a colectivos LGBTIQA+ del texto.

El giro de Chile a la ultraderecha: ¿tendrá eco la Cumbre en la agenda local?

En diciembre de 2025 Chile eligió su primer gobierno de ultraderecha desde el retorno de la democracia. Analistas locales señalan que la política exterior del gobierno electo permanece aún en la incógnita pues fue un tema excluido de manera deliberada de los temas centrales de la campaña electoral. A la fecha, según distintos expertos, la política exterior chilena ha estado marcada por “líneas históricas” antes que por intereses ideológicos que mudan con cada nuevo gobierno. Es decir, se ha caracterizado por su continuidad, respeto al derecho internacional, y una “diplomacia profesional, sobria y previsible”, por lo que se espera que esto permanezca así durante la futura toma de posesión del nuevo presidente, José Antonio Kast.

Bajo esa perspectiva, se podría esperar que Chile mantenga su respaldo a los compromisos gruesos pactados en la WSIS que concluyó en 2025. Sin embargo, emergen dudas serias sobre el apoyo específico a objetivos como los que fueron trazados en el párrafo 11 de la resolución final, enfocada en materia de género, pues el presidente electo ha afirmado en diversas ocasiones que se debe desterrar la ideología de género de las políticas de protección de la mujer. En el pasado, de hecho, se opuso a la Ley de Identidad de Género, y hasta promovió acciones judiciales en contra de políticas afirmativas en materia de salud sexual y reproductiva.

Por ahora, es incierta la resonancia que tendrán los objetivos y metas de la WSIS en las políticas locales enfocadas en la gobernanza de internet y otras tecnologías digitales, en especial, las metas enfocadas en la erradicación de la violencia de género basada en las tecnologías. Tampoco existe claridad sobre cómo se dará en la práctica la participación de la ciudadanía y sociedad civil interesada en incidir en dichas políticas públicas.

Por ahora, y hasta que se posicione el presidente electo en el mes de marzo de 2026, hay que observar con atención el perfil y enfoques de las personas que estarán a cargo del Ministerio de la Igualdad, del Ministerio de Transporte y Telecomunicaciones, y del Ministerio de Relaciones Exteriores, centrales en la articulación de la política digital y económica internacional, y la política digital local.

Protección de datos en América Latina: avances, tensiones y desafíos pendientes

El 28 de enero es reconocido a nivel mundial como el Día de la Protección de Datos. La fecha fue establecida en 2006 por el Consejo de Europa y remite al día en que se firmó, en 1981, la Convención 108: el primer tratado internacional jurídicamente vinculante para Europa sobre la protección de datos personales y el tratamiento automatizado de información. La efeméride conmemorativa se inscribe, por lo tanto, en una tradición europea de regulación de la privacidad y la protección de datos, que ha influido en múltiples marcos normativos en todo el mundo y busca destacar la importancia de garantizar esos derechos fundamentales en un contexto de uso creciente de tecnologías digitales.

Aunque las nociones de privacidad y de protección de datos están estrechamente relacionadas, no son sinónimos. La primera se refiere a un derecho amplio a la intimidad y a la autonomía personal, clásicamente definido como el “derecho a no ser molestado”; mientras que la segunda articula un conjunto de normas y prácticas sobre cómo se recolectan, procesan y protegen los datos que identifican o tienen el potencial de identificar a una persona. En ese sentido, el 28 de enero no solo celebra un derecho individual abstracto, sino una tradición normativa que busca colectivizar ese derecho y traducirlo en obligaciones y mecanismos concretos, cuya efectividad depende de instituciones específicas.

En América Latina, esta fecha implica reflexionar no solo sobre los avances legales, sino también sobre las tensiones entre teoría y práctica en contextos sociales, institucionales y políticos específicos que difieren, en muchos sentidos, de los europeos.

Los avances legales

La privacidad es un derecho reconocido en las constituciones y leyes de la gran mayoría de los países. En consonancia con este reconocimiento, durante la última década América Latina avanzó en la aprobación de leyes de protección de datos personales, en procesos legislativos fuertemente influidos por la experiencia europea, en particular por el Reglamento General de Protección de Datos (GDPR).

Estas normas surgen en un contexto marcado por el uso -cada vez más intensivo- de datos por parte de las empresas privadas, cuya presencia en la vida cotidiana de las personas es cada vez mayor y más profunda. A este escenario se suma la creciente digitalización de los Estados, que dependen principalmente de la recolección y el tratamiento de datos personales para diseñar e implementar políticas públicas. En este punto, además, emerge una tensión fundamental: si bien el uso de datos puede ser una herramienta legítima para la acción estatal, su utilización sin salvaguardas adecuadas por parte de las instituciones públicas puede abrir la puerta a prácticas de vigilancia y a vulneraciones de derechos. En ausencia de reglas claras y límites efectivos, las personas quedan en una situación de especial vulnerabilidad.

Es precisamente desde este escenario que deben leerse los avances legislativos recientes en la región, que avanzan con ritmos distintos. Mientras todavía hay países como Honduras, Bolivia y Guatemala, que aún no cuentan con marcos legales de protección de datos, otros van camino a sus primeros marcos normativos o a la actualización de los ya existentes. Así, a fines de 2025, Paraguay aprobó su ley de protección de datos personales tras un prolongado debate legislativo y una activa participación de la sociedad civil. En Chile, en cambio, se prevé para 2026 la entrada en vigencia de una nueva ley, aprobada en 2024.

Estos avances confirman un progreso sostenido en el plano legal y merecen ser celebrados. Sin embargo, es clave no perder de vista lo esencial: la mera existencia de leyes no garantiza derechos si éstas no son proporcionales ni estén alineadas con estándares internacionales de protección de derechos humanos. La experiencia reciente muestra que algunas regulaciones pueden incluso profundizar riesgos, como ocurre en El Salvador, cuya legislación fue objeto de denuncias por sus impactos negativos sobre la libertad de expresión y de prensa. Algo similar se observa en Paraguay, donde la nueva ley -aún siendo resultado de un proceso con activa participación de la sociedad civil- también fue objeto de críticas por incorporar mecanismos que pueden convertirse en obstáculos sistemáticos a la transparencia, limitando el acceso a información de interés público, particularmente en lo que respecta a la contratación pública, los funcionarios públicos y el gasto de fondos públicos.

Asimismo, una pregunta central continúa abierta: ¿hasta qué punto estos marcos normativos, muchas veces importados de modelos regulatorios externos, logran traducirse en transformaciones efectivas que respondan a los contextos y realidades de los países de América Latina?

El mercado ilegal de datos como síntoma

Una investigación de Derechos Digitales que será publicada próximamente documenta el funcionamiento de grupos y canales de Telegram que operan en distintos países de América Latina dedicados a la compra y venta ilegal de datos personales. Direcciones, números de teléfono, filiación, información de salud y otros datos sensibles circulan en estos espacios.

La existencia de esta economía ilegal de manera organizada, activa y transnacional resulta profundamente preocupante, pero también reveladora. Más que un fenómeno aislado, pone en evidencia las brechas entre los marcos de protección de datos y su aplicación práctica. La persistencia de estos mercados demuestra que los datos personales se recolectan, circulan y se monetizan mucho antes de que las personas puedan ejercer sus derechos, presentar reclamos o incluso tomar conocimiento de la situación.

Es decir, más que una falla puntual, estos mercados ilegales revelan un problema estructural. La protección de datos aún no logra operar como un límite efectivo frente a dinámicas económicas y sociales que convierten la información personal en una mercancía. Comprender esta brecha entre norma y práctica resulta clave no solo para evaluar el alcance real de estos marcos, sino también para pensar cómo fortalecerlos y hacerlos avanzar en la práctica.

Una protección construida sobre bases desiguales

Como ya se mencionó, muchas de las leyes de protección de datos en América Latina están fuertemente inspiradas en el modelo europeo, concebido a partir de trayectorias históricas, institucionales y socioeconómicas distintas a las de nuestra región. Esta traslación normativa suele darse sin una adecuación suficiente a los contextos locales, marcados por profundas desigualdades sociales, inestabilidades políticas y democráticas, y bajos niveles de capacidad institucional. Si bien la protección de datos por definición ya parte de una asimetría estructural entre quienes tratan datos personales y las personas titulares de los mismos, esta brecha se intensifica en una región donde amplios sectores de la población no tienen acceso a la alfabetización digital y de datos.

Esta situación plantea interrogantes especialmente relevantes en torno al consentimiento, una base legal central en muchas legislaciones de protección de datos. Para que el consentimiento sea verdaderamente libre e informado, las personas deben poder comprender y evaluar de manera efectiva todas las implicancias del tratamiento de sus datos. Sin embargo, es importante destacar que se trata de un concepto estructuralmente frágil en contextos atravesados por relaciones de poder, incluso más allá de la protección de datos, como ocurre en casos de violencia de género y culturas de normalización del abuso.

A estos desafíos se suman debilidades institucionales persistentes. La existencia de leyes no garantiza, por sí sola, su aplicación efectiva. En algunos países de América Latina ni siquiera se constituyeron autoridades específicas para la supervisión y aplicación de normas de protección de datos -clave para garantizar la efectividad del derecho, fiscalizar a actores públicos y privados y ofrecer mecanismos de tutela a las personas titulares de los datos-, mientras que en otros se produjeron retrocesos significativos, como la reciente disolución del INAI en México. Incluso cuando estas autoridades existen, suelen enfrentar limitaciones sustantivas en términos de independencia, que afecta su capacidad de actuar frente a vulneraciones cometidas por el propio Estado, así como restricciones de recursos humanos y presupuestarias que comprometen su funcionamiento.

Por último, otra dimensión de esta fragilidad estructural se relaciona con la seguridad de la información. Organismos públicos, y otras entidades que concentran grandes volúmenes de datos personales, suelen enfrentar dificultades recurrentes para implementar políticas integrales de seguridad, prevenir accesos indebidos y responder adecuadamente a incidentes. Las filtraciones y exposiciones masivas de datos no son episodios aislados en América Latina, sino señales de una cultura institucional que aún no incorpora la protección de datos como un eje central de su funcionamiento.

Más allá de la conmemoración

En este contexto, el 28 de enero no puede reducirse a una fecha conmemorativa ni a una celebración acrítica de avances normativos. En América Latina, una región atravesada por profundas desigualdades pero también por una larga trayectoria de resistencia, organización social, disputa política y construcción de derechos, el Día Internacional de la Protección de Datos invita a una reflexión situada sobre la distancia persistente entre los marcos legales y las condiciones reales en las que los datos personales son recolectados, tratados y expuestos.

En este sentido, recordar el origen de esta fecha que nace anclada en una tradición europea de institucionalización de derechos, resulta relevante, no para reproducir modelos, sino para dialogar críticamente con ellos y construir respuestas propias desde nuestros contextos locales. La protección de datos adquiere pleno significado cuando logra traducirse en límites efectivos al poder estatal y privado, y en garantías concretas para las personas. Por ello, debe entenderse como parte de un proyecto más amplio de justicia digital y afirmación de derechos.

Infraestructura tecnológica en las organizaciones: una decisión por los derechos y la autonomía 

Desde hace años, la idea de soberanía tecnológica ocupa un lugar importante en las discusiones sobre gestión de datos, infraestructura y formas de compartir información. Para las organizaciones de la sociedad civil que trabajan en la defensa de los derechos humanos en un entorno digital cada vez más hostil, resulta un asunto de gran relevancia. Tener control sobre sus operaciones tecnológicas se vuelve urgente en un contexto digital atravesado por la vigilancia, la extracción masiva de datos y la concentración del poder en pocas empresas. No se trata solamente de eficiencia organizacional: es, ante todo, una cuestión política a atender.

Autonomía tecnológica como construcción organizacional

Hablar de soberanía tecnológica implica mirar con atención todo el recorrido que hacen los datos, incluso una acción aparentemente simple, como la carga de un archivo local hacia una nube propia, involucra múltiples capas de decisiones técnicas. Por eso, antes de afirmar que se tiene control o agencia sobre información, es necesario preguntarse por los distintos componentes que intervienen este proceso. Entre ellos están las herramientas que se utilizan, la infraestructura donde se alojan los datos (data centers) o las redes de telecomunicaciones que se usan. Analizar estas dimensiones no es un ejercicio teórico, sino una forma concreta de ejercer el poder institucional.

Conocer y saber cómo se guarda la información, quién puede acceder a ella, bajo qué condiciones legales y técnicas, y qué capacidades tiene quien la gestiona, son preguntas fundamentales. Para las organizaciones que trabajan con datos sensibles, por ejemplo información relacionada a víctimas, defensoras de derechos humanos y activistas, este control de la información puede marcar la diferencia entre la protección y el riesgo a la exposición.

En este sentido, adoptar prácticas como el cifrado de extremo a extremo, recomendado constantemente desde Derechos Digitales y promovido por organizaciones como la Electronic Frontier Foundation (EFF) y Access Now, contribuye a reducir riesgos en el acceso y la transferencia de información. Lo mismo ocurre con el uso de redes de anonimización como Tor, desarrollada y mantenida por The Tor Project, que permiten dificultar el rastreo del origen de las comunicaciones.

Si bien el cifrado de extremo a extremo no garantiza comunicaciones completamente seguras, su correcta gestión impide que personas no autorizadas puedan leer archivos o cadenas de datos sin las llaves necesarias. Estas medidas pueden aplicarse en diferentes momentos: desde la creación de los archivos hasta su almacenamiento. Si a esta práctica se le suman redes como Tor -que envían las cadenas de datos cifradas y de diferentes países-, se logra evitar aún más la posibilidad de seguimiento o identificación.

Empresas proveedoras, ética y políticas

Para responder a la demanda de servicios tecnológicos, las grandes compañías suelen ofrecer soluciones simples, escalables y de rápida implementación. Empresas como Amazon, Google o Microsoft concentran buena parte del mercado global de servicios de correo electrónico, almacenamiento o alojamiento en la nube, gestionando la mayoría del tráfico y de los datos del mundo.

Según el informe de la Cloud Infrastructure Services Providers in Europe (CISPE) y reportes de la industria del mercado global de la nube, esta concentración limita las posibilidades reales de gestionar infraestructuras de forma autónoma y, a su vez, mantiene el desarrollo de aquellos modelos centralizados que no se corresponden a las necesidades o a los valores de las organizaciones de derechos humanos. Sin embargo, este no es el único camino posible. Existen proveedores comerciales alternativos como cooperativas tecnológicas, o empresas con valor ético incluso, los cuales ofrecen servicios de alojamiento con políticas de privacidad más exigentes y compromisos para reducir el impacto sobre el medio ambiente, resguardando principios de sostenibilidad y responsabilidad social.

Pensar la infraestructura desde una perspectiva de derechos también implica considerar su huella ecológica. Algunos proveedores de infraestructuras destacan por su ética y su capacidad de ser sostenibles. Tal es el caso de OVHcloud, por citar uno de los más reconocidos, que ofrece el llamado hosting verde: data centers diseñados para minimizar el consumo de energía, utilizando fuentes renovables y mecanismos de eficiencia que contribuyen a disminuir la huella de carbono que genera el alojamiento web. Otro muy utilizado por su red de distribución de contenidos y su nivel de protección ante ataques es Cloudflare, que también se encuentra entre los servicios hosts eco-friendly con menor huella de energía del mundo.

Además, existen alternativas más especializadas y orientadas a la privacidad y sostenibilidad, como por ejemplo Greenhost y OrangeWebsite. Se caracterizan por sus niveles de compromiso con la protección de datos y el uso de energías renovables: algunos incluso permiten opciones de pago mediante criptomonedas, así como compatibilidad con servicios de redes de anonimato como Tor.

A ellas se suman proveedores de hosting ecológico como GreenGeeks, SiteGround o HostPapa, que utilizan energía renovable junto a -o bien a través de- estrategias de compensación de carbono, combinando rendimiento, sostenibilidad y valores. Este tipo de herramientas, además, permiten a las organizaciones desarrollar infraestructuras que no solamente protegen los datos, sino que, a la vez, van en concordancia con el compromiso de una internet más justa y sostenible.

Dificultades y casos de éxito

Optar por infraestructura propia o autogestionada presenta sus dificultades. La gestión de servidores, nombres de dominio, certificados de seguridad y sistemas de respaldo conlleva una carga de inversión económica y, sobre todo, técnica. Por un lado, es necesario contar con los equipamientos, y por otro, construir  alianzas estables que permitan garantizar mantenimiento, actualizaciones y respuesta ante incidentes. Sin embargo, esta inversión permite, en un mismo momento, desplegar un número importante de aplicaciones en un entorno controlado, dividir servicios mediante máquinas virtuales o contenedores, y gestionar pruebas de distintos niveles de usuario mediante un mismo servidor. Son prácticas comunes ya en comunidades de software libre y en experiencias de administración de sistemas que demuestran que la autogestión es posible.

Ante esta situación, algunas organizaciones de la sociedad civil ya vienen explorando estos caminos. Derechos Digitales, por ejemplo, viene impulsando análisis críticos y observatorios sobre el uso de tecnologías en políticas públicas, promoviendo mayor transparencia y trabajando en red con otras organizaciones de la región. Fundación Karisma, por su parte, incentiva la adopción de tecnologías de código abierto y defensivas en redes internacionales, y fomenta capacidades internas para identificar y responder a amenazas digitales.

Otras organizaciones como SocialTIC, combinan la capacitación y el acompañamiento estratégico en tecnologías seguras para agentes de cambio social, amplificando el uso de herramientas libres y métodos de protección digital entre colectivos y organizaciones de México y la región. Por otra parte, las iniciativas que provienen de las comunidades como Nodo50 en Europa, o los trabajos promovidos por la Open Knowledge Foundation fueron clave en el impulso de infraestructuras éticas y abiertas, con un fuerte compromiso en la autodeterminación tecnológica.

Un temor recurrente entre las organizaciones es que contar con infraestructura propia aumente su vulnerabilidad frente a ataques. Sin embargo, la experiencia de agrupaciones de seguridad informática y defensoras de derechos humanos señala que el nivel de vulnerabilidad no depende del lugar donde se aloja la información, sino de la matriz de riesgo de cada organización: su visibilidad pública, el marco político donde actúa, el tipo de información que trata, así como las medidas de protección que tiene adoptadas. Las infraestructuras organizacionales bien construidas, con protocolos claros de cuidado de los datos, actualizaciones constantes de los elementos, políticas de acceso restringido, entre otras características, podrían ser mucho más difíciles de vulnerar que aquellas soluciones externas mal construidas o utilizadas sin los criterios de seguridad necesarios.

Desde este punto de vista, la soberanía tecnológica no es una solución única ni un ideal abstracto. Es un proceso gradual, situado y profundamente político. Significa reconocer los límites, evaluar capacidades reales y tomar  decisiones poniendo en el centro a las personas y a la información que sostienen las luchas por los derechos humanos en línea. En un ecosistema digital sumamente desigual, avanzar hacia mayores niveles de control y autonomía tecnológica es también una forma de coherencia institucional y de defensa activa de los derechos que se buscan proteger.

Diversidad cultural bajo asedio algorítmico: folklorización, silenciamiento y colonización de nuestros patrimonios culturales

El diseño, entrenamiento y despliegue de tecnologías está transformando nuestras sociedades en los ámbitos económico, social y político. Sin embargo, este debate suele dejar en un segundo plano cómo la IA está reconfigurando los modos en que la cultura se crea, promueve, accede y experimenta, con implicaciones profundas para el ejercicio de los derechos culturales.

Estos derechos son fundamentales en tanto protegen el desarrollo y la manifestación de las identidades culturales, y garantizan que personas y comunidades puedan expresar sus cosmovisiones y los significados que atribuyen a su existencia. Esta expresión se materializa a través de formas diversas de la experiencia humana que incluyen las artes, el patrimonio cultural, las lenguas, los sistemas de conocimiento, las convicciones, las creencias religiosas, e incluso prácticas cotidianas como la alimentación y la vestimenta.

En otras publicaciones hemos analizado las implicancias de la IA para el campo de los derechos culturales, puntualmente para la creación artística y la creatividad. En esta columna, problematizaremos a la IA como producto de hegemonías culturales y, a la vez, como infraestructura tecnológica que condiciona los marcos en los que la cultura se produce, circula y valora socialmente. Partimos de la premisa de que cuando los sistemas de IA se entrenan con información cultural del Norte Global, así como bajo lógicas coloniales y extractivistas, los resultados sesgados y discriminatorios no son accidentales, sino que reflejan las dinámicas de inclusión y exclusión presentes en los datos de entrenamiento y en los procesos de diseño. Como consecuencia, las culturas, las lenguas, los conocimientos y las formas de expresión del Sur Global están constantemente ausentes o mal representadas en los contenidos asistidos o generados por esta tecnología.

Resaltaremos la importancia de proteger, hoy más que nunca, la soberanía y la autodeterminación de las comunidades de nuestra región sobre sus datos culturales. Algo imprescindible frente a la creciente expansión de sistemas de IA que tienden a producir una visión de la cultura homogénea, estandarizada y colonial. Los argumentos presentados a continuación están basados en una contribución conjunta presentada por Derechos Digitales y Asociación para el Progreso de las Comunicaciones (APC) ante el Mecanismo de expertos sobre el Derecho al Desarrollo de Naciones Unidas.

¿Cómo nos ven los grandes modelos de IA?

Diferentes investigaciones vienen señalando que los modelos de IA de las principales compañías tecnológicas no están diseñados para narrar con precisión aspectos culturales de los países del Sur Global. En algunos casos, esto se traduce en imprecisiones que reflejan desconocimiento y, en otros, en la reproducción de estereotipos e imaginarios simplificados que desdibujan la especificidad de identidades y expresiones culturales diversas.

Un claro ejemplo se observa en un estudio de la Universidad Diego Portales, en el que se generaron más de dos mil imágenes utilizando la herramienta Dall-E para analizar la percepción de los outputs de la IA sobre Chile y América Latina. Los resultados fueron desalentadores: la IA reproducía sesgos culturales, desigualdades, prejuicios, estereotipos de género y raciales. Así, al pedirle a la IA que generara imágenes a partir del prompt de «una mujer mapuche», los resultados mostraban a mujeres de cabello castaño, nariz respingada, ojos grandes y piel clara. Además, su vestimenta mezclaba elementos de diversos pueblos originarios de Latinoamérica y, en algunos casos, incluía plumas en la cabeza, algo característico de culturas indígenas norteamericanas.

Lo anterior refleja una problemática clara de la IA frente a la diversidad cultural: la mitificación, ficción y folklorización de las formas de expresión y las comunidades de regiones del Sur Global. A saber, las principales herramientas de IA amplifican ciertas estéticas y narrativas, mientras silencian y tergiversan otras, influyendo en cómo se representan las culturas en los entornos digitales y fuera de ellos. En esa medida, aquellas narrativas culturales alineadas con las normas dominantes -a menudo del Norte Global- son priorizadas, mientras que las expresiones e identidades de regiones pertenecientes al Sur Global están infrarrepresentadas o, peor aún, mal representadas.

Las implicaciones sociales y políticas de este escenario resultan preocupantes en el contexto tecno-político que vivimos. Estos sistemas -por su diseño y escala- no solo pueden profundizar jerarquías dominantes sino también generar nuevas formas de exclusión al promover la homogeneidad cultural y estética, con impactos directos en la diversidad cultural. Esto deteriora las condiciones del acceso y la transmisión de la cultura, a la vez que obstaculiza los esfuerzos de independencia, soberanía y autorrepresentación de comunidades históricamente marginalizadas, quienes continúan excluidas de las expresiones culturales dominantes.

Colonialismo digital extractivista

Otra problemática vinculada al diseño y entrenamiento de los grandes modelos de IA son las prácticas extractivistas y coloniales sobre los datos culturales de comunidades del Sur Global. En efecto, organismos internacionales de derechos humanos ya lo están advirtiendo: las empresas tecnológicas tratan los datos derivados de los patrimonios culturales como simples insumos para sus sistemas, despojándolos de los significados que les atribuyen las comunidades y sin beneficios reales para ellas.

Desde luego, los inventarios de datos que alimentan dichos sistemas rara vez se crean de forma participativa y transparente, o se rigen por marcos de derechos humanos con el fin de promover la diversidad cultural, comprenderla y protegerla. En contraste, lo que prevalece son prácticas de recopilación de datos culturales que priorizan el beneficio económico, normalmente sin consultar a las comunidades ni solicitar su consentimiento, y sin informarles sobre los objetivos de la recopilación.

Algunos estudios nombran esta postura extractivista como colonialismo digital. Se caracteriza por la construcción de un imperio algorítmico en el que los patrimonios culturales se convierten en materia prima de los sistemas de IA dominantes, extraídos de forma selectiva, descontextualizada, y sin favorecer realmente a las comunidades. Bajo esta lógica, al igual que las potencias coloniales extraen los recursos naturales de nuestras tierras, los grandes modelos de IA extraen idiomas, historias y conocimientos de las comunidades, los separan de su contexto y significado originales, y los vuelven a ofrecer de forma tergiversada para su consumo global.

Lo anterior no solo perpetúa la ya mencionada malrepresentación de las culturas y formas de expresión del Sur Global, sino que erosiona la autodeterminación cultural de las comunidades. El derecho a determinar libremente el desarrollo y destino de sus culturas fue señalado por organismos regionales de derechos humanos como un pilar fundamental para preservar las tradiciones y los sistemas de significado y conocimiento. Por tanto, la omisión y negativa de las empresas que controlan la infraestructura global de la IA frente a la capacidad de decisión de las comunidades sobre sus formas de expresión cultural, cómo, hasta qué punto y bajo qué términos se les incluye en los conjuntos de datos de entrenamiento, influye determinantemente en el ejercicio pleno de derechos fundamentales, como los culturales.

Soberanía sobre los datos culturales y el derecho a la autodeterminación cultural

Frente a este escenario, ya emergieron múltiples iniciativas de IA impulsadas por comunidades, academia y sociedad civil del Sur Global. A través de enfoques situados, disputan las lógicas dominantes del desarrollo de la IA, priorizando la programación y el diseño participativo, así como criterios de pluralidad y liderazgo de las comunidades.

Un ejemplo destacado es “AIkuaa”, una herramienta que permite transcribir a texto grabaciones de audio en guaraní, uno de los idiomas oficiales de Paraguay y una de las lenguas indígenas más habladas en América Latina. Según sus creadores, los modelos de lenguaje de gran tamaño (LLM) ampliaron la brecha digital, ya que lenguas como el guaraní se encuentran infrarrepresentadas debido a la falta de datos en su entrenamiento. Frente a esto, el objetivo es crear un repositorio de conocimiento abierto que permita que las organizaciones, la comunidad y los medios de comunicación puedan responder mejor a las audiencias que hablan guaraní. Como metodología, desarrollan “mingas de voces abiertas” -inspiradas en los espacios tradicionales de trabajo comunitario- para seleccionar y validar las frases en guaraní que enriquecen los conjuntos de datos públicos de voz.

Otro caso relevante es “AfroféminasGPT”, una herramienta diseñada para fortalecer el pensamiento afrofeminista y decolonial, con especial foco en las mujeres negras y personas racializadas. AfroféminasGPT no tiene acceso a Internet de forma deliberada, lo que implica que no incorpora información en tiempo real desde la web sino que opera a partir de una serie de textos y materiales que fueron cuidadosamente curados. Este elemento, lejos de ser una limitación técnica, constituye una elección ético-política que busca evitar la incorporación automática de narrativas dominantes y coloniales sobre las experiencias, saberes y luchas de comunidades negras y racializadas. En ese sentido, la herramienta se nutre de fuentes originales producidas desde perspectivas afrofeministas y decoloniales, con el objetivo de contrarrestar la producción de narrativas blanqueadas, tergiversadas o desinformadas.

En un escenario mundial en el que un número reducido de actores, como OpenAI, ChatGPT, Google Gemini, Meta AI y Microsoft Copilot, concentra el desarrollo de sistemas de IA que jerarquizan y visibilizan contenidos culturales, iniciativas como las anteriormente descritas adquieren una relevancia particular y permiten el acceso a contenidos culturales guiados por principios como la participación y la diversidad.

A lo largo de esta columna, hemos problematizado algunas implicaciones de la IA para la cultura, argumentando cómo las comunidades menos representadas en los sistemas de datos suelen ser también las más perjudicadas por sus decisiones y resultados estereotipados y sesgados. Este panorama pone de relieve la importancia de la soberanía sobre los datos culturales y el derecho a la autodeterminación cultural, dos principios fundamentales de herramientas contrahegemónicas de IA que fueron impulsadas por comunidades históricamente marginalizadas. Estas alternativas desafían el dominio de los gigantes tecnológicos y demuestran la urgencia de repensar y rediseñar la tecnología desde la riqueza cultural del Sur Global, asegurando que las iniciativas se construyan desde, y en respuesta a, los conocimientos y las necesidades culturales locales.

Retrospectiva 2025: Un año entre cierres y fracturas en la agenda de derechos humanos

Sobrevivir al 2025 significa haber sido testigo de importantes cierres de procesos en relación con lo digital para América Latina. A los escasos avances, y significativos retrocesos, en la agenda de protección de derechos, se sumaron tanto debates globales como sucesos en países del norte que trajeron más incertidumbre que esperanza a las sociedades latinoamericanas. El resurgimiento de una administración antiderechos en los EE. UU. y el ascenso al poder de sus aliados en el mundo, el genocidio perpetrado por Israel en Palestina y tragedias afines en la República Democrática del Congo y en Sudán, la continuidad de tensiones en el Caribe, en Camboya y en Ucrania, y la persistencia de una actitud apática a la crisis climática, dejan al 2025 como un año con escasas luces.

En ese contexto, la defensa de derechos en lo digital encuentra desafíos significativos. Pese al encomiable trabajo de incontables organizaciones y activistas en el mundo, seguimos contemplando el avance de tecnologías riesgosas, con fuerte apoyo de gobiernos, y la consolidación del poder de grandes empresas tecnológicas, poco o nada comprometidas con ejercer su responsabilidad de proteger y promover derechos humanos. Peor que eso, profundamente involucradas en los más graves crímenes contra la humanidad. Procesos legislativos y judiciales, negociaciones internacionales de dudoso propósito y disputas sobre aspectos fundamentales de la vida en sociedades digitalizadas, han sido campos de batalla para un trabajo arduo y necesario. Para Derechos Digitales no ha sido distinto.

Gobernanza digital global: más acuerdos, menos avances

Después de arduas negociaciones, el proceso de revisión por los 20 años de la Cumbre Mundial de la Sociedad de la Información concluyó con un informe recientemente aprobado, que reafirma el compromiso con un modelo de múltiples partes interesadas y establece que el Foro de Gobernanza de Internet (IGF) será permanente. Además, exhorta a cerrar brechas de acceso y prevenir los impactos adversos de la tecnología, incluida la violencia de género.

Aun cuando el resultado mantiene compromisos importantes, está lejos de ser un éxito rotundo para la sociedad civil y para la mayoría global en general. Muchas de las propuestas más ambiciosas quedaron fuera del texto, y la implementación del Pacto Digital Mundial (GDC) firmado en 2024 sigue sin herramientas vinculantes para los Estados.

Desde Derechos Digitales mantuvimos una presencia activa: facilitamos debates sobre soberanía digital y advertimos sobre los riesgos de suavizar compromisos con los derechos humanos, como parte de la Coalición Global de Derechos Digitales para la CMSI (GDRC-WSIS), dando cuenta -en detalle- de los riesgos y oportunidades perdidas de un proceso histórico desarrollado bajo condiciones adversas. Pero el resultado está a la vista y ya hay nuevos instrumentos para impulsar la gobernanza de internet. El desafío pendiente es convertir las declaraciones en políticas con participación real de la sociedad civil y con salvaguardas eficaces de derechos humanos.

Inteligencia artificial: regulación en disputa

Con la aplicación de la Ley de IA de la Unión Europea en febrero de 2025, las categorías de riesgo y las prohibiciones de “riesgo inaceptable” dejaron de ser teoría y se convirtieron en obligaciones para actores globales. Inspirado en este modelo, avanza lentamente en el Senado brasileño el proyecto de ley que introduce derechos para las personas afectadas por sistemas de IA, pero con aportes recientes poco transparentes al público y provenientes en buena parte del sector privado y no de la sociedad civil. El proyecto de IA en Chile también está en camino, pero no con la misma suerte: pasó de una cámara a otra perdiendo aspectos clave de su articulado original. Colombia avanza con una regulación integral después de muchísimos proyectos aislados, mientras que Perú publicó el reglamento de su pionera ley de IA. La región continúa con limitados avances en un contexto internacional que parece cambiar la dirección en los marcos de regulación de la IA a nivel global.

Mientras tanto, la geopolítica mostró pequeñas fisuras en la forma de enfrentar los desafíos de la IA sin dejar de privilegiar intereses estratégicos. Estados Unidos y el Reino Unido se rehusaron a firmar la declaración del AI Action Summit de París, y el gobierno estadounidense pidió abrazar la IA sin restricciones, derogando su encuadre normativo.

Desde Derechos Digitales insistimos en la defensa de tecnologías de IA que estén ancladas en un marco de derechos y equidad: sostuvimos una agenda de incidencia, producción de conocimiento y articulación regional que incluyó la participación activa en debates internacionales, incluyendo el AI Action Summit. Profundizamos la discusión sobre impactos concretos y exigencias normativas con materiales sobre riesgos y salvaguardas, por ejemplo en privacidad, y con investigación aplicada a instrumentos regulatorios emergentes como los sandboxes de IA. En el plano multilateral, actualmente presidimos la Red de Organizaciones de Sociedad Civil y Académicas sobre Ética y Políticas de IA de Unesco, tras años de acompañamiento y presión por mayor participación en los procesos derivados de la aprobación de su Recomendación sobre la Ética de la IA.

Seguimos produciendo evidencia sobre el uso de la IA en la región a partir de nuestra iniciativa “IA & Inclusión en América Latina” y de contribuciones calificadas a procesos de consulta, buscando fortalecer debates informados sobre el tema a nivel nacional, regional y global, mientras nos preparamos para el lanzamiento de la segunda edición del curso de formación sobre IA y derechos humanos para personas funcionarias del Estado. Además, realizamos conversaciones con actores clave a nivel regional sobre como implementar políticas transformadoraspara la IA que apunten a la equidad de género.

Libertad de expresión en la encrucijada regulatoria

El año estuvo marcado por proyectos legislativos que buscan regular el comportamiento de las plataformas digitales y asegurar garantías procesales para sus usuarios. En abril, el Ejecutivo dominicano ingresó al Senado un proyecto de ley de regulación de medios que reconoce la libertad de expresión sin censura previa en cualquier medio, consagra la neutralidad de la red, exige que plataformas con más del 10% de usuarios nacionales tengan representación legal en el país y garantiza el debido proceso para la moderación de contenidos, pero con artículos cuestionados como formas indirectas de facilitar la censura. Por su parte, el Congreso peruano discutió en noviembre un proyecto de ley que propone licencias y certificación obligatoria para creadores de contenido digital y sanciones administrativas por difundir información considerada falsa. Organizaciones como Hiperderecho sostienen que estas exigencias equivalen a una autorización previa prohibida por la Constitución, discriminan a comunicadores digitales y generan un clima de autocensura. Los avances de estas y otras iniciativas en la región serán objeto de especial atención el próximo año, en vista de la prioridad que se da a las comunicaciones digitales en estos intentos regulatorios y al trámite aún en curso de otros proyectos en la región.

En tanto, a pesar del acecho sobre la expresión en línea de las últimas décadas, algunos desarrollos jurisprudenciales parecen ir en el sentido correcto respecto al rol de las plataformas. La Corte Constitucional colombiana dictó en junio un fallo que protegió los derechos de una influencer, ordenando a Meta restablecer su cuenta y garantizar mecanismos de notificación y apelación. En Chile, la Corte Suprema rechazó en octubre una solicitud de “derecho al olvido” y afirmó que borrar o desindexar artículos periodísticos veraces de interés público sería censura, consolidando la idea de que la libertad de expresión prevalece por sobre la reputación de quienes protagonizan noticias de interés público.

Pero algunas de las peores muestras de autoritarismo también tuvieron lugar este año. En Panamá, el gobierno suspendió los servicios de comunicaciones en la provincia de Bocas del Toro durante protestas contra una reforma previsional en junio. Organizaciones como IPANDETEC criticaron la medida por violar de forma desproporcionada la libertad de expresión, reunión y acceso a la información, además de sentar un muy mal precedente en la región para la forma de enfrentar las protestas. Panamá no fue un caso aislado, organizaciones de Ecuador denunciaron restricciones a la conexión en regiones de fuerte protesta social atravesada por una actuación abusiva de las fuerzas de seguridad, según denunciaron autoridades internacionales de derechos humanos.

Ciberseguridad: más criminalización, menos protección

La geopolítica de la seguridad digital en 2025 estuvo marcada por debates internacionales y regionales sobre cómo enfrentar los delitos informáticos sin sacrificar derechos. Tras su decepcionante aprobación en 2024, la principal novedad del año fue la apertura a firma de la Convención de Naciones Unidas contra la ciberdelincuencia en Hanoi en octubre, con la mitad de los países latinoamericanos adhiriendo rápidamente. Como hemos denunciado ampliamente, se trata de un tratado global que obliga a los Estados a crear amplias facultades de vigilancia y facilitar la cooperación transfronteriza. La controversia evidenció cómo las iniciativas globales contra el cibercrimen generan consecuencias directas en América Latina: sin mecanismos de debido proceso, los gobiernos podrían compartir datos sensibles y perseguir a defensores de derechos humanos bajo cargos vagos de “ciberdelitos”.

A la vez, en el plano interno, varios países avanzaron con políticas sobre ciberseguridad. Chile comenzó la aplicación plena de la Ley Marco de Ciberseguridad; en tanto que Argentina aprobó el Plan Federal de Prevención de Ciberdelitos y Gestión Estratégica de la Ciberseguridad (2025‑2027), que busca fortalecer la respuesta ante amenazas cibernéticas y promover una cultura de ciberseguridad, y convoca a provincias y a la ciudad de Buenos Aires a adherir. Brasil promulgó la estrategia nacional E‑Ciber, con una ambiciosa agenda de gobernanza y promoción de la ciberseguridad en todo el país; mientras Perú, por su parte, sometió a consulta pública la Estrategia Nacional de Ciberseguridad 2026‑2028 (ESNACIB), orientada a un enfoque holístico y proactivo frente a los riesgos digitales. Por cierto, una apropiada implementación de tan loables iniciativas siempre requerirá de una participación significativa de las expertas no gubernamentales y de las comunidades más afectadas por los riesgos del ciberespacio.

Frente a estas tendencias, Derechos Digitales ha protagonizado intensas actividades en defensa de la seguridad para todas y todos. Actuamos instando a no suscribir la Convención de la ONU contra la ciberdelincuencia por carecer de salvaguardas. Participamos en audiencias públicas a nivel nacional -junto a expertas internacionales- para las políticas de ciberseguridad y cibercrimen, buscando protegerlos derechos fundamentales y alertando sobre los peligros de normas que amplían la vigilancia sin controles democráticos. Y nos preparamos para seguir de cerca la implementación de nuevas reglas que deberían apuntar, no a la criminalización, sino a la prevención y la protección.

Privacidad y vigilancia, entre expansión y resistencia

Pese a algunos avances normativos, la vigilancia se expandió en 2025. La videovigilancia alcanzó niveles récord: Ciudad de México pasó de 8.000 cámaras de videovigilancia en 2009 a más de 83.000 en 2025 y se propone llegar a 150.000, convirtiéndola en una metrópoli intensamente vigilada. Si a eso le sumamos el avance de tecnologías de reconocimiento facial automatizado en toda la región, vemos con preocupación un futuro marcado por sistemas de vigilancia permanente que permitirán facilitar el seguimiento y la represión a una ciudadanía supuestamente libre.

En junio, en medio de una serie de crisis, Ecuador promulgó la Ley Orgánica de Inteligencia, que creó un sistema nacional de inteligencia con potestad para acceder a registros telefónicos, datos de ubicación y tráfico digital sin autorización judicial, obligando a todas las personas y entidades a entregar información requerida y autorizando la infiltración encubierta en organizaciones y movimientos sociales. Este proceso se dio justo después del desembarco en el país de la empresa de vigilancia Palantir, la cual presta servicios a la Corporación Nacional de Telecomunicaciones ecuatoriana para suministrar su plataforma Foundry a la Aduana con el fin de integrar y analizar grandes volúmenes de datos para “administración del riesgo aduanero”. La publicación de la ley, que contó con escasa posibilidad de debate, generó reacción inmediata en la sociedad civil. En conjunto con organizaciones ecuatorianas, desde Derechos Digitales cuestionamos el contenido de la ley y presentamos nuestros argumentos a la Corte Constitucional que actualmente analiza su inconstitucionalidad.

A su vez, en México, un paquete legal aprobado en julio creó la Clave Única de Registro de Población (CURP) biométrica obligatoria, ordenó la interconexión de bases de datos y otorgó a la Secretaría de la Defensa Nacional (SEDENA) facultades para recolectar y procesar datos con fines de inteligencia, así como otras medidas para facilitar la vigilancia masiva y la entrega de datos por privados al Estado sin salvaguardas, formando un nuevo panóptico digital. Estos proyectos evidencian una tendencia regional a fortalecer la vigilancia estatal mediante bases de datos centralizadas y herramientas de inteligencia comercial, sin suficientes garantías de derechos.

Este contexto contrasta con un avance significativo del año anterior, cuando la Corte Interamericana de Derechos Humanos condenó a Colombia por décadas de vigilancia contra defensoras de derechos humanos y reconoció el derecho de las personas a acceder, corregir o eliminar su información de archivos de inteligencia. Hemos defendido la importancia de ese fallo en el cuestionamiento a la nueva ley ecuatoriana, y seguiremos haciéndolo. La influencia del desarrollo de estándares regionales para contener el impulso vigilante de nuestros Estados con la excusa de la seguridad será un elemento crucial de lo que ocurra en 2026.

Violencia de género: visibilización y respuesta a un problema exacerbado por las tecnologías

El año 2025 estuvo marcado por una mayor visibilización de la violencia de género facilitada por la tecnología (VGFT) en América Latina y a nivel global. Instituciones como ONU Mujeres dedicaron especial atención a la temática, llamando a fortalecer las leyes, acabar con la impunidad y exigir responsabilidades a las plataformas, promoviendo inversiones en prevención, alfabetización digital y apoyo a las sobrevivientes. También hacia fin de año, el Mecanismo de Seguimiento de la Convención de Belém do Pará (MESECVI) de la OEA presentó la Ley Modelo Interamericana para Prevenir, Sancionar y Erradicar la Violencia Digital contra las Mujeres. El instrumento fue concebido como estándar legal para que los países adapten sus normativas y reconoce la gravedad de la VGFT, con rutas de acción que priorizan la protección integral, la remoción oportuna de contenidos y la reparación del daño. Derechos Digitales contribuyó a la consulta junto a aliadas y comentó la propuesta de articulado, defendiendo una perspectiva más amplia de protección contra la violencia en razón de género.

Junto a estas iniciativas, diversos países y organizaciones lanzaron espacios para debatir y fortalecer marcos normativos. Derechos Digitales protagonizó un activismo robusto en 2025 centrado en el combate a la violencia de género digital, tanto a través de campañas públicas como manteniendo la presencia en instancias como la Comisión de la Condición Jurídica y Social de la Mujer (CSW) de la ONU en marzo, y el diálogo global “Luchas conectadas” en Nairobi en noviembre. Junto a UNFPA, preparamos la guía “Principios orientadores para una reforma legislativa y de políticas públicas frente a la violencia de género facilitada por la tecnología”, un documento que propone un marco integral con seis principios esenciales para transformar la normativa y garantizar los derechos de las sobrevivientes.

Sin embargo, la agenda antiderechos que se fortalece a nivel global ha afectado profundamente los espacios de discusión y construcción de políticas en materia de género, con el intento de limitar su interpretación a mujeres y niñas de modo a excluir cuerpos que cuestionan la norma. La agenda de grupos y gobiernos extremistas, y su búsqueda por eliminar las posibilidades de existencia de las personas LGBTIQA+, ha llegado a la arena internacional arriesgando retrocesos importantes en materia de garantía y promoción de derechos humanos. Desde Derechos Digitales, nuestro compromiso continúa siendo el de impulsar reformas legales y políticas integrales efectivas para combatir la VGFT, que incorporen la perspectiva de derechos humanos e interseccional, dando cuenta de todas las expresiones de género.

La salida de la crisis es colectiva

El balance de 2025 muestra una aparente paradoja: la adopción de normas pioneras y acuerdos internacionales convive con la expansión de prácticas de control y con una geopolítica fragmentada. La regulación de la IA, la permanencia del IGF y las nuevas leyes de ciberseguridad demuestran que la comunidad internacional reconoce la necesidad de reglas, pero las grandes potencias divergen en su enfoque, y el Sur Global enfrenta influencias corporativas y estatistas. La violencia de género y la desinformación exhiben que la tecnología reproduce desigualdades preexistentes y que las respuestas deben ser sistémicas y no meramente punitivas. La vigilancia masiva avanza bajo la bandera de la seguridad a nivel nacional e internacional, ignorando estándares de derechos humanos que los Estados están obligados a respetar.

Pero es esa misma realidad la que confirma la misión que sostenemos desde hace 20 años. Y en nuestro ejercicio de observar nuestro pasado y pensar en nuestro futuro, la constatación del presente nos confirma que la defensa de los derechos humanos en el entorno digital exige articular distintos planos de acción: la regulación y la gobernanza global, el combate y la prevención de la violencia, y la defensa de la libertad de expresión, la seguridad y la privacidad. De cara al 2026, nos preguntamos sobre cómo evitar que la regulación de la IA consolide monopolios, cómo traducir los compromisos multilaterales en políticas con participación y enfoque de género, cómo combatir la violencia y la desinformación sin coartar la expresión, y cómo resistir la normalización de la vigilancia.

El futuro del ecosistema digital sigue abierto, pero no depende solamente de lo que ocurre en línea. Nuestra responsabilidad colectiva es disputar la dirección de ese ecosistema hacia la justicia y la democracia. Allí estaremos en 2026.