De la teoría a la práctica: herramientas para evaluar el impacto de la IA en los derechos humanos

En la actualidad, vivimos un contexto de creciente uso de tecnologías de inteligencia artificial (IA) por parte de los gobiernos, sea en la gestión de políticas públicas, a partir de herramientas predictivas, como apoyo en la gestión de políticas sociales o, incluso, en la interacción de organismos oficiales con las personas a través del uso de chatbots. Desde 2019, en Derechos Digitales estudiamos este tipo de casos en el marco de la iniciativa Inteligencia Artificial e Inclusión, que incluye 10 análisis del uso de IA en países de América Latina y dos informes comparados que apuntan a tendencias regionales. Uno de los puntos de falencia detectados en estos estudios consiste en la falta de mecanismos de control y supervisión por parte de las distintas partes interesadas o afectadas por tales iniciativas. Por otro lado, desde quienes las implementan parece haber una necesidad de herramientas que ayuden a responder a la siguiente pregunta: ¿cómo anticipar y mitigar los efectos negativos que los sistemas automatizados pueden tener sobre los derechos de las personas?

Un instrumento que puede ayudar a responder este interrogante son las evaluaciones de impacto en derechos humanos. En términos generales, estas evaluaciones se apoyan en el derecho internacional de los derechos humanos, en particular los Principios Rectores sobre las Empresas y los Derechos Humanos (UNGP), y sirven para analizar cómo una determinada intervención impacta en distintos derechos y grupos sociales, incorporando principios como la transparencia, la rendición de cuentas y la no discriminación. A la vez, cuando son pensados para el contexto de la IA, se inspiran en mecanismos de estudio de impacto adoptados en distintos ámbitos, como por ejemplo la protección de datos personales. Sin embargo, conllevan un conjunto de desafíos a su implementación que van desde asegurar los recursos necesarios para un análisis efectivo, hasta la necesidad de un entorno institucional y regulatorio que los haga significativos como herramienta de protección de derechos y no solo un ejercicio formal de validación de decisiones ya tomadas.

En este sentido, las herramientas analizadas en las siguientes líneas incluyen referencias a potenciales efectos en derechos humanos específicos, citados con los marcos y artículos específicos correspondientes. Es por esto que no fueron incluidos en este listado análisis de impacto como la herramienta de Evaluación de Impacto de la UNESCO, que tiene como fuente principal de referencia la Recomendación de Ética de la IA de la organización.

HUDERIA: herramienta de evaluación de impacto del Consejo de Europa

Uno de los desarrollos más recientes en este campo es el marco de Evaluación de Impacto en Derechos Humanos, Democracia y Estado de Derecho Para Sistemas de Inteligencia Artificial (HUDERIA, por sus siglas en inglés) impulsado por el Consejo de Europa. Se trata de una metodología diseñada específicamente para evaluar sistemas de IA desde una perspectiva integral, incorporando no solo la noción de derechos humanos, sino también consideraciones vinculadas a la democracia y el Estado de derecho. Fue aprobada por el Comité de Ministros del Consejo de Europa el 26 de febrero de 2025, mientras que su componente operativo, el modelo de análisis contextual (COBRA), fue admitido posteriormente el 25 de febrero de 2026, consolidando así el marco completo de evaluación de efectos.

Metodológicamente, HUDERIA se estructura como un proceso que abarca distintas etapas. Al inicio, plantea una fase de contextualización (COBRA) orientada a comprender el entorno en el que se despliega el sistema, sus finalidades y los posibles riesgos iniciales. A esto le sigue una fase de investigación en profundidad, que combina evidencia empírica con estándares de derechos humanos, incorporando elementos como la participación de las personas potencialmente afectadas y la transparencia en la toma de decisiones. Posteriormente, el proceso culmina en la elaboración de recomendaciones y medidas de mitigación, junto con mecanismos de seguimiento que buscan asegurar que el monitoreo no quede como un ejercicio meramente formal.

Si bien HUDERIA intenta superar la lógica de checklist o autoevaluación para avanzar hacia una evaluación capaz de capturar la complejidad de los sistemas de IA y sus impactos en contextos reales, esta misma profundidad plantea desafíos importantes en términos de implementación. La metodología requiere recursos, capacidades técnicas e institucionales, así como un compromiso efectivo con la transparencia y la participación, lo que puede dificultar su adopción generalizada en el corto plazo. En este sentido, HUDERIA puede leerse como un intento de avanzar hacia herramientas de diagnóstico más robustas y alineadas con estándares internacionales, pero también como un reflejo de las tensiones propias de este campo: entre la necesidad de herramientas rigurosas y la dificultad de traducirlas en prácticas concretas y sostenibles.

Toolkit de evaluación de impacto en derechos humanos de la IA del PNUD

Otro de los desarrollos recientes en este campo es el Toolkit de Evaluación de Impacto en Derechos Humanos de la Inteligencia Artificial, desarrollado por el equipo del Programa de las Naciones Unidas para el Desarrollo (PNUD) en su Centro Regional de Estambul, con aportes de diversas oficinas de país y socios regionales de Europa y Asia Central. Publicado en diciembre de 2025, se trata de una herramienta diseñada para apoyar a gobiernos, organizaciones y otros actores en la identificación, diagnóstico y mitigación de riesgos en derechos humanos asociados al uso de sistemas de IA, en particular en contextos donde las capacidades institucionales aún están en desarrollo. A diferencia de otros abordajes, el toolkit del PNUD adopta una orientación eminentemente práctica, pensada para ser utilizada por actores no técnicos que necesitan interactuar con sistemas de IA sin contar con conocimientos especializados. En este sentido, busca facilitar la incorporación de un enfoque de derechos humanos a lo largo de todo el ciclo de vida de la IA, desde el diseño y desarrollo hasta su implementación y monitoreo.

Metodológicamente, el toolkit se estructura en tres componentes principales. En primer lugar, un manual técnico que introduce conceptos clave de la IA y describe su ciclo de vida, identificando riesgos en derechos humanos en cada etapa. En segundo lugar, una herramienta de autoevaluación organizacional, que permite a las instituciones valorar su nivel de preparación para llevar adelante este tipo de análisis, considerando aspectos como políticas internas, capacidades y procesos. Finalmente, incluye un modelo de evaluación de impacto, que ofrece una metodología para identificar derechos potencialmente afectados, determinar la magnitud de los impactos y definir medidas de mitigación.

El toolkit aborda áreas clave como la no discriminación, la privacidad y la protección de datos, la transparencia y la rendición de cuentas, el debido proceso y el acceso a remedios, alineándose con estándares internacionales como los Principios Rectores de las Naciones Unidas sobre Empresas y Derechos Humanos y los principios de la OCDE. Su principal aporte radica en su accesibilidad y modularidad: ofrece guías, preguntas orientadoras y herramientas concretas que permiten operacionalizar el análisis de impacto en contextos reales.

En contraste con HUDERIA, que propone una evaluación más profunda y contextual de los impactos, el toolkit del PNUD prioriza un enfoque operativo y adaptable, orientado a facilitar su adopción en distintos entornos institucionales. Ambos instrumentos, desarrollados en momentos prácticamente paralelos, reflejan aproximaciones complementarias dentro de un campo en desarrollo.

A la vez, ambos plantean limitantes en relación a su capacidad para mitigar riesgos. Dependen, en gran medida, de la voluntad de gobiernos, organismos estatales o entidades privadas para su uso, o de las capacidades de las organizaciones de derechos humanos para llevar adelante estas tareas pese a las restricciones presupuestarias y de recursos que presenta el sector en la actualidad.

Evaluaciones de impacto en derechos fundamentales (FRIA): guía de ECNL y el Instituto Danés para los Derechos Humanos

En el contexto de la regulación europea, el European Center for Not-for-Profit Law (ECNL) y el Danish Institute for Human Rights desarrollaron una guía para la implementación de evaluaciones de impacto en derechos fundamentales (Fundamental Rights Impact Assessments, FRIA), en el marco de la Ley de Inteligencia Artificial de la Unión Europea (AI Act) en 2024. A diferencia de las otras herramientas analizadas, la FRIA se configura como una obligación que debe ser implementada para determinados sistemas de alto riesgo antes de su primer uso (según lo establecido en el artículo 27 de la AI Act).

Más que una metodología cerrada, la guía propone un enfoque estructurado para llevar adelante estas evaluaciones, orientado a asegurar que el análisis de impactos en derechos fundamentales forme parte del proceso de toma de decisiones antes del despliegue de sistemas de IA. En este sentido, la FRIA se inserta en el encuadre más amplio del AI Act, articulándose con otras obligaciones aplicables a los sistemas de alto riesgo, como el desarrollo de capacidades internas en IA, la supervisión humana o el reporte de incidentes. Así, busca funcionar como un mecanismo de gobernanza que permita identificar riesgos, evaluar su gravedad y definir medidas de mitigación de manera anticipada.

Metodológicamente, la guía organiza la FRIA como un proceso en varias fases, que incluyen la planificación y definición del alcance, la estimación de riesgos sobre los derechos fundamentales, la adopción de medidas de mitigación y el monitoreo posterior. Un elemento central es la incorporación de la participación de personas potencialmente afectadas y otros actores relevantes, así como la documentación y transparencia de los resultados. Asimismo, la guía aborda su relación con otras herramientas existentes, como las evaluaciones de impacto en protección de datos (DPIA), señalando que, si bien pueden presentar puntos de contacto, deben entenderse como evaluaciones diferenciadas pero complementarias.

A diferencia de HUDERIA o del toolkit del PNUD, que proponen metodologías más desarrolladas y detalladas, la FRIA establece principalmente un marco de requisitos y criterios mínimos derivados de la regulación, dejando margen a los actores para definir cómo implementar la evaluación en la práctica. Cabe mencionar que tanto el toolkit del PNUD como la FRIA mencionan el instrumento del Consejo de Europa como un antecedente clave.

¿Y qué pasa en América Latina?

En América Latina, el desarrollo de este tipo de herramientas aún es incipiente. Si bien existen algunos esfuerzos aislados desde la sociedad civil, la academia o ciertos organismos públicos, las evaluaciones de impacto en derechos humanos aplicadas a la IA siguen siendo poco frecuentes y no forman parte de prácticas institucionalizadas. En este escenario, en la actualidad, la Relatoría Especial para la Libertad de Expresión de la Comisión Interamericana de Derechos Humanos trabaja en un informe regional sobre el asunto, que incluyó un espacio de consulta abierta, a principios de 2026, ante la cual Derechos Digitales realizó una serie de aportes. Si bien no se trata de una evaluación de impacto en los términos analizados, la sistematización de estos riesgos por parte de un organismo del Sistema Interamericano de Derechos Humanos puede sentar un precedente clave para avanzar en una herramienta de regional de este tipo.

Asimismo, es necesario que la implementación de estas herramientas se desarrolle de forma crítica y consensuada, para evitar caer en el cumplimiento de un mero checklist. La publicación de los resultados de las investigaciones, en este sentido, representa un potencial recurso para ser utilizado como precedente a la hora de implementar estas tecnologías en distintos lugares bajo situaciones similares.

La región tampoco cuenta, por el momento, con un marco consolidado que sirva como referencia común para orientar su implementación, como pasa con la Ley de IA de la Unión Europea. En este contexto, el desafío no es solo adaptar herramientas desarrolladas en otros entornos, como las analizadas en este artículo, sino también avanzar en la construcción de capacidades, estándares y prácticas propias que permitan evaluar de manera sistemática los impactos de estas tecnologías en los derechos de las personas. El reto no es solo técnico o regulatorio, sino también político, y exige que quienes puedan ser afectadas en el despliegue de estos sistemas estén en el centro del proceso, como parte activa del diseño y seguimiento de la evaluación de impactos.

Contribución a la consulta sobre el Foro WSIS 2026

Derechos Digitales contribuyó a la consulta que aporta a la construcción de la agenda del Foro WSIS 2026. Destacamos los temas más relevantes a incluir en el evento como por ejemplo una perspectiva de derechos humanos y género para la gobernanza de la IA, la responsabilidad del sector privado, el cierre de las brechas digitales, los impactos ambientales de las tecnologías digitales y las nuevas formas de trabajo mediadas digitalmente. Asimismo, resaltamos las temáticas emergentes a considerar en cada línea de acción del proceso WSIS

Regulación de plataformas en Chile: Avances y desafíos

El presente policy brief explora el estado actual de la regulación de plataformas digitales en Chile. Se argumenta que esta regulación descansa en un mosaico fragmentado de normas sectoriales, complementadas por reformas recientes, pero todavía sin una estrategia integral que dé respuesta a los retos más urgentes asociados a la plataformas digitales.

Asimismo, se revisan dos hitos que marcaron la discusión en el pasado reciente el proyecto de ley de plataformas de 2021 y la creación de la Comisión sobre la Desinformación en 2023, y se concluye con una reflexión sobre el desplazamiento del debate hacia la esfera internacional.

Cumbre de Impacto de IA: ¿Nada nuevo a la vista?

La Cumbre de Impacto de la IA en India (India AI Impact Summit), realizada entre los días 16 y 20 de febrero, conllevaba la promesa de fortalecer una perspectiva del Sur Global a las discusiones sobre gobernanza de la inteligencia artificial (IA). El evento traía como principio la frase “bienestar para todas las personas, felicidad para todas las personas”, estampada en centenares de carteles de la Cumbre en Nueva Delhi, junto con la imagen del primer ministro Narendra Modi, quien evidentemente buscaba proyectar su propia figura con el encuentro.

Quienes pudimos acompañar las discusiones nos quedamos con la duda sobre qué se entiende por “bienestar” o “felicidad” y quiénes efectivamente se beneficiarán de ellas frente al avance de la IA. A pesar de la convocatoria alrededor de los principios (sutras) “personas”, “planeta” y “progreso”, el evento estuvo marcado por discursos tecnooptimistas y por la falta de diversidad –de género, sectores y perspectivas– en una agenda minuciosamente seleccionada por el gobierno local. Lo preocupante no es solamente el mantenimiento del tono, sino el tipo de resultado que lo acompaña: un modelo de cooperación internacional que promueve despliegue acelerado, pero que elude deliberadamente la pregunta por límites, responsabilidades y remedios.

Mientras se puso sobre la mesa un conjunto de principios para la cooperación internacional en materia de IA, la Cumbre habilitó a India inversiones de grandes empresas de tecnologías. Más importante, en un contexto geopolítico de securitización de la carrera tecnológica, abrió espacio para el establecimiento de acuerdos Sur-Sur en materia tecnológica, destacando la visita del presidente de Brasil y sus ministros al país.

A pesar de la importancia de tales movimientos en el actual escenario, los resultados se muestran limitados a compromisos voluntarios y declaraciones no vinculantes, siguiendo el modelo de cumbres anteriores. No hubo mención a los derechos humanos y se cerró cualquier espacio para discusiones regulatorias donde puedan tener mayor peso los movimientos de varios Estados que van en esta dirección. En su lugar, predominó un lenguaje de “innovación”, “confianza” y “capacidades”, que puede sonar neutral y positivo, pero que en la práctica invisibiliza el debate sobre obligaciones de transparencia, debida diligencia y reparación. Como de costumbre, la agenda de justicia y derechos quedó en manos de la sociedad civil, que tuvo poco espacio y escasa visibilidad en el evento oficial.

Una carrera sin frenos

La Cumbre fue la cuarta edición de una serie iniciada en Inglaterra en 2023, cuyo mandato se viene transformando a cada año. Pero, por si quedaban dudas, la Declaración Final del evento demuestra que, a pesar de las expectativas y la retórica nacionalista –que incluía referencias a elementos del hinduismo–, la primera Cumbre de IA realizada en el Sur Global no se diferenció en nada de sus antecesoras. Aunque cambió el lugar y la narrativa, se mantuvo la fórmula de un escenario de compromisos abstractos, en paralelo a un mercado de acuerdos e inversiones presentados como inevitables. Además de servir como palco para los empresarios de las grandes empresas de tecnología globales, que dominaron las noticias sobre el evento, su principal conclusión favorece a su agenda y negocios.

Según el texto, “las decisiones que tomemos ahora moldearán el futuro habilitado por la IA que heredarán las nuevas generaciones”. La afirmación deja poco espacio para la discusión sobre el rol que tanto las generaciones presentes como las futuras queremos que tenga la IA, pese a las crecientes evidencias de sus daños y los cuestionamientos a los efectos sociales a que ha estado sujeta.

No se trata aquí de ponernos en contra de la tecnología o de negar sus potenciales beneficios. Al contrario, fuimos desde América Latina hasta India con el propósito de fortalecer coaliciones y elaborar las bases para una IA justa, junto a docenas de organizaciones de todo el Sur Global. En distintos eventos paralelos, defendimos la importancia de los diálogos multilaterales sobre gobernanza de IA y planteamos la necesidad urgente de construir mecanismos globales que ayuden a garantizar que los sistemas de IA cumplan con estándares de derechos humanos. En otras palabras, que sirvan a las personas, al planeta y al progreso. Sin embargo, la distancia entre esos debates y la declaración final de la Cumbre, adoptada por 89 países, es patente y alarmante.

El texto, organizado según los grupos de trabajo temáticos que guiaron las discusiones, refuerza la noción de inevitabilidad de la IA y se dedica a promoverla tal cual es planteada por Silicon Valley, limitando con eso el espacio para cualquier discusión sobre los necesarios límites a su desarrollo y despliegue. Ejemplo de ello es la defensa de sistemas de IA eficientes a nivel energético, que borra completamente las preocupaciones por los impactos socioambientales de los centros de datos.

En lo que se refiere a la democratización de los recursos de IA, por su parte, se hace referencia a la Carta por la Difusión Democrática de la IA, también adoptada en la Cumbre, pero haciendo hincapié en su carácter no vinculante y voluntario. La Carta incluye guías importantes para la cooperación internacional en áreas como: la inclusión digital; la representatividad de idiomas y contextos subrepresentados en los modelos de IA; el estímulo a la apertura por medio de la adopción de estándares abiertos e interoperables; el desarrollo de habilidades en IA, entre otras. Sin embargo, refuerza como primer objetivo el aumento de las capacidades de IA sin ninguna consideración sobre sus impactos medioambientales, laborales y en derechos humanos.

El abordaje refleja contextos nacionales donde el discurso sobre soberanía tecnológica se presenta de manera contradictoria y ampliamente dependiente de desarrollos tecnológicos propietarios y extranjeros. Los anuncios de inversiones de las grandes empresas en India durante la Cumbre ilustran tal narrativa: alianzas con universidades para la oferta de modelos y asistentes de IA, y capacitación para el uso de herramientas comerciales e inversiones para la adopción de esta tecnología por los gobiernos son algunos ejemplos de alianzas establecidas en la ocasión. Paradójicamente, se invoca soberanía al mismo tiempo que se profundiza la adopción de modelos, asistentes y herramientas cuyo diseño, control y condiciones de uso permanecen fuera del alcance de los países que los incorporan.

La idea de soberanía tecnológica sin crítica al modelo establecido o perspectiva de derechos y sostenibilidad se reflejaba también en un espacio de exposiciones donde empresas locales se posicionaban junto a las Big Tech para promocionar sus negocios. Sistemas de IA para la vigilancia y uso militar se presentaban lado a lado de las versiones “educativas” de modelos comerciales de IA generativa. Afuera quedaron las voces que se oponen o defienden limitaciones al uso de este tipo de sistemas en tales entornos.

Hay camino por delante

A pesar de sus limitaciones, es necesario reconocer la importancia de la mención, en la Declaración Final, de los procesos multilaterales en curso y del respeto a la soberanía de los países. Ambos aspectos se muestran clave en un texto que logró unir a China y Estados Unidos como firmantes.

Por un lado, se valida un proceso en curso en el ámbito de Naciones Unidas que tiene como mandato dar un paso más en la definición de límites a usos de IA que no respetan derechos humanos. Cabe destacar que la agenda contó con distintos espacios de discusión con representantes del Panel Científico de IA y tuvo la presencia del Secretario General de Naciones Unidas y de su Oficina para las Tecnologías Digitales y Emergentes (ODED, por sus siglas en inglés). Por otro, se deja, correctamente, un margen para discusiones a nivel nacional que pueden reflejar mejor sus contextos y prioridades y donde otros sectores pueden actuar como contrapeso. Ese margen será decisivo allí donde existan instituciones capaces de resistir la presión combinada del discurso de securitización, de intereses nacionales de algunos países, y de los intereses comerciales que buscan presentar la adopción de IA como una obligación sin alternativas.

Hay que reconocer que tales conquistas se encuentran también limitadas por una arena internacional marcada por el ascenso del autoritarismo y el desmantelamiento de las instituciones multilaterales, en particular de derechos humanos. Sin embargo, representan una señal: el rol de la IA en el futuro de las nuevas generaciones sigue en disputa.

Igualmente relevante es el reconocimiento de la participación de múltiples partes interesadas en los debates sobre el tema. Es fundamental que eso no se traduzca en más espacio para mega empresarios de tecnología y se apunte a mecanismos de participación significativa de la sociedad civil, en línea con lo acordado en la Declaración de Sao Paulo.

La ocasión de la Cumbre, en ese sentido, habilitó la coordinación entre distintos actores académicos y de la sociedad civil del Sur Global con miras al debate que sigue. En un contexto en que las conversaciones siguen mayormente concentradas en pocos actores del Norte, tal coordinación es crítica para avanzar hacia estándares que permitan un futuro en que la IA efectivamente esté al servicio de la justicia, la equidad y el ejercicio de derechos.

Si la carrera de la IA sigue sin frenos, es urgente definir las reglas del tránsito antes de que el impacto sea contra una pared.

Chile y el complejo camino para regular las plataformas digitales

Los esfuerzos emprendidos por el Congreso chileno para la regulación de las plataformas no cesan. Desde 2020 hasta la fecha, se presentaron casi medio centenar de proyectos de ley que buscan, bien sea a través de la creación de una ley general o a través de la reforma de otros cuerpos normativos existentes, abordar un muy extenso conjunto de asuntos relacionados.

Entre los temas de interés de quienes regulan, se incluyeron proyectos de regulación de personas trabajadoras de plataformas, de aplicaciones de transporte ciudadano, también de plataformas de delivery de comidas y, por supuesto, iniciativas enfocadas en la regulación de fenómenos como la desinformación, el ejercicio de la libertad de expresión en internet, el uso de redes sociales y dispositivos digitales por niños, niñas y adolescentes, la difusión no consentida de imágenes con contenido sexual y el uso de deepfakes para dicho fin, entre otros.

Regular las plataformas digitales: una tarea inminente

Regular las plataformas digitales nunca fue tan urgente como ahora. Con su diseño, algunas de ellas generan nuevas y complejas dinámicas en el mundo del trabajo; otras, deciden con reglas poco claras o transparentes sobre la diversidad, amplitud de voces y temas que se discuten en la esfera pública digital. Algunas otras tienen el potencial, mediante su diseño opaco -que ahora se aceita con el uso de la IA- de exacerbar fenómenos complejos como la desinformación o la violencia en línea que se traslada al mundo analógico.

La mayoría, especialmente las más grandes plataformas digitales de gran escala desarrolladas por un grupo reducido de empresas, concentran una influencia considerable en la vida social y pública, con efectos potenciales en la salud mental y en procesos colectivos, como el ejercicio democrático.

Es importante destacar que, si bien regular emerge como una necesidad en este contexto, ello no es sinónimo de que no exista una regulación que no permita abordar su funcionamiento. En Chile, de hecho, existe un marco normativo que abarca materias como protección del consumo, protección a la competencia y la propiedad intelectual, protección de datos, de trabajo, de acceso a la información, entre otros, y ese debería ser el punto de partida.

Pero, en la práctica, regular de manera específica a las plataformas digitales se viene constituyendo como una prioridad, pues en su funcionamiento se involucran un entramado complejo de actores e intereses, así como se explotan y exacerban fenómenos (como la desinformación, la violencia de género en línea, el extractivismo severo de datos) que deben ser abordados de manera tal que la protección de las personas esté en el centro, y logre ser efectiva.

Problemas de los intentos de regulación

Regular las plataformas puede ser un fin loable, pero hacerlo de manera efectiva requiere más que la buena voluntad de las personas legisladoras. Por un lado, se precisa de técnica legislativa con un enfoque de derechos humanos para, por ejemplo, no sacrificarlos en aras de enfoques reactivos, casi siempre punitivistas o prohibicionistas que suelen, con frecuencia, ser la primera o única respuesta de quienes legislan.

Regular las plataformas desde un enfoque de derechos humanos significa, en términos generales, dos cosas. Por un lado, priorizar su protección, aún si eso significa, en ocasiones, poner límites a la manera en como se desarrolla un determinado modelo de negocio. Y, por otro lado, alinear las políticas y prácticas corporativas a tres verbos que deben ser accionables desde la política pública: prevenir, mitigar, y reparar los impactos ocasionados por sus operaciones.

Por ejemplo, el más reciente proyecto de ley sobre deepfakes, originado en la Cámara de Diputados para regular el uso no autorizado de atributos personales como la voz o la imagen a través de sistemas de IA, erosiona principios esenciales de la libertad de expresión, como el derecho de toda persona a formular críticas respecto a figuras y funcionarios públicos. Además, adopta figuras problemáticas como la “notificación y retiro” de contenidos en línea a cargo de las plataformas digitales, sin que medie orden judicial, entre otros. Omite, casi por completo, abordar las obligaciones de las empresas tecnológicas en la prevención, mitigación y reparación de los derechos de sus personas usuarias.

O el más ambicioso proyecto de ley discutido hasta ahora, en materia de regulación de plataformas, que fue debatido en el Congreso chileno en 2021. Se trata de una iniciativa que busca regular la totalidad de las plataformas digitales frente a un amplio y diverso conjunto de problemas: la desinformación, la protección de las infancias en línea, la protección de datos, la responsabilidad objetiva de las plataformas digitales -en dirección contraria a los consensos básicos sobre el efecto de esa medida en la libertad de expresión-, entre otros.

Este tipo de proyecto generalista no considera en su diseño que no todas las plataformas generan los mismos impactos para los distintos tipos de personas usuarias de sus servicios, ni tampoco considera que las plataformas crean dinámicas diferenciadas en el ejercicio de derechos (libertad de expresión, privacidad, trabajo, etc.) y por eso mismo, no pueden ser tratadas de la misma forma. A su vez, no tiene en cuenta que en un mercado digital altamente concentrado, la realidad de las plataformas (su tamaño y cobertura) y la localización de las empresas que las desarrollan, debe ser considerada en las dinámicas de futura exigibilidad de esa ley. Nuevamente, una iniciativa que no articula los deberes empresariales de prevenir, mitigar o reparar a sus usuarios como compromisos exigibles en derechos humanos.

Pero los problemas para regular las plataformas digitales en Chile no se limitan a cuestiones de técnica legislativa. En la región, hemos visto cómo el lobby de las plataformas digitales es tan feroz que, iniciativas regulatorias bien orientadas terminan frustrándose o diluyéndose hasta volverse ineficaces.

Tal es el caso de la reciente Ley de Salud Mental en Colombia, donde las plataformas digitales presionaron a quienes integraban el órgano legislativo para que, en lugar de que les fuera exigible su corresponsabilidad sobre lo que circula en línea e impacta en la salud de las niñeces, se afirmara una vez más el modelo de autorregulación. En la práctica, esto deja intacto su poder unilateral e inescrutable para definir los límites en la protección de sus personas usuarias.

O el caso de Brasil, donde el proyecto de regulación de la IA atenuó, por la presión de las grandes empresa tecnológicas, aspectos críticos como las evaluaciones de impacto en derechos, inicialmente obligatorias y ahora tan solo facultativas; matizó la protección de artistas y creadores, y omitió casi por completo los impactos ambientales de los Centros de Datos que oxigenan el funcionamiento de la IA.

Un lobby que se agudiza y saca dientes en el marco del gobierno de Donald Trump, que amenaza a las autoridades de los países que intenten regular a la Big Tech en el marco de la guerra arancelaria, tal y como pasó con Brasil en 2025 a quien EE. UU. aumentó los aranceles como reacción a la investigación judicial adelantada por jueces de ese país contra las plataformas digitales que tuvieron un rol preeminente en el golpe de Estado impulsado por J. Bolsonaro.

¿La salida viene de afuera? Chile en la esfera internacional

Aún cuando en Chile avanzan con rezago las regulaciones que abordan el impacto sociopolítico y sociotécnico de las plataformas digitales, la realidad es que la conversación sobre su regulación y gobernanza permanece más activa en la esfera internacional, en donde el país se posicionó como un actor visible en América Latina que acompaña, lidera o suscribe procesos de gobernanza de las plataformas digitales y la IA.

Por ejemplo, tomó un rol destacado en la negociación del Pacto Global Digital, y de la más reciente Cumbre Mundial de la Sociedad de la Información (WSIS, por sus siglas en inglés). Respaldó la Iniciativa Global de UNESCO para la Integridad de la Información Climática, así como adhirió a la Declaración sobre Integridad de la Información sobre Cambio Climático. También, su representación fue visible en 2024 en la Cumbre de IA en París, en la que afirmó la importancia de avanzar en una gobernanza global de la IA con un enfoque de derechos humanos.

Sin embargo, las iniciativas de gobernanza y regulación de las plataformas digitales se encuentran amenazadas por la situación geopolítica actual, en la que la desafiliación reciente de EE. UU. de prácticamente cualquier entorno multilateral y de múltiples partes interesadas, amenaza con dejar solos en la discusión a los países que buscan que el estado actual de la gobernanza de las Big Tech cambie.

De manera que, a nivel nacional o internacional, los esfuerzos de regulación (y gobernanza) enfrentan retos que no son menores. Retos que, a medida que retardan el diseño de marcos de protección de las personas en riesgo, dejan preguntas que urge responder: ¿qué salidas, más allá de la acción individual de los países, conviene imaginar para avanzar en la efectiva regulación de las plataformas que pongan en su centro a las personas?, ¿cómo restar poder de lobby a las empresas tecnológicas que amenazan la efectividad y alcance de los esfuerzos regulatorios, cualquiera que sea su diseño y contenido?, ¿cómo incidir para que su modelo de negocios se alinee a los derechos de sus personas usuarias? O bien, ¿cómo mejorar la técnica legislativa de los proyectos de ley que, con fines loables pero con enfoques desacertados, buscan regular a las plataformas digitales?

Sobre esto último, desde Derechos Digitales tenemos claro que en todo proceso de política pública, la participación significativa de personas usuarias, grupos de la sociedad civil, empresas y otros grupos de interés, es la precondición necesaria para balancear los intereses en la discusión. El panorama regulatorio en Chile ahora se enfrenta a un cambio de sensibilidad política que se inclina hacia la extrema derecha. Esperamos, incluso, en ese escenario poder tomar parte de las discusiones que, anticipamos, se darán sobre regulación de las plataformas en el nuevo gobierno.

WhatsApp y la Unión Europea: ¿Descentralización de las comunicaciones digitales?

A diario nos comunicamos a través de WhatsApp: compartimos conversaciones con ex compañeros de colegio, decidimos sobre asuntos familiares y profesionales, vivimos el romance; muchas alegrías y tristezas suceden en esta plataforma. Casi todas las personas con un teléfono inteligente en América Latina utilizamos WhatsApp y somos más de 3 mil millones personas en el mundo.

Es así como Meta, dueña de WhatsApp, es responsable de las comunicaciones de gran parte del planeta. Es decir, una caída técnica, una prohibición de funcionamiento o un conflicto empresarial pueden tener consecuencias globales. Algo que ya ocurrió en el pasado y sobre lo cual reflexionamos en su momento.

Desde un punto de vista tecnopolítico, existe un problema de concentración de poder. Nuestras conversaciones fluyen a través de una de las aplicaciones de Meta. Si bien se supone que WhatsApp usa cifrado extremo a extremo, ya solo usar la aplicación implica entregarle nuestros metadatos. Esto quiere decir que nuestros contactos, con qué frecuencia hablamos con ellos, desde dónde y a qué hora, además de gran cantidad de información adicional, es recolectada por Meta por el simple hecho de usar sus servicios.

La concentración de poder no solo tiene implicancias en materia de privacidad. Por ejemplo, una aplicación de la cual dependen buena parte de las comunicaciones de la población podría verse amenazada por un conflicto geopolítico. Es decir, esta dependencia convierte a una herramienta de comunicación en un arma para el conflicto entre Estados.

A raíz de las revelaciones de Snowden, desde 2013 sabemos que EE. UU. utiliza las plataformas digitales de empresas estadounidenses para espiar las comunicaciones globales. Los embargos económicos de EE. UU. también implican restricciones en la adquisición de software a países como Cuba, Irán y Siria. Con estos antecedentes, cabe preguntarse: ¿qué pasaría si EE. UU. entrara en guerra con Europa a causa de Groenlandia? ¿WhatsApp funcionaría sin problemas para las personas europeas?

Este tipo de escenarios plantean preocupaciones globales que no son nuevas: desde distintas regiones y Estados del mundo existen múltiples intentos para tensionar la concentración económica, de datos y de poder en el entorno digital. En el caso de la Unión Europea (UE), tomaron la decisión de regular las plataformas digitales buscando establecer criterios y límites claros por medio de la Ley de Mercados Digitales (DMA por sus siglas en inglés).

Descentralizar la mensajería por ley

Los aspectos de concentración de poder, soberanía digital y privacidad, motivaron a la UE a crear la Ley DMA. Esta normativa busca regular a las empresas que dominan el mercado digital, denominadas en la legislación como “guardianes de acceso” (gatekeepers en inglés), para evitar abusos de poder, prácticas anticompetitivas y garantizar la interoperabilidad con plataformas más pequeñas. WhatsApp (Meta) fue designada como “gatekeeper” en 2023, entre otros motivos por tener más de 45 millones de personas usuarias activas al mes dentro de la UE. Esta condición le obliga a cumplir con los requisitos de la DMA, incluyendo la obligación de poder interoperar con plataformas más pequeñas.

La expectativa de una legislación de estas características es ambiciosa: permitir a las personas conversaciones a través de distintos servicios conectados. La consecuencia debería ser que quienes utilizan aplicaciones como Signal, Telegram, o plataformas europeas como Threema o Wire, se puedan comunicar con aquellas que tienen WhatsApp.

Sin embargo, la implementación conlleva una paradoja. La forma en la que está redactada la ley obliga a la plataforma que se quiere regular a que defina las reglas técnicas mediante las cuáles interactuaría con otras aplicaciones. La legislación estableció que hasta marzo de 2024, WhatsApp debía definir e implementar un plan para interactuar con otras plataformas. A fines de 2025, WhatsApp comenzó a interoperar con otras aplicaciones, pero solo con dos: Haiket y BirdyChat, recientemente creadas, y de las cuales se sabe muy poco.

Aplicaciones como Signal o Threema se oponen a la interoperatividad planteada por la DMA. Las dos empresas sostienen que su enfoque en favor de la privacidad y seguridad podría verse vulnerado al interactuar con otros proveedores ya que, de esta manera, no pueden asegurar el cuidado de los datos cuando pasan a manos de proveedores como WhatsApp. Al ser aplicaciones con bases de usuarios más pequeñas que WhatsApp, no son vistas como “guardianes de acceso” y por lo tanto no tienen obligación de cumplir con la DMA.

La ley podría así lograr que WhatsApp se conecte con aplicaciones irrelevantes, mientras que sus competidores más sólidos se mantienen al margen, dejando su dominio prácticamente intacto.

Los estándares abiertos y la idea de federación

Lo que la UE quiere hacer con WhatsApp es muy parecido a lo que se conoce como federación: un sistema donde plataformas independientes pueden comunicarse entre sí usando estándares abiertos. Un ejemplo es el correo electrónico: las personas que usan Gmail pueden comunicarse con otras que utilizan casillas de Outlook, Protonmail u otro proveedor. Si bien Gmail, con 1800 millones de usuarios, es un actor dominante en el terreno del correo electrónico, no es quien pone las reglas sobre las cuales se comunican los otros proveedores. Esto es posible gracias a protocolos consensuados como el “Protocolo Simple de Transferencia de Correo” (SMTP en inglés), sin la necesidad de intervención estatal.

Hay una diferencia clave: el correo electrónico surgió de la colaboración voluntaria entre desarrolladores que construyeron internet, acordando reglas para un sistema de correspondencia digital asincrónico y federado que previamente no existía.

Siguiendo la tradición de estándares federados, a inicios de este siglo surgió el “Protocolo extensible de mensajería y comunicación de presencia” (XMPP en inglés), inspirado en el servicio de correo electrónico donde las cuentas son del tipo usuario@dominio.com. Se trata de un protocolo conocido y utilizado por comunidades como las del software libre. Hasta 2013, Google Talk, el chat de Gmail en ese momento, implementaba este mecanismo mediante el cual una cuenta de Gmail podía comunicarse con cuentas de chat alojadas en servidores más pequeños y diversos.

Curiosamente, WhatsApp utiliza una versión modificada de XMPP conocida como FunXMPPque está optimizada para las necesidades de la aplicación y que además desactiva las funcionalidades de federación.

De todas formas, XMPP no es la única opción para comunicaciones de chat federadas. En 2014 se empezó a construir el protocolo Matrix con características similares a XMPP, pero con el cifrado extremo a extremo desarrollado como parte fundamental del protocolo, con el fin de cuidar su seguridad. En la actualidad, en Derechos Digitales utilizamos este estándar como la base de nuestra oficina virtual en un servidor manejado por nuestro equipo técnico. Incluso nos podemos comunicar con otras organizaciones que también van por el mismo camino: la apropiación de nuestras comunicaciones.

XMPP y Matrix no son protocolos perfectos y tienen muchos aspectos por mejorar. El primero tuvo un desarrollo lento y el soporte de chat cifrado entre extremos no fue adoptado por todos los servidores y clientes. Matrix resuelve el problema de cifrado extremo a extremo, pero también podría mejorar para establecerse como un estándar oficial. Igualmente, estos aspectos no opacan su relevancia como protocolos abiertos que sostienen el espíritu de la comunicación descentralizada y abierta que caracteriza a internet.

Fortalecer protocolos y estándares para una soberanía tecnológica

El intento de la UE apunta a fortalecer una internet más descentralizada y con menos concentración de poder en pocas empresas. Más allá de una perspectiva política, la apuesta refleja preocupaciones técnicas profundas sobre la resiliencia de las comunicaciones digitales a través de la independencia tecnológica, el cifrado y la interoperabilidad. Si bien representa un avance significativo, aún quedan dudas sobre la estrategia de dar el control sobre la forma de federarse a las aplicaciones que se quieren regular.

Por otro lado, las soluciones basadas en estándares abiertos, como XMPP y Matrix, ayudan a poner las mismas reglas para todas las aplicaciones que implementan el estándar. Es decir, en lugar de que WhatsApp defina cómo se comunica con el resto, el estándar abierto define las reglas por las que todas las partes se comunican entre sí. De esta manera, no se le da un poder especial a la aplicación que se pretende regular, similar a lo que sucede con el correo electrónico y Gmail.

Moverse a un sistema federado tiene ventajas como la independencia de proveedor, eliminar un único punto de fallo y la posibilidad de tener infraestructura propia para nuestras comunicaciones. También nos presenta retos: los organismos de estandarización técnicos deben acordar las actualizaciones de los estándares a futuro.

En América Latina, nuestros gobiernos ni se asoman a este tipo de discusiones, y somos pocas las comunidades que estamos reflexionando sobre estos temas. Sin embargo, los estándares abiertos están disponibles, y si organizaciones como Derechos Digitales pueden tener su propio servidor de chat federado, seguramente muchas otras también puedan emprender el mismo camino hacia una soberanía tecnológica cada vez mayor.

Chile en WSIS+20: expectativas altas, resultados moderados

En la Cumbre Mundial de la Sociedad de la Información (WSIS por sus siglas en inglés), que concluyó en diciembre pasado, países de la región como Chile tuvieron un rol notable en el proceso de negociación. Recordemos que la Cumbre buscó revisar los acuerdos pactados en 2015 que giraron en torno a la gobernanza de las tecnologías digitales, centrada entonces en las personas y enfocada en el desarrollo sostenible, la lucha contra la desigualdad y el cierre de la brecha digital, entre otros.

La revisión de los 20 años de la primera WSIS finalizó en 2025 con una resolución aprobada por la Asamblea General de las Naciones Unidas. Un documento que, en pocas palabras, apenas si mantuvo aspectos mínimos de los acuerdos pasados, en lugar de avanzar hacia compromisos urgentes como, por ejemplo, reconocer y fortalecer la rendición de cuentas del sector privado, introducir mayores salvaguardas y garantías en relación con el despliegue y desarrollo de la inteligencia artificial e incluso considerar moratorias frente a los usos problemáticos.

Chile: expectativas y resultados del proceso de negociación

En ese proceso de negociación multilateral, que fue complejo y estuvo lleno de tensiones dadas por el escenario geopolítico actual, Chile participó a través del G77 + China y por su propia cuenta, movilizando cuatro prioridades: conservar compromisos en materia de desarrollo, la renovación del Foro de Gobernanza de Internet (IGF) y la continuidad del modelo de múltiples partes interesadas, conservar los acuerdos preexistentes en materia de derechos humanos, y explicitar esfuerzos enfocados en la equidad de género.

Estas prioridades están dadas por la agenda internacional desplegada por Chile en los últimos años. Desde 2024, el país lidera la agenda del desarrollo con la copresidencia del ODS 4, enfocado en la equidad en la educación. A nivel regional, ha sido vocal con el fortalecimiento del IGF así como con el robustecimiento del modelo de múltiples partes interesadas para mejorar la gobernanza de internet. Y de manera consistente, en la última revisión de la WSIS que tuvo lugar en 2015, defendió acuerdos de derechos humanos, en especial en libertad de expresión y privacidad. Más recientemente, las relaciones internacionales del país se han enfocado en defender la política externa de género en los espacios multilaterales, que ha resonado en foros como la Comisión de la Condición Jurídica y Social de la Mujer (CSW por sus siglas en inglés), o las negociaciones del Pacto Digital Mundial.

En materia de desarrollo

En las negociaciones sobre desarrollo, Chile apoyó por su cuenta y en el marco del G77 + China, que se mantuvieran referencias a la Agenda 2030 de Desarrollo Sostenible que, para países como Estados Unidos, debían ser eliminadas junto a las referencias sobre derechos humanos, en aras de la brevedad y concisión de la resolución final. Dicha vinculación es crucial porque la Cumbre apunta a la realización de la Agenda a través de la gobernanza de las tecnologías digitales. La eliminación de dicha referencia hubiera dejado sin sus bases fundacionales a la Cumbre.

La resolución, en efecto, mantuvo algunas referencias a la Agenda 2030. Por ejemplo, al señalar que el cierre de la brecha digital debe enfocarse en la realización de los Objetivos de Desarrollo Sostenible ODS (párrafo 25), se debe garantizar coherencia en la aplicación de los resultados de la Cumbre con los ODS (párrafo 106), y se debe buscar alinear estrechamente la realización de las Líneas de Acción (ejes críticos de la Cumbre) con la Agenda 2030 (párrafo 111). También, encarga a los organismos de las Naciones Unidas a cargo de operacionalizar su implementación de cara a los ODS (párrafo 122), entre otros.

El IGF y el modelo de múltiples partes interesadas

En materia de renovación del IGF, el G77 + China abogó por la permanencia de su mandato. Aunque perfectible, es un foro crítico cuyo mandato, según el G77 + China, debía ser fortalecido a través de una mejor estructura, financiamiento para su realización, y por sobre todo, a través de una más amplia participación de países del Sur Global.

Sobre el modelo de múltiples partes interesadas, el G77 + China apuntó en el mismo sentido, a integrar en los procesos de negociación referencias enfocadas en estructurar, transparentar y mejorar la participación de partes interesadas, en especial de los países en vía de desarrollo.

La resolución final de la Cumbre, hizo permanente el mandato del IGF y enmarcó su funcionamiento futuro dentro de los procedimientos presupuestarios de la ONU, llamando a garantizar una financiación estable y sostenible (párrafo 96-103). También, hizo referencia a otros foros de múltiples partes interesadas (como los lineamientos de NETMundial+10) como una referencia útil y aspiracional en la realización de dicho modelo que, según la resolución, debe continuar en el centro de la gobernanza de internet (párrafo 91 a 94).

Que la resolución final de la Cumbre mencionara nuevamente la centralidad del modelo de múltiples partes en la gobernanza de las tecnologías digitales no es menor. En esta reciente negociación, hubo Estados -como China o Rusia- que presionaron, de hecho, por dar mayor centralidad a otros modelos de gobernanza basados en un rol más intenso del multilateralismo, que se centra en los Estados como los actores más importantes. Que se conservara y afirmara la importancia del modelo de múltiples partes es un logro que no es menor, aunque su inclusión se hizo sin reconocer las limitaciones que enfrenta en el marco del escenario geopolítico actual donde las relaciones estatales enfrentan serias tensiones y donde la participación de la sociedad civil en la esfera internacional enfrenta serias amenazas y riesgos.

Derechos humanos

Desde la primera Cumbre, la agenda de derechos humanos fue insertada de manera transversal en la idea misma de la gobernanza de internet. En la Agenda de Túnez y el Plan de Acción de Ginebra, constan referencias a los derechos humanos, y derechos como la libertad de expresión y la privacidad. En la negociación de la Cumbre, Chile enfocó por su cuenta esfuerzos dedicados a la conservación de los acuerdos ya pactados, que países como Estados Unidos buscaron erosionar bajo argumentos de concisión del texto final de la conversación.

Al final, sí se hizo mención explícita a los derechos humanos que figuran en la resolución aprobada en diciembre de 2025 (párrafos 8-78), pero hay omisiones que brillaron por su ausencia, como el impacto de la plataformización en el mundo del trabajo y los derechos de los trabajadores, o el tono debilitado que recibieron los compromisos y responsabilidades del sector privado que, con sus tecnologías y modelos de negocio, impactan profundamente en el ejercicio de derechos.

Equidad de género

Chile, por su cuenta, movilizó el reconocimiento expreso de la violencia de género facilitada por las tecnologías digitales, en concreto, en el párrafo 11 de la futura resolución.. La resolución final reconoció en dicho párrafo la transversalización de la perspectiva de género, la brecha digital de género, y contempló el fenómeno de la violencia sexual y de género, aunque su lenguaje se enfocó exclusivamente en la protección de mujeres y niñas, excluyendo a colectivos LGBTIQA+ del texto.

El giro de Chile a la ultraderecha: ¿tendrá eco la Cumbre en la agenda local?

En diciembre de 2025 Chile eligió su primer gobierno de ultraderecha desde el retorno de la democracia. Analistas locales señalan que la política exterior del gobierno electo permanece aún en la incógnita pues fue un tema excluido de manera deliberada de los temas centrales de la campaña electoral. A la fecha, según distintos expertos, la política exterior chilena ha estado marcada por “líneas históricas” antes que por intereses ideológicos que mudan con cada nuevo gobierno. Es decir, se ha caracterizado por su continuidad, respeto al derecho internacional, y una “diplomacia profesional, sobria y previsible”, por lo que se espera que esto permanezca así durante la futura toma de posesión del nuevo presidente, José Antonio Kast.

Bajo esa perspectiva, se podría esperar que Chile mantenga su respaldo a los compromisos gruesos pactados en la WSIS que concluyó en 2025. Sin embargo, emergen dudas serias sobre el apoyo específico a objetivos como los que fueron trazados en el párrafo 11 de la resolución final, enfocada en materia de género, pues el presidente electo ha afirmado en diversas ocasiones que se debe desterrar la ideología de género de las políticas de protección de la mujer. En el pasado, de hecho, se opuso a la Ley de Identidad de Género, y hasta promovió acciones judiciales en contra de políticas afirmativas en materia de salud sexual y reproductiva.

Por ahora, es incierta la resonancia que tendrán los objetivos y metas de la WSIS en las políticas locales enfocadas en la gobernanza de internet y otras tecnologías digitales, en especial, las metas enfocadas en la erradicación de la violencia de género basada en las tecnologías. Tampoco existe claridad sobre cómo se dará en la práctica la participación de la ciudadanía y sociedad civil interesada en incidir en dichas políticas públicas.

Por ahora, y hasta que se posicione el presidente electo en el mes de marzo de 2026, hay que observar con atención el perfil y enfoques de las personas que estarán a cargo del Ministerio de la Igualdad, del Ministerio de Transporte y Telecomunicaciones, y del Ministerio de Relaciones Exteriores, centrales en la articulación de la política digital y económica internacional, y la política digital local.

Retrospectiva 2025: Un año entre cierres y fracturas en la agenda de derechos humanos

Sobrevivir al 2025 significa haber sido testigo de importantes cierres de procesos en relación con lo digital para América Latina. A los escasos avances, y significativos retrocesos, en la agenda de protección de derechos, se sumaron tanto debates globales como sucesos en países del norte que trajeron más incertidumbre que esperanza a las sociedades latinoamericanas. El resurgimiento de una administración antiderechos en los EE. UU. y el ascenso al poder de sus aliados en el mundo, el genocidio perpetrado por Israel en Palestina y tragedias afines en la República Democrática del Congo y en Sudán, la continuidad de tensiones en el Caribe, en Camboya y en Ucrania, y la persistencia de una actitud apática a la crisis climática, dejan al 2025 como un año con escasas luces.

En ese contexto, la defensa de derechos en lo digital encuentra desafíos significativos. Pese al encomiable trabajo de incontables organizaciones y activistas en el mundo, seguimos contemplando el avance de tecnologías riesgosas, con fuerte apoyo de gobiernos, y la consolidación del poder de grandes empresas tecnológicas, poco o nada comprometidas con ejercer su responsabilidad de proteger y promover derechos humanos. Peor que eso, profundamente involucradas en los más graves crímenes contra la humanidad. Procesos legislativos y judiciales, negociaciones internacionales de dudoso propósito y disputas sobre aspectos fundamentales de la vida en sociedades digitalizadas, han sido campos de batalla para un trabajo arduo y necesario. Para Derechos Digitales no ha sido distinto.

Gobernanza digital global: más acuerdos, menos avances

Después de arduas negociaciones, el proceso de revisión por los 20 años de la Cumbre Mundial de la Sociedad de la Información concluyó con un informe recientemente aprobado, que reafirma el compromiso con un modelo de múltiples partes interesadas y establece que el Foro de Gobernanza de Internet (IGF) será permanente. Además, exhorta a cerrar brechas de acceso y prevenir los impactos adversos de la tecnología, incluida la violencia de género.

Aun cuando el resultado mantiene compromisos importantes, está lejos de ser un éxito rotundo para la sociedad civil y para la mayoría global en general. Muchas de las propuestas más ambiciosas quedaron fuera del texto, y la implementación del Pacto Digital Mundial (GDC) firmado en 2024 sigue sin herramientas vinculantes para los Estados.

Desde Derechos Digitales mantuvimos una presencia activa: facilitamos debates sobre soberanía digital y advertimos sobre los riesgos de suavizar compromisos con los derechos humanos, como parte de la Coalición Global de Derechos Digitales para la CMSI (GDRC-WSIS), dando cuenta -en detalle- de los riesgos y oportunidades perdidas de un proceso histórico desarrollado bajo condiciones adversas. Pero el resultado está a la vista y ya hay nuevos instrumentos para impulsar la gobernanza de internet. El desafío pendiente es convertir las declaraciones en políticas con participación real de la sociedad civil y con salvaguardas eficaces de derechos humanos.

Inteligencia artificial: regulación en disputa

Con la aplicación de la Ley de IA de la Unión Europea en febrero de 2025, las categorías de riesgo y las prohibiciones de “riesgo inaceptable” dejaron de ser teoría y se convirtieron en obligaciones para actores globales. Inspirado en este modelo, avanza lentamente en el Senado brasileño el proyecto de ley que introduce derechos para las personas afectadas por sistemas de IA, pero con aportes recientes poco transparentes al público y provenientes en buena parte del sector privado y no de la sociedad civil. El proyecto de IA en Chile también está en camino, pero no con la misma suerte: pasó de una cámara a otra perdiendo aspectos clave de su articulado original. Colombia avanza con una regulación integral después de muchísimos proyectos aislados, mientras que Perú publicó el reglamento de su pionera ley de IA. La región continúa con limitados avances en un contexto internacional que parece cambiar la dirección en los marcos de regulación de la IA a nivel global.

Mientras tanto, la geopolítica mostró pequeñas fisuras en la forma de enfrentar los desafíos de la IA sin dejar de privilegiar intereses estratégicos. Estados Unidos y el Reino Unido se rehusaron a firmar la declaración del AI Action Summit de París, y el gobierno estadounidense pidió abrazar la IA sin restricciones, derogando su encuadre normativo.

Desde Derechos Digitales insistimos en la defensa de tecnologías de IA que estén ancladas en un marco de derechos y equidad: sostuvimos una agenda de incidencia, producción de conocimiento y articulación regional que incluyó la participación activa en debates internacionales, incluyendo el AI Action Summit. Profundizamos la discusión sobre impactos concretos y exigencias normativas con materiales sobre riesgos y salvaguardas, por ejemplo en privacidad, y con investigación aplicada a instrumentos regulatorios emergentes como los sandboxes de IA. En el plano multilateral, actualmente presidimos la Red de Organizaciones de Sociedad Civil y Académicas sobre Ética y Políticas de IA de Unesco, tras años de acompañamiento y presión por mayor participación en los procesos derivados de la aprobación de su Recomendación sobre la Ética de la IA.

Seguimos produciendo evidencia sobre el uso de la IA en la región a partir de nuestra iniciativa “IA & Inclusión en América Latina” y de contribuciones calificadas a procesos de consulta, buscando fortalecer debates informados sobre el tema a nivel nacional, regional y global, mientras nos preparamos para el lanzamiento de la segunda edición del curso de formación sobre IA y derechos humanos para personas funcionarias del Estado. Además, realizamos conversaciones con actores clave a nivel regional sobre como implementar políticas transformadoraspara la IA que apunten a la equidad de género.

Libertad de expresión en la encrucijada regulatoria

El año estuvo marcado por proyectos legislativos que buscan regular el comportamiento de las plataformas digitales y asegurar garantías procesales para sus usuarios. En abril, el Ejecutivo dominicano ingresó al Senado un proyecto de ley de regulación de medios que reconoce la libertad de expresión sin censura previa en cualquier medio, consagra la neutralidad de la red, exige que plataformas con más del 10% de usuarios nacionales tengan representación legal en el país y garantiza el debido proceso para la moderación de contenidos, pero con artículos cuestionados como formas indirectas de facilitar la censura. Por su parte, el Congreso peruano discutió en noviembre un proyecto de ley que propone licencias y certificación obligatoria para creadores de contenido digital y sanciones administrativas por difundir información considerada falsa. Organizaciones como Hiperderecho sostienen que estas exigencias equivalen a una autorización previa prohibida por la Constitución, discriminan a comunicadores digitales y generan un clima de autocensura. Los avances de estas y otras iniciativas en la región serán objeto de especial atención el próximo año, en vista de la prioridad que se da a las comunicaciones digitales en estos intentos regulatorios y al trámite aún en curso de otros proyectos en la región.

En tanto, a pesar del acecho sobre la expresión en línea de las últimas décadas, algunos desarrollos jurisprudenciales parecen ir en el sentido correcto respecto al rol de las plataformas. La Corte Constitucional colombiana dictó en junio un fallo que protegió los derechos de una influencer, ordenando a Meta restablecer su cuenta y garantizar mecanismos de notificación y apelación. En Chile, la Corte Suprema rechazó en octubre una solicitud de “derecho al olvido” y afirmó que borrar o desindexar artículos periodísticos veraces de interés público sería censura, consolidando la idea de que la libertad de expresión prevalece por sobre la reputación de quienes protagonizan noticias de interés público.

Pero algunas de las peores muestras de autoritarismo también tuvieron lugar este año. En Panamá, el gobierno suspendió los servicios de comunicaciones en la provincia de Bocas del Toro durante protestas contra una reforma previsional en junio. Organizaciones como IPANDETEC criticaron la medida por violar de forma desproporcionada la libertad de expresión, reunión y acceso a la información, además de sentar un muy mal precedente en la región para la forma de enfrentar las protestas. Panamá no fue un caso aislado, organizaciones de Ecuador denunciaron restricciones a la conexión en regiones de fuerte protesta social atravesada por una actuación abusiva de las fuerzas de seguridad, según denunciaron autoridades internacionales de derechos humanos.

Ciberseguridad: más criminalización, menos protección

La geopolítica de la seguridad digital en 2025 estuvo marcada por debates internacionales y regionales sobre cómo enfrentar los delitos informáticos sin sacrificar derechos. Tras su decepcionante aprobación en 2024, la principal novedad del año fue la apertura a firma de la Convención de Naciones Unidas contra la ciberdelincuencia en Hanoi en octubre, con la mitad de los países latinoamericanos adhiriendo rápidamente. Como hemos denunciado ampliamente, se trata de un tratado global que obliga a los Estados a crear amplias facultades de vigilancia y facilitar la cooperación transfronteriza. La controversia evidenció cómo las iniciativas globales contra el cibercrimen generan consecuencias directas en América Latina: sin mecanismos de debido proceso, los gobiernos podrían compartir datos sensibles y perseguir a defensores de derechos humanos bajo cargos vagos de “ciberdelitos”.

A la vez, en el plano interno, varios países avanzaron con políticas sobre ciberseguridad. Chile comenzó la aplicación plena de la Ley Marco de Ciberseguridad; en tanto que Argentina aprobó el Plan Federal de Prevención de Ciberdelitos y Gestión Estratégica de la Ciberseguridad (2025‑2027), que busca fortalecer la respuesta ante amenazas cibernéticas y promover una cultura de ciberseguridad, y convoca a provincias y a la ciudad de Buenos Aires a adherir. Brasil promulgó la estrategia nacional E‑Ciber, con una ambiciosa agenda de gobernanza y promoción de la ciberseguridad en todo el país; mientras Perú, por su parte, sometió a consulta pública la Estrategia Nacional de Ciberseguridad 2026‑2028 (ESNACIB), orientada a un enfoque holístico y proactivo frente a los riesgos digitales. Por cierto, una apropiada implementación de tan loables iniciativas siempre requerirá de una participación significativa de las expertas no gubernamentales y de las comunidades más afectadas por los riesgos del ciberespacio.

Frente a estas tendencias, Derechos Digitales ha protagonizado intensas actividades en defensa de la seguridad para todas y todos. Actuamos instando a no suscribir la Convención de la ONU contra la ciberdelincuencia por carecer de salvaguardas. Participamos en audiencias públicas a nivel nacional -junto a expertas internacionales- para las políticas de ciberseguridad y cibercrimen, buscando protegerlos derechos fundamentales y alertando sobre los peligros de normas que amplían la vigilancia sin controles democráticos. Y nos preparamos para seguir de cerca la implementación de nuevas reglas que deberían apuntar, no a la criminalización, sino a la prevención y la protección.

Privacidad y vigilancia, entre expansión y resistencia

Pese a algunos avances normativos, la vigilancia se expandió en 2025. La videovigilancia alcanzó niveles récord: Ciudad de México pasó de 8.000 cámaras de videovigilancia en 2009 a más de 83.000 en 2025 y se propone llegar a 150.000, convirtiéndola en una metrópoli intensamente vigilada. Si a eso le sumamos el avance de tecnologías de reconocimiento facial automatizado en toda la región, vemos con preocupación un futuro marcado por sistemas de vigilancia permanente que permitirán facilitar el seguimiento y la represión a una ciudadanía supuestamente libre.

En junio, en medio de una serie de crisis, Ecuador promulgó la Ley Orgánica de Inteligencia, que creó un sistema nacional de inteligencia con potestad para acceder a registros telefónicos, datos de ubicación y tráfico digital sin autorización judicial, obligando a todas las personas y entidades a entregar información requerida y autorizando la infiltración encubierta en organizaciones y movimientos sociales. Este proceso se dio justo después del desembarco en el país de la empresa de vigilancia Palantir, la cual presta servicios a la Corporación Nacional de Telecomunicaciones ecuatoriana para suministrar su plataforma Foundry a la Aduana con el fin de integrar y analizar grandes volúmenes de datos para “administración del riesgo aduanero”. La publicación de la ley, que contó con escasa posibilidad de debate, generó reacción inmediata en la sociedad civil. En conjunto con organizaciones ecuatorianas, desde Derechos Digitales cuestionamos el contenido de la ley y presentamos nuestros argumentos a la Corte Constitucional que actualmente analiza su inconstitucionalidad.

A su vez, en México, un paquete legal aprobado en julio creó la Clave Única de Registro de Población (CURP) biométrica obligatoria, ordenó la interconexión de bases de datos y otorgó a la Secretaría de la Defensa Nacional (SEDENA) facultades para recolectar y procesar datos con fines de inteligencia, así como otras medidas para facilitar la vigilancia masiva y la entrega de datos por privados al Estado sin salvaguardas, formando un nuevo panóptico digital. Estos proyectos evidencian una tendencia regional a fortalecer la vigilancia estatal mediante bases de datos centralizadas y herramientas de inteligencia comercial, sin suficientes garantías de derechos.

Este contexto contrasta con un avance significativo del año anterior, cuando la Corte Interamericana de Derechos Humanos condenó a Colombia por décadas de vigilancia contra defensoras de derechos humanos y reconoció el derecho de las personas a acceder, corregir o eliminar su información de archivos de inteligencia. Hemos defendido la importancia de ese fallo en el cuestionamiento a la nueva ley ecuatoriana, y seguiremos haciéndolo. La influencia del desarrollo de estándares regionales para contener el impulso vigilante de nuestros Estados con la excusa de la seguridad será un elemento crucial de lo que ocurra en 2026.

Violencia de género: visibilización y respuesta a un problema exacerbado por las tecnologías

El año 2025 estuvo marcado por una mayor visibilización de la violencia de género facilitada por la tecnología (VGFT) en América Latina y a nivel global. Instituciones como ONU Mujeres dedicaron especial atención a la temática, llamando a fortalecer las leyes, acabar con la impunidad y exigir responsabilidades a las plataformas, promoviendo inversiones en prevención, alfabetización digital y apoyo a las sobrevivientes. También hacia fin de año, el Mecanismo de Seguimiento de la Convención de Belém do Pará (MESECVI) de la OEA presentó la Ley Modelo Interamericana para Prevenir, Sancionar y Erradicar la Violencia Digital contra las Mujeres. El instrumento fue concebido como estándar legal para que los países adapten sus normativas y reconoce la gravedad de la VGFT, con rutas de acción que priorizan la protección integral, la remoción oportuna de contenidos y la reparación del daño. Derechos Digitales contribuyó a la consulta junto a aliadas y comentó la propuesta de articulado, defendiendo una perspectiva más amplia de protección contra la violencia en razón de género.

Junto a estas iniciativas, diversos países y organizaciones lanzaron espacios para debatir y fortalecer marcos normativos. Derechos Digitales protagonizó un activismo robusto en 2025 centrado en el combate a la violencia de género digital, tanto a través de campañas públicas como manteniendo la presencia en instancias como la Comisión de la Condición Jurídica y Social de la Mujer (CSW) de la ONU en marzo, y el diálogo global “Luchas conectadas” en Nairobi en noviembre. Junto a UNFPA, preparamos la guía “Principios orientadores para una reforma legislativa y de políticas públicas frente a la violencia de género facilitada por la tecnología”, un documento que propone un marco integral con seis principios esenciales para transformar la normativa y garantizar los derechos de las sobrevivientes.

Sin embargo, la agenda antiderechos que se fortalece a nivel global ha afectado profundamente los espacios de discusión y construcción de políticas en materia de género, con el intento de limitar su interpretación a mujeres y niñas de modo a excluir cuerpos que cuestionan la norma. La agenda de grupos y gobiernos extremistas, y su búsqueda por eliminar las posibilidades de existencia de las personas LGBTIQA+, ha llegado a la arena internacional arriesgando retrocesos importantes en materia de garantía y promoción de derechos humanos. Desde Derechos Digitales, nuestro compromiso continúa siendo el de impulsar reformas legales y políticas integrales efectivas para combatir la VGFT, que incorporen la perspectiva de derechos humanos e interseccional, dando cuenta de todas las expresiones de género.

La salida de la crisis es colectiva

El balance de 2025 muestra una aparente paradoja: la adopción de normas pioneras y acuerdos internacionales convive con la expansión de prácticas de control y con una geopolítica fragmentada. La regulación de la IA, la permanencia del IGF y las nuevas leyes de ciberseguridad demuestran que la comunidad internacional reconoce la necesidad de reglas, pero las grandes potencias divergen en su enfoque, y el Sur Global enfrenta influencias corporativas y estatistas. La violencia de género y la desinformación exhiben que la tecnología reproduce desigualdades preexistentes y que las respuestas deben ser sistémicas y no meramente punitivas. La vigilancia masiva avanza bajo la bandera de la seguridad a nivel nacional e internacional, ignorando estándares de derechos humanos que los Estados están obligados a respetar.

Pero es esa misma realidad la que confirma la misión que sostenemos desde hace 20 años. Y en nuestro ejercicio de observar nuestro pasado y pensar en nuestro futuro, la constatación del presente nos confirma que la defensa de los derechos humanos en el entorno digital exige articular distintos planos de acción: la regulación y la gobernanza global, el combate y la prevención de la violencia, y la defensa de la libertad de expresión, la seguridad y la privacidad. De cara al 2026, nos preguntamos sobre cómo evitar que la regulación de la IA consolide monopolios, cómo traducir los compromisos multilaterales en políticas con participación y enfoque de género, cómo combatir la violencia y la desinformación sin coartar la expresión, y cómo resistir la normalización de la vigilancia.

El futuro del ecosistema digital sigue abierto, pero no depende solamente de lo que ocurre en línea. Nuestra responsabilidad colectiva es disputar la dirección de ese ecosistema hacia la justicia y la democracia. Allí estaremos en 2026.

Contribución al Consejo Asesor de Contenido de Meta sobre la expansión del programa de notas de la comunidad

En esta contribución presentamos evidencia sobre las fallas y la ineficacia, ya documentadas a partir del caso de X, del sistema de notas de la comunidad para hacer frente a la desinformación y la diseminación de contenidos engañosos en redes sociales. También, argumentamos que en países del Sur Global, como los de América Latina, donde los esfuerzos estatales para abordar la desinformación han sido insuficientes, heterogéneos y desequilibrados ante los múltiples intereses en juego; y donde en los últimos años ha persistido el silenciamiento de voces críticas y comunidades históricamente marginalizadas, un sistema como el de las notas comunitarias de Meta incrementa el riesgo de un aumento significativo del abuso, la violencia, la desinformación y la manipulación en las redes sociales.