A veinte años de WSIS: defender lo mínimo, disputar lo posible

Veinte años después de la Cumbre Mundial sobre la Sociedad de la Información (WSIS), la revisión WSIS+20 se desarrolla en un contexto marcado por profundas transformaciones tecnológicas y políticas. La visión de una sociedad de la información centrada en las personas, establecida en WSIS, sigue vigente, pero hoy se ve atravesada por tensiones crecientes: desigualdades persistentes, concentración de poder, retrocesos democráticos y tensiones geopolíticas que estructuran la agenda digital global. Desde la sociedad civil, participamos en este proceso con una posición clara: que el balance de estas dos décadas no se limite a un ejercicio diplomático, sino que permita responder a las urgencias del presente y sentar bases para un futuro respetuoso de los derechos humanos, la igualdad de género y la justicia ambiental.

Veinte años después de WSIS: qué se está discutiendo y por qué importa

Cuando se convocó la Cumbre Mundial sobre la Sociedad de la Información (CMSI, WSIS por sus siglas en inglés), en 2003 y 2005, no existía un marco general que orientara el desarrollo de políticas digitales ni un entendimiento común de la gobernanza de internet como campo de política pública. WSIS surgió ante el reconocimiento de que había una “necesidad urgente de aprovechar el potencial del conocimiento y la tecnología” para cumplir los objetivos de la Declaración del Milenio, con la meta de construir una sociedad de la información centrada en las personas, inclusiva y orientada al desarrollo.

Los resultados de ambas cumbres sentaron las bases de ese marco. La Declaración de Principios de Ginebra presentó una visión compartida basada en derechos; el Plan de Acción de Ginebra propuso Líneas de Acción para llevar esa visión a la práctica; y la Agenda de Túnez abordó la gobernanza de Internet, y creó el Foro de Gobernanza de Internet (IGF), esencial para el diálogo multisectorial. En ese recorrido, WSIS encaminó a la gobernanza de internet “hacia un rumbo de múltiples partes interesadas” (multistakeholder): si bien la idea de cooperación entre distintos actores no era nueva, fue durante WSIS que pasó a entenderse como un elemento indispensable para alcanzar el objetivo de una sociedad de la información verdaderamente centrada en las personas.

A veinte años de ese momento fundacional, el escenario es distinto. Las tecnologías digitales se desarrollan e implementan en sociedades atravesadas por desigualdades estructurales, y las brechas –entre países, dentro de ellos y entre grupos sociales– no solo persisten, sino que se profundizan. El desarrollo acelerado de tecnologías emergentes como la inteligencia artificial, la expansión de tecnologías y prácticas de la vigilancia, la concentración de poder corporativo y los conflictos regulatorios plantean desafíos que WSIS no había anticipado. A esto se suman dinámicas geopolíticas cambiantes que vienen generando retrocesos en materia de democracia y derechos humanos, con impactos particularmente graves en la igualdad de género.

En ese contexto, la revisión WSIS+20, que concluirá en diciembre de 2025, plantea la necesidad urgente de avanzar hacia una noción de justicia digital que responda al contexto actual y sitúe la visión fundacional de WSIS en las experiencias de comunidades históricamente excluidas, profundamente afectadas por formas de autoritarismo estatal y corporativo.

Desde Derechos Digitales participamos activamente en este proceso junto a otras organizaciones, a través de coaliciones que trabajan de manera coordinada. Somos parte de la Global Digital Rights Coalition for WSIS (GDRC-WSIS) y colaboramos con el Global Digital Justice Forum (GDJF) y la Coalición de género. Estas alianzas nos permitieron impulsar una posición común:  cumplir la visión de una sociedad de la información centrada en las personas exige situar los derechos humanos en el centro de la gobernanza digital y de la implementación de las Líneas de Acción, y garantizar que la igualdad de género ocupe un lugar central e irrenunciable. Apostamos por un marco orientado al futuro que permita un entorno digital abierto, libre y seguro y que avance hacia políticas digitales que promuevan equidad, desarrollo sostenible y una gobernanza efectivamente democrática.

El proceso: oportunidades y limitaciones

El proceso WSIS+20 avanzó mediante consultas, llamados a contribuciones y sucesivas versiones del borrador. Pero, a diferencia de la revisión WSIS+10, no contó con un proceso preparatorio como la Plataforma Preparatoria Multisectorial (MPP) impulsada por la UIT en 2015. La ausencia de un mecanismo equivalente, junto con un calendario más corto, limitó las oportunidades de participación.

En paralelo, distintas agencias del sistema de Naciones Unidas realizaron sus propios procesos de revisión: la UIT, la UNESCO y el PNUD avanzaron en evaluaciones sectoriales, mientras que la CSTD -encargada del seguimiento sistémico de WSIS- presentó su informe. Estos insumos alimentaron, en distintos momentos, la negociación intergubernamental.

Para hacer frente a esas limitaciones, desde sociedad civil impulsamos propuestas orientadas a asegurar una participación significativa. Una de ellas fue el Plan de cinco puntos para una revisión inclusiva de WSIS, que planteó medidas concretas para reforzar la transparencia y la inclusión: un calendario claro y público; registros accesibles de aportes y discusiones; oportunidades recurrentes para comentarios; criterios de acreditación más inclusivos y apoyo a grupos subrepresentados; y mecanismos que facilitaran la participación de actores no gubernamentales durante las negociaciones. El objetivo fue operacionalizar las modalidades del proceso y evitar los obstáculos de participación que enfrentamos en el Pacto Digital Mundial.

A lo largo de las distintas etapas -del documento del Elements Paper al Borrador Cero y posteriormente las versiones Rev1 y Rev2- se reflejaron las posiciones estatales en negociación, permitiendo identificar qué temas concentraban mayores consensos y dónde persistían desacuerdos. En este recorrido, el rol de los co-facilitadores fue clave para sostener referencias centrales de WSIS, equilibrar prioridades contrapuestas y mantener un proceso constructivo en un contexto político complejo.

Para complementar este esfuerzo, los cofacilitadores crearon el Consejo Multisectorial Informal de Consulta (IMSB), integrado por personas del Grupo Asesor Multisectorial (MAG) y del Panel de Liderazgo del Foro de Gobernanza de Internet (IGF). Su función fue canalizar perspectivas de actores no gubernamentales, sintetizar aportes y promover una participación más diversa.

Un hito central del proceso fue el  Evento de Alto Nivel WSIS+20, organizado por la UIT junto con la UNESCO, el PNUD y la UNCTAD. En ese marco, desde Derechos Digitales tuvimos a nuestro cargo una sesión oficial sobre la participación del Sur Global en la gobernanza digital, lo que implicó formar parte de la construcción de la agenda del foro. A partir de ese espacio de intercambio, elaboramos un documento de insumo que recogió los aportes y discusiones surgidas durante la sesión. Además, participamos activamente mediante intervenciones en otras sesiones, reuniones con delegaciones y la presentación de recomendaciones centradas en derechos humanos, igualdad de género y participación significativa.

El balance procedimental es mixto. Hubo esfuerzos por abrir espacios de participación, pero estos no alcanzaron el estándar de procesos anteriores. Al mismo tiempo, el desarrollo de las negociaciones volvió a evidenciar límites estructurales del modelo multilateral. Por un lado, las desigualdades entre Estados se traducen en distintos niveles de presencia, capacidad de incidencia y margen de influencia en los espacios de negociación, afectando especialmente a regiones como América Latina, que suelen tener una representación más acotada. Por otro, el carácter cerrado de las negociaciones intergubernamentales -que no pueden ser observadas por otros actores- reduce la transparencia del proceso y profundiza la distancia entre las decisiones que se toman y las realidades que buscan regular. A esto se suma la centralidad de Nueva York como sede de las negociaciones finales, lo que limita considerablemente las posibilidades de participación presencial, en particular para organizaciones y personas de la región, dadas las restricciones de recursos y las políticas migratorias vigentes. En este contexto, el protagonismo de los Estados vuelve a poner de relieve una tensión persistente: las posiciones gubernamentales no siempre reflejan las realidades ni las demandas de las personas y comunidades que habitan sus países, una brecha que resulta especialmente preocupante en el caso de poblaciones en situación de vulnerabilidad.

Avances y límites en un contexto político complejo

El desarrollo de la revisión WSIS+20 debe leerse a la luz de un contexto político más tenso, y quizás más inestable que en procesos anteriores. La 28° sesión de la Comisión de Ciencia y Tecnología para el Desarrollo (CSTD) funcionó como un primer termómetro de ese clima: allí se evidenciaron tanto áreas de coincidencia como desacuerdos profundos, así como cambios relevantes en las posturas estatales. En particular, la decisión de Estados Unidos de forzar una votación -vinculada a su oposición a referencias a los Objetivos de Desarrollo Sostenible y a menciones sobre género- rompió con una práctica histórica de consensos y anticipó un escenario de negociación más confrontativo.

Ese clima quedó reflejado en las contribuciones estatales al Elements Paper, que operó como un mapa inicial de prioridades. Allí se hicieron visibles profundas diferencias en cuestiones clave: el futuro de las Líneas de Acción, el alcance del modelo de múltiples partes interesadas, la cooperación reforzada, la rendición de cuentas del sector privado y el lugar que debían ocupar la inteligencia artificial y la gobernanza de datos dentro del marco de WSIS. Al mismo tiempo, se notaron ciertas coincidencias más amplias en torno al acceso, la inclusión y la importancia del ecosistema de gobernanza de internet. En varios de estos ejes, las posiciones oscilaron entre propuestas de ajustes incrementales y planteos de cambios más estructurales, incluida la creación de nuevas Líneas de Acción, entre ellas una dedicada a la igualdad de género.

El Borrador Cero (Zero Draft) representó un avance relevante respecto del Elements Paper, particularmente a la luz de las críticas formuladas en las primeras etapas del proceso. En materia de derechos humanos, el borrador incorporó referencias explícitas a tratados internacionales clave y a la obligación de adoptar mecanismos de debida diligencia, supervisión y mecanismos de reparación, fortaleciendo el anclaje del texto en el derecho internacional. En relación con la igualdad de género, el cambio fue especialmente significativo: mientras el Elements Paper se limitaba a referencias a mujeres y niñas, el Zero Draft incorporó explícitamente el concepto de género y estableció la transversalización de género como un elemento aplicable a lo largo del marco. Este avance resultó particularmente relevante en un contexto político que parecía anticipar la continuidad de un enfoque más restrictivo. El texto también reafirmó de manera clara la cooperación multisectorial como principio orientador del proceso. Una victoria particularmente significativa para la sociedad civil fue la decisión de reafirmar la permanencia del Foro de Gobernanza de Internet.

Al mismo tiempo, el texto evidenció límites importantes. Su abordaje tendió a ser excesivamente optimista y careció de un análisis estructural de las formas contemporáneas de injusticia digital. Muchas de sus promesas -en materia de financiamiento, fortalecimiento de capacidades, integración efectiva de derechos humanos o enfoque de género- no se acompañaron de estrategias claras ni recursos definidos, lo que planteó interrogantes sobre su viabilidad.

Frente a este borrador, desde la sociedad civil señalamos la importancia de preservar los avances alcanzados y de evitar que se diluyeran en las etapas siguientes de negociación. Entre varias cuestiones, propusimos incorporar un reconocimiento explícito de la obligación de los Estados de aplicar un enfoque precautorio y de abstenerse de utilizar tecnologías digitales incompatibles con el derecho internacional de los derechos humanos, así como de revisar sus marcos de vigilancia e interceptación de datos conforme a los principios de legalidad, necesidad y proporcionalidad.

También solicitamos incluir referencias claras a la responsabilidad de los Estados de exigir a las empresas la realización de procesos de debida diligencia y evaluaciones de impacto en derechos humanos, y de integrar estos estándares a lo largo de todo el ciclo de vida de las tecnologías digitales, incluidas la inteligencia artificial y la infraestructura pública digital.

Este marco, delineado entre el Elements Paper y el Zero Draft, fijó los principales ejes que atravesarían las versiones posteriores del texto, donde la disputa ya no pasaría tanto por incorporar nuevos compromisos como por sostener -o no debilitar- los ya alcanzados en un contexto político cada vez más restrictivo.

Revisiones 1 y 2: retrocesos, mejoras y tensiones abiertas

La Revisión 1 evidenció un retroceso concreto respecto del Borrador Cero en aspectos clave vinculados a derechos humanos, equidad y justicia digital global. Este retroceso se materializó en la eliminación de disposiciones específicas. Preocupantemente, se suprimió el párrafo que explicitaba la obligación de los Estados de promover un entorno tecnológico digital abierto, seguro, estable, libre, interoperable, inclusivo, accesible y pacífico, conforme al derecho internacional. También se eliminó lenguaje clave que establecía salvaguardas frente a la vigilancia masiva y exigía que la vigilancia selectiva respetara los principios de legalidad, necesidad y proporcionalidad, debilitando estándares ampliamente reconocidos.

En materia de género, se eliminó el párrafo dedicado a la violencia facilitada por la tecnología, incluida la violencia sexual y de género, lo que supuso la pérdida de referencias explícitas a la necesidad de abordar estos daños de manera integral. En conjunto, estos cambios reforzaron un tono tecno-optimista que dejó fuera las asimetrías estructurales del ecosistema digital y sus efectos desiguales, particularmente en los países y comunidades del Sur Global.

La Revisión 2 introdujo mejoras parciales frente a la versión anterior. Se preservaron principios centrales como la cooperación multisectorial y el reconocimiento de las directrices de NetMundial+10, y se restauraron referencias a la violencia facilitada por la tecnología, incluida la violencia sexual y de género, así como al manejo de residuos electrónicos. El texto también avanzó al llamar explícitamente a las plataformas de redes sociales y a las empresas de tecnologías de vigilancia a cumplir con los Principios Rectores de Naciones Unidas sobre Empresas y Derechos Humanos. Asimismo, reforzó la permanencia del Foro de Gobernanza de Internet al establecer una base estable y sostenible, con recursos y personal adecuados conforme a los procedimientos presupuestarios de la ONU, e incorporó orientaciones más claras sobre seguimiento e implementación mediante una hoja de ruta conjunta a nivel del sistema de Naciones Unidas, en articulación con el Pacto Digital Mundial.

El tramo final: riesgos y prioridades

En la etapa final del proceso, con la resolución encaminándose a la Asamblea General de Naciones Unidas, el desafío inmediato es sostener lo ya acordado. A lo largo de la revisión, gran parte del esfuerzo de la sociedad civil no se orientó a ampliar compromisos, sino a evitar retrocesos en materia de derechos humanos. Esta dinámica -defender mínimos en lugar de avanzar- refleja tanto el momento político actual como los límites del multilateralismo frente a los desafíos de la gobernanza digital.

Persisten, además, omisiones preocupantes. La inteligencia artificial es un ejemplo claro: el texto sigue evitando compromisos explícitos para que los Estados se abstengan de usar o cesen el uso de sistemas que no pueden operar en conformidad con el derecho internacional de los derechos humanos o que implican riesgos indebidos para su ejercicio, pese a la evidencia acumulada de daños reales y desproporcionados sobre comunidades marginadas y países del Sur Global. Esta falta de voluntad política ya se había evidenciado en el Pacto Digital Mundial y vuelve a repetirse aquí.

También en materia de rendición de cuentas del sector privado y de igualdad de género el texto resulta insuficiente. Las empresas tecnológicas concentran un poder significativo sobre las dinámicas de internet, pero los compromisos para exigir responsabilidades, garantizar remedios efectivos y establecer obligaciones claras de debida diligencia siguen siendo débiles. En paralelo, el enfoque de género continúa siendo frágil y disputado, lo que refuerza la necesidad de afirmar sin ambigüedades su integración transversal en todas las Líneas de Acción.

En este tramo final, la negociación avanza exclusivamente entre Estados, sin instancias formales de consulta ni posibilidad de observación por parte de otros actores. En este contexto, la expectativa está puesta en que aquellos Estados que se presentan como defensores de los derechos humanos -y, en particular, de políticas exteriores feministas- actúen en coherencia con esos compromisos y eviten nuevos retrocesos. El resultado de WSIS+20 mostrará hasta qué punto esas posiciones se traducen en decisiones concretas.

20 años defendiendo derechos digitales: aprendizajes desde el LACIGF y una mirada hacia adelante

Este año cumplimos veinte años de trabajo en la defensa, promoción y desarrollo de los derechos humanos en los entornos digitales de América Latina. Han sido dos décadas de cambios profundos, donde pasamos de una internet más descentralizada y colaborativa a un ecosistema mediado por plataformas globales, dominado por la extracción de datos y las dinámicas de vigilancia tanto estatal como corporativa. Aún así, la región sigue siendo un territorio fértil para la innovación social, la cooperación y las resistencias digitales.

En ese espíritu, decidimos aprovechar el LACIGF18, el principal espacio de encuentro multiactor de la región latinoamericana sobre gobernanza de internet, para celebrar nuestro aniversario número 20 junto a organizaciones aliadas, colegas y amistades que han acompañado este recorrido. La ciudad de Córdoba en Argentina se transformó así en un punto de encuentro entre el pasado y el futuro: un espacio para reconocer los aprendizajes que nos han traído hasta aquí y proyectar colectivamente los próximos desafíos.

Nuestra participación en el LACIGF18

El LACIGF siempre ha sido un foro donde se cruzan perspectivas diversas: sociedad civil, gobiernos, academia, sector privado y comunidad técnica, y para nosotras su valor radica en que permite debatir la política tecnológica desde el Sur Global, discutir las desigualdades que atraviesan la conectividad y construir estrategias comunes frente a los desafíos emergentes. En esta edición participamos en distintas sesiones que abordaron temas clave para la región, desde la ciberseguridad comunitaria hasta los desafíos ambientales y la protección de datos.

Una de nuestras principales actividades en el marco del foro fue estar presentes en el evento previo convocado por la comunidad juvenil de la región, el YouthLACIGF, donde formamos parte del taller “Ciberseguridad Comunitaria: Protección colectiva de nuestros entornos digitales”.

El espacio reunió a juventudes, defensoras ambientales, periodistas y personas vinculadas a organizaciones de base de distintos países. Las experiencias compartidas fueron diversas, pero coincidieron en algo esencial: la inseguridad digital se vive de manera concreta y diferenciada. Afecta a mujeres y a personas de la comunidad LGBTIQA+, a activistas, infancias, adolescencias y personas mayores, cada grupo con vulnerabilidades y formas de exposición diferentes. Se expresa en el acoso y la violencia en línea, en la difusión no consentida de datos personales, en las campañas de odio o en la vigilancia dirigida hacia quienes denuncian abusos de poder, corrupción o daño ambiental. En todos los casos, la tecnología no solo refleja las desigualdades estructurales de nuestras sociedades, sino que puede reproducirlas y profundizarlas.

A partir del intercambio surgió una afirmación clave: la seguridad digital es colectiva. No se trata únicamente de saber configurar contraseñas o instalar herramientas de cifrado, sino de construir redes de confianza, sostener conversaciones difíciles y acompañarse en los momentos de mayor exposición o riesgo. Esta perspectiva comunitaria nos invita a repensar las prácticas institucionales, los programas de formación y las políticas públicas, para situar la seguridad en un enfoque de bienestar y cuidado.

También participamos del taller llamado “Medio ambiente, tecnología y resistencias: desafíos digitales de la defensa ambiental en América Latina”, dedicado a explorar el vínculo entre crisis socioambiental y tecnología, con un enfoque situado en las personas que defienden el medio ambiente en América Latina. Nos propusimos visibilizar el rol fundamental de la tecnología frente a la emergencia climática y la crisis ecológica, y evidenciar las barreras que enfrentan las activistas para un acceso significativo a internet y a la información. La falta de conectividad en territorios rurales, la concentración de infraestructura tecnológica y las amenazas digitales, como las campañas de desinformación, el hostigamiento en línea o la violencia de género facilitada por las tecnologías, son obstáculos que inciden directamente en su capacidad de ejercer derechos y proteger el entorno.

El panel reunió a personas defensoras del medio ambiente de diferentes países, junto a representantes de la sociedad civil, la comunidad técnica, gobiernos locales y organismos de derechos humanos. Fue un espacio de diálogo multisectorial donde se compartieron experiencias concretas de resistencia, como las movilizaciones frente a la instalación de data centers o proyectos extractivos que profundizan desigualdades ambientales y digitales.

La conversación también permitió reconocer los marcos regionales que pueden fortalecer esta protección, como el Acuerdo de Escazú y los debates hacia la COP30 sobre cambio climático. Estos instrumentos abren oportunidades para incorporar la dimensión digital en la agenda ambiental y garantizar que la defensa de la naturaleza y de los derechos humanos vaya de la mano con la defensa de una tecnología justa, segura y accesible.

Finalmente, en el taller “Datos en fuga: cómo se exponen y explotan nuestros datos en internet”, presentamos avances de nuestra investigación en curso sobre explotación ilegal y comercialización de bases de datos estatales en Argentina, Brasil y Perú. En la instancia destacamos que estas filtraciones de información personal no son meras fallas de seguridad ni accidentes administrativos. Son parte de un circuito de extracción y monetización que alimenta economías ilegales, facilita extorsiones y expone a las personas a riesgos profundos, especialmente aquellas que ya enfrentan desigualdades estructurales por razones de género, clase, raza o territorio.

Frente a este escenario, la protección de datos personales debe abordarse como un componente esencial de los derechos humanos. No se trata solo de un aspecto técnico o administrativo, sino de una condición para garantizar autonomía, privacidad y seguridad. Cuando los datos personales son filtrados, vendidos o manipulados, las consecuencias pueden ser irreversibles, desde daños económicos hasta violencia física. Por eso, insistimos en la necesidad de políticas públicas sólidas, autoridades independientes, más transparencia y rendición de cuentas de las plataformas, y mecanismos efectivos de investigación y sanción.

Celebrar, recordar y proyectar: una nueva edición de Latin America in a Glimpse

En el marco del LACIGF celebramos nuestros 20 años de trabajo y presentamos la nueva edición de Latin America in a Glimpse, una publicación que reúne los hitos, aprendizajes y tensiones que han marcado dos décadas de defensa de los derechos digitales en América Latina. Más que un recuento histórico, el documento busca ser una invitación a mirar el pasado con sentido crítico y el futuro con imaginación política: una herramienta para activar memoria, conversación y acción colectiva.

La publicación está acompañada por un juego de cartas que permite reconstruir esta historia de manera participativa, conectando experiencias, hitos y desafíos. En el mazo hay también veinte cartas en blanco: no son un adorno, sino una declaración. Representan todo lo que falta contar, lo que está ocurriendo hoy y lo que aún no existe. Nos recuerdan que la historia de los derechos digitales no está cerrada, y que escribirla es una tarea compartida. Nuestro momento de celebración nos permitió reflexionar sobre algunos de esos hitos a partir de la experiencia de amigas y expertas de toda la región.

Llegar a este aniversario nos encuentra en un momento complejo. La expansión de sistemas de vigilancia automatizada, la opacidad de las infraestructuras y la concentración del poder tecnológico amenazan las bases mismas del espacio público digital. Pero también sabemos que en la región hay comunidades, movimientos y organizaciones que no han dejado de imaginar alternativas, tejer alianzas y crear tecnología con sentido de justicia social.

El futuro de los derechos digitales dependerá de nuestra capacidad de mantenernos unidas, fortalecer la cooperación regional y seguir disputando el sentido político de la tecnología. Veinte años después, seguimos convencidas de lo mismo que nos movilizó al inicio: que la tecnología puede ser una herramienta para ampliar libertades, fortalecer la democracia y proteger la dignidad de las personas.

Latin America in a Glimpse: 20 años defendiendo derechos digitales

Latin America in a Glimpse es una publicación que recorre dos décadas de trabajo de Derechos Digitales en la defensa y promoción de los derechos humanos en los entornos digitales de América Latina. No es una memoria ni una cronología, sino una reflexión sobre cómo se han transformado la conectividad, las tecnologías y los debates públicos en la región, y sobre las resistencias que han surgido para garantizar que el desarrollo digital responda al interés público.

El documento revisa cómo pasamos de una internet abierta y descentralizada a un ecosistema dominado por plataformas globales, donde la conectividad ya no es solo acceso, sino también condiciones de justicia, autonomía y participación significativa. En este contexto, América Latina ha sido tanto territorio de experimentación tecnológica como de respuestas comunitarias y creativas frente a modelos extractivistas de datos, recursos y trabajo.

Este “Latin America in a Glimpse: 20 años defendiendo derechos digitales” se organiza en tres capítulos: los dos primeros, escritos por los codirectores ejecutivos de Derechos Digitales, Juan Carlos Lara y Jamila Venturini, y el tercero, por Paloma Lara Castro, directora de Políticas Públicas. Cada uno aborda, desde distintas perspectivas, las transformaciones, tensiones y resistencias que han marcado dos décadas de defensa digital en América Latina.

Junto al documento, presentamos un juego de cartas con 60 hitos del ecosistema digital latinoamericano y de nuestra historia institucional, además de 20 cartas en blanco para escribir los que aún están por venir.

Este juego es una invitación a revisar estos últimos 20 años desde una perspectiva colectiva y participativa. A través de distintos hitos (normas, campañas, movimientos sociales, avances tecnológicos y controversias públicas) podrás reconstruir una línea del tiempo que muestra cómo se
ha dado la defensa de los derechos digitales en América Latina y el mundo, sus conquistas y desafíos.

Juega, debate y reflexiona:

  • ¿Qué acontecimientos marcaron un antes y un después?
  • ¿Qué luchas siguen vigentes?
  • ¿Qué aprendizajes nos dejó cada momento?

*Si necesitas ayuda para imprimir el juego o tienes dudas sobre la investigación escríbenos a través de nuestro formulario de contacto

Contribución de Derechos Digitales a la Asamblea General de las Naciones Unidas sobre el proceso de actualización de la Resolución para la promoción y protección de los derechos humanos en el contexto de las tecnologías digitales

Presentamos una serie de comentarios para contribuir al proceso de actualización de la resolución A/RES/78/213, cuyo objetivo principal sigue siendo la garantía y la promoción de los derechos humanos tanto online como offline, integrando ahora aspectos como: la reafirmación del Pacto por el Futuro y el Pacto Digital Global; el reconocimiento de la importancia de la conectividad, el acceso a Internet y la alfabetización digital, especialmente en los países en desarrollo; el papel de la inteligencia artificial (IA) en la promoción y protección de los derechos humanos; la desinformación y la integridad de la información en el contexto de la IA; la protección de los niñeces y los grupos vulnerables en los entornos digitales; la perspectiva de género y la inclusión; el refuerzo de la participación significativa de múltiples partes interesadas en los ámbitos de gobernanza de las tecnologías digitales; y las salvaguardias contra el uso indebido de las tecnologías de reconocimiento biométrico y facial.

Disputar las reglas del juego: métricas, comunicación y gobernanza digital

Los algoritmos de las redes sociales, diseñados para maximizar la atención y el tiempo de permanencia, determinan qué se muestra y qué se oculta, sin ofrecer transparencia sobre cómo operan. Este modelo no está pensado para fortalecer derechos ni construir ciudadanía digital, sino para capturar datos y generar interacción continua bajo la lógica comercial.

En el entorno digital, las organizaciones sociales enfrentamos una paradoja: necesitamos comprender cómo circulan nuestros mensajes y medir su impacto, pero las métricas disponibles no reflejan todo lo que importa. ¿Cómo aprendemos de los datos sin permitir que condicionen el sentido de nuestro trabajo y la forma en que construimos comunidad?

Gobernanza algorítmica: el poder invisible que decide qué se ve

En el ecosistema digital dominante, las organizaciones sociales participamos de la lógica de los números que se pueden mostrar. Los sistemas automatizados de los algoritmos refuerzan ese ciclo de estímulo y recompensa, incentivando contenidos que generen reacción antes que reflexión.

Como planteamos en nuestra columna sobre cómo comunicar más allá de las redes sociales, las plataformas moldean nuestras estrategias comunicativas a través de mecanismos opacos que privilegian la visibilidad sobre el sentido. Los algoritmos de las redes condicionan la circulación de los mensajes, sus interacciones y moldean las formas de participación. En ese escenario, la tarea no es solo mostrar mensajes, sino también disputar los marcos donde se define qué cuenta como comunicación efectiva, reconociendo que dicha disputa también es una forma de resistencia frente a la gobernanza impuesta por estas empresas de Silicon Valley y que estructuran el espacio público digital.

Nuestra investigación sobre “Resistencias digitales y gobernanza algorítmica” muestra que las organizaciones no deben limitarse a adaptarse a estas reglas, sino que pueden disputarlas activamente. No entender la lógica de los algoritmos puede llevar a que las métricas controlen la comunicación en lugar de orientarla. La resistencia no es solo el contenido que publicamos, sino la manera de medir y valorar ese contenido, aun cuando los algoritmos no lo premien con números.

En Derechos Digitales, nuestros canales digitales buscan abrir conversaciones sobre vigilancia masiva, soberanía tecnológica, y Derechos Humanos en los entornos digitales, temas que exigen atención, no consumo rápido. No buscamos adaptarnos a las lógicas algorítmicas de visibilidad, sino tensionarlas: producir contenidos que inviten a la reflexión. Para nuestro trabajo, se trata de estar ahí, manteniendo una presencia crítica que reivindique el derecho a comunicar en nuestros propios términos.

Los retos de las organizaciones sociales

Las organizaciones sociales no competimos en igualdad de condiciones. A diferencia de marcas o influencers, nuestras narrativas suelen ir a contracorriente de lo que la plataforma considera atractivo. Además, en América Latina enfrentamos desafíos adicionales: no contamos con los mismos recursos, acceso a herramientas ni visibilidad que tienen muchas organizaciones de Estados Unidos o Europa, lo que hace aún más difícil captar atención con campañas digitales y medir su alcance.

Un estudio reciente de Austral Comunicación (comunicadoras sociales en Uruguay, Ecuador y Costa Rica) sobre la medición del impacto social en la comunicación organizacional en América Latina señala que, aunque las y los profesionales reconocen la importancia de evaluar el cambio social, persisten vacíos metodológicos y una tendencia a privilegiar los datos fácilmente cuantificables sobre los procesos participativos o cualitativos. Además el International Journal of Communication cuestiona el concepto de “looking cool” como tendencia de las organizaciones a diseñar contenidos que parezcan atractivos para captar atención, más que contenidos que profundicen narrativas.

En las redes sociales, esto nos empuja a ver lo que publicamos solamente a través de números que traducen estándares y lógicas de mercado pensadas para productos, no para resistencias. Entonces, ¿reportamos lo que moviliza, o lo que suma? ¿Optimizamos el contenido para gustar o para fortalecer procesos? Un riesgo es cuando el objetivo deja de ser el contenido o el vínculo para volverse la métrica misma.

¿Si desafiamos las lógicas convencionales?

En comunicación digital muchas métricas se concentran en outputs (posts, impresiones) o engagement (clics, reacciones). Pero lo que importa para la incidencia son los procesos y transformaciones que se movilizan más allá del entorno digital: cuando un mensaje impulsa debates públicos, fortalece comunidades o contribuye a cambios concretos. Por ejemplo, presionar por una ley, instalar un tema en la agenda política o modificar una práctica institucional. Estos efectos reflejan cómo la acción digital se traduce en resultados concretos en la vida de las personas y en la esfera política. Por eso, es fundamental abrir conversaciones con otras organizaciones y dialogar sobre cómo definir qué “éxitos intermedios” podríamos medir.

Las narrativas que queremos posicionar desde los movimientos sociales exigen reflexión, cuidado y reajuste. Son conversaciones que siembran ideas y regresan, meses después, convertidas en nuevas formas colectivas de activismo. Son ejercicios que cambian la manera en que las personas se relacionan con el entorno digital, brindando contenidos políticos, educativos y reflexivos.

Organizaciones de la región están ensayando nuevas maneras de habitar el entorno digital que desafían la lógica de las mediciones convencionales. Hace algunos meses atrás en un conversatorio guiado por SocialTIC, discutimos estrategias para definir objetivos, audiencias y recursos desde la autonomía organizacional. Desde Guatemala, Andrea Ixchíu compartió la experiencia de Hackeo Cultural y la creación de Milpamérica, una red social autónoma pensada para “reforestar nuestras comunicaciones en tiempos de monocultivo”. Desde Colombia, la Fundación Karisma ha producido análisis e incidencia sobre redes comunitarias como alternativa de conectividad y producción de contenido local, explorando cómo estas infraestructuras autónomas pueden cerrar brechas digitales y fortalecer los vínculos comunitarios en el entorno digital.

Desde Derechos Digitales, gran parte de cambios concretos en la comprensión, la acción y la protección de derechos humanos en el entorno digital sucede fuera de lo que se ve en las redes sociales: cuando el Consejo Asesor de Meta cita nuestro aporte en la decisión final por caso de censura, cuando organizaciones en contextos de crisis políticas usan nuestras guías para el resguardo digital, cuando una adolescente reconoce una experiencia de violencia digital en un carrusel de las redes. Ninguna de esas acciones aparece en las estadísticas, pero son el verdadero corazón del trabajo, que debemos continuar impulsando dentro y fuera de las redes sociales.

El dato como brújula comunicacional

Las organizaciones sociales no existieron para competir en métricas digitales, nacieron para disputar sentidos, transformar realidades y construir futuro. En el contraste entre medir lo cuantitativo y acompañarlo de lo cualitativo, está el balance.  En la práctica, esto se puede recopilar a través de herramientas de monitoreo social, encuestas rápidas, entrevistas o seguimiento de interacciones en grupos y comunidades. Así, la medición se convierte en una guía para ajustar estrategias y fortalecer la comunidad.

Sabemos que en nuestra labor diaria contamos con historias de cambio, narrativas de comunidad y testimonios que no figuran en los números, pero sí dicen mucho del poder transformador. El proyecto NGO-IDEAs, que desde 2015 ha trabajado con ONGs en 11 países de la región, promueve un enfoque participativo en el monitoreo de efectos e impactos. Este enfoque destaca la importancia de involucrar a las comunidades en la definición de indicadores y en la evaluación de los resultados, reconociendo que las métricas cuantitativas deben complementarse con datos cualitativos para capturar la complejidad del trabajo en derechos humanos.

En el equipo de comunicación de Derechos Digitales, observamos métricas cuantitativas para entender cómo circulan nuestros contenidos; por otro, prestamos atención a los resultados cualitativos: quién se involucra en conversaciones, qué conexiones se generan entre participantes y cómo se consolidan espacios de colaboración y aprendizaje. Para nosotras, el éxito no está solo en los números visibles, sino en que la información y las herramientas lleguen a quienes pueden actuar y tomar decisiones informadas.

A través de aplicar estas mediciones, podemos incorporar en informes y evaluaciones que no todo puede cuantificarse, que hay efectos que escapan al dato. Un acto de honestidad que puede recuperar credibilidad política frente a quienes esperan números.

Reescribiendo las reglas impuestas

Si queremos un entorno digital más justo, las organizaciones debemos participar activamente en los espacios donde se deciden las reglas del juego. Esto incluye desde mesas de diálogo con las plataformas hasta instancias regionales e internacionales sobre políticas de internet, regulación de contenidos y estándares de transparencia algorítmica.

Exigir transparencia sobre cómo funcionan los algoritmos, qué se amplifica, qué se oculta y con qué criterios, es clave para que las métricas de las plataformas no terminen imponiendo lo que “vale” o “no vale” comunicar.

La incidencia colectiva de las organizaciones sociales se convierte en una forma de resistencia frente a la lógica de métricas impuestas por las plataformas. Participar en la gobernanza digital significa defender el derecho a comunicar.

De este modo, la comunicación deja de ser solo una estrategia para difundir mensajes: se convierte en herramienta de transformación estructural, en puente entre comunidades, derechos y espacios de decisión. Un entorno digital donde los datos nos sirvan para entender, acompañar y potenciar los procesos de cambio, no para definirlos.

Resistencia digital en la era de la gobernanza algorítmica: perspectivas desde la experiencia latinoamericana

El ensayo analiza cómo las plataformas digitales han pasado de ser espacios de amplificación ciudadana a escenarios donde los algoritmos deciden qué voces se visibilizan y cuáles se borran. A partir de experiencias latinoamericanas, el texto documenta casos de silenciamiento automático, moderación sesgada y estrategias de resistencia como el algospeak o el uso de plataformas descentralizadas. Proponemos que la resistencia digital debe incluir demanda de transparencia algorítmica, participación comunitaria en la gobernanza de plataformas y defensa colectiva de estructuras alternativas para garantizar que las narrativas diversas no sean devoradas por filtros invisibles.

Aportes del Foro Global de Justicia Digital al borrador cero del documento final de la CMSI+20

Como parte del Foro Global de Justicia Digital, presentamos una contribución conjunta al borrador cero del documento final de la CMSI+20. Hacemos recomendaciones generales, como moderar la lectura tecno-optimista del progreso hacia los compromisos de la CMSI, así como recomendaciones específicas sobre temas como género, derechos humanos, gobernanza de los datos e inteligencia artificial.

Aportes de Gender in Digital Coalition al borrador cero del documento final de la CMSI+20

Como parte de Gender in Digital Coalition (GiDC), presentamos una contribución conjunta al borrador cero del documento final de la CMSI+20. Hacemos recomendaciones sobre cómo garantizar la incorporación de la perspectiva de género en el marco de la CMSI+20, centrándonos en temas como la brecha digital, la violencia de género facilitada por la tecnología y los mecanismos de rendición de cuentas.

Tras el telón de la Inteligencia Artificial: modelos computacionales y construcciones humanas

En el contexto del discurso público, la Inteligencia Artificial (IA) se suele presentar como si se tratara de un agente capaz de razonar con un grado elevado de complejidad y competente en la toma de decisiones autónomas, incluso cuando se habla de temas sensibles como el futuro del trabajo o la forma de vida de las personas. Sin embargo, esta visión idealista se encuentra bastante lejos de la concepción lógica propia de su construcción técnica. Esta diferencia separa la Inteligencia Artificial del razonamiento humano, del procesamiento masivo de datos, de los algoritmos y de las estructuras matemáticas diseñados previa y conscientemente por personas. En esta columna, analizamos el proceso de construcción de modelos de IA, a partir de tres etapas que determinan el comportamiento del mismo: la calidad de los modelos; los datos utilizados; y las decisiones humanas que acaban por configurarlos y guiar sus respuestas.

La IA en su estructura base 

La IA no es una mente autónoma, sino una composición de algoritmos y arquitecturas matemáticas que procesan información de formas específicas. Según la elección del modelo, se define qué tipo de relaciones pueden aprenderse y cuáles quedan por fuera de su alcance. Así, por ejemplo, los árboles de decisión organizan la información como un conjunto de reglas jerárquicas que se bifurcan en función de condiciones simples, mientras que las redes neuronales artificiales procesan datos en múltiples capas, donde cada nivel detecta patrones progresivamente más complejos. Por su parte, los modelos de lenguaje predicen la palabra más probable en una secuencia, correlacionando masivamente patrones en grandes bases de texto.

Con este antecedente, la IA debe ser entendida como una “máquina de clasificación” que opera en capas. No se trata de inteligencia en sentido humano, aunque suele ser diseñada para responder a contextos específicos. Un modelo de IA es un mecanismo que separa, ordena y categoriza información de acuerdo con los criterios que sus diseñadores establecen. Es decir, la Inteligencia Artificial no es inteligencia, sino un aparato estadístico para clasificar miles o millones de datos en tiempo récord para la capacidad humana. 

Datos, el combustible de la IA

Si los modelos conforman la arquitectura de esta tecnología, los datos se constituyen en su insumo fundamental. Mediante los datos se entiende, no solo lo que una IA puede aprender, sino también sus límites, sus sesgos y sus errores. Lejos de ser una “materia prima neutra”, los datos muestran los resultados de decisiones humanas: qué recolectar, cómo clasificar, quiénes participan en la generación y curaduría de esos datos. Cada una de estas etapas añade elecciones y valores, y es precisamente en este movimiento en el que estará la definición del comportamiento de los sistemas de IA. Por lo tanto, si esta tecnología depende de los datos que usa, ¿qué pasa si esos datos no logran reflejar una verdad universal? Por ejemplo, ChatGPT -y muchos otros proyectos de IA- son grandes modelos de lenguaje (LLM), entrenados con enormes cantidades de datos extraídos de Internet, muchos de los cuales comparten los sesgos de las personas que publican esos datos

En este sentido, la máxima técnica Garbage in, garbage out sigue vigente: si los datos de entrada están sesgados, incompletos o mal clasificados, los resultados de la IA reproducirán los mismos patrones. Existen múltiples ejemplos que ilustran este riesgo. Como  Amazon que abandonó en 2018 su sistema de reclutamiento automático al descubrir que favorecía sistemáticamente a hombres frente a mujeres, reflejando la composición histórica de su base de datos de contrataciones. En otro caso, un reportaje de DW advierte que la discriminación “viene garantizada” en muchos sistemas de IA: desde herramientas de reconocimiento facial con sesgo racial hasta algoritmos de crédito que penalizan a ciertos grupos sociales. Por su lado, ONU Mujeres subraya que la falta de diversidad en los equipos de desarrollo y en las bases de datos de entrenamiento refuerza estereotipos de género y desigualdades existentes históricamente, multiplicando sus efectos en los sistemas generativos.

Aprendizaje por refuerzo

Una vez entrenada, la IA no se detiene: en muchos casos sigue ajustándose y adaptándose a partir de la manera en que las personas la utilizan. El feedback que recibe, los ajustes de configuración y las correcciones introducidas por quienes interactúan con ella son parte de un proceso de aprendizaje continuo que modifica su desempeño con el tiempo.

Existen ejemplos que muestran hasta qué punto la intervención humana influye en los resultados. El caso de Grok, el chatbot de la empresa xAI fundada por Elon Musk, es ilustrativo: tras una actualización destinada a hacerlo más “anti-woke” y políticamente incorrecto, el sistema comenzó a producir respuestas antisemitas e incluso elogios a Hitler. Este comportamiento no surgió de un razonamiento autónomo, sino de las instrucciones y configuraciones humanas que guiaron su funcionamiento. El episodio evidencia cómo pequeñas decisiones de diseño o ajustes orientados a complacer a un público específico pueden derivar en consecuencias éticamente problemáticas, vulnerando derechos de grupos sociales y comunidades.

La IA como instrumento de lucha

Al analizar minuciosamente cómo se construyen los sistemas de IA, podemos observar que no se trata de inteligencias autónomas y racionales como lo puede ser la inteligencia humana. Aquello que llamamos IA no piensa: relaciona datos, sigue patrones y entiende que, en función de los insumos que recibe y siempre bajo instrucciones, generará unas salidas u otras. Más que inteligentes, las IA son artefactos sociotécnicos, en tanto que en ellas se entrelazan arquitecturas matemáticas, bases de datos trabajadas y realizadas por personas, y configuraciones definidas, además de la propia interacción continua que establece con las personas usuarias. Tal y como se puede ver, cada capa es el reflejo de decisiones humanas: desde la decisión sobre qué modelo escoger, hasta aquella que determina qué datos incorporar y cómo hacer las interpretaciones. Entender el carácter instrumental de la IA es fundamental para poder situarla en su debida dimensión. 

Este reconocimiento, también da paso a una agenda urgente: garantizar marcos regulatorios claros y democráticos que orienten el desarrollo de la IA a fines sociales y éticamente responsables, con pleno respeto de los derechos de las personas. Sin formas adecuadas de gobernanza, estos sistemas tendrán la capacidad de reproducir sesgos, acentuar desigualdades y fortalecer visiones tecnológicas colonialistas que implantan modelos ajenos a los contextos socioculturales locales. Además, es necesario pensar en descentralizar el desarrollo de la IA, fomentando aquellas iniciativas que puedan alimentarse de la diversidad cultural y lingüística en territorio, tal como documentamos en nuestra investigación “LatinAmerica in a Glimpse”.

En definitiva, se requiere una gobernanza de estas tecnologías en la que prevalezcan los Derechos Humanos, sustentada en la transparencia, la participación social y la justicia algorítmica. El objetivo debería ser evitar que la IA funcione como un espejo de los sesgos de siempre, y lograr que se convierta en una herramienta para sociedades más democráticas y justas.

Coalición Global por los Derechos Digitales para aportes WSIS al borrador cero del documento final de la WSIS+20

Como parte de la Coalición Global por los Derechos Digitales para la CMSI (GDRC-WSIS), presentamos una contribución conjunta al borrador cero del documento final de la WSIS+20. Junto con 18 organizaciones de la sociedad civil, hacemos recomendaciones sobre varios temas, como la brecha digital, el género, los Derechos Humanos, la gobernanza de datos y la Inteligencia Artificial.