Disputar las reglas del juego: métricas, comunicación y gobernanza digital

Los algoritmos de las redes sociales, diseñados para maximizar la atención y el tiempo de permanencia, determinan qué se muestra y qué se oculta, sin ofrecer transparencia sobre cómo operan. Este modelo no está pensado para fortalecer derechos ni construir ciudadanía digital, sino para capturar datos y generar interacción continua bajo la lógica comercial.

En el entorno digital, las organizaciones sociales enfrentamos una paradoja: necesitamos comprender cómo circulan nuestros mensajes y medir su impacto, pero las métricas disponibles no reflejan todo lo que importa. ¿Cómo aprendemos de los datos sin permitir que condicionen el sentido de nuestro trabajo y la forma en que construimos comunidad?

Gobernanza algorítmica: el poder invisible que decide qué se ve

En el ecosistema digital dominante, las organizaciones sociales participamos de la lógica de los números que se pueden mostrar. Los sistemas automatizados de los algoritmos refuerzan ese ciclo de estímulo y recompensa, incentivando contenidos que generen reacción antes que reflexión.

Como planteamos en nuestra columna sobre cómo comunicar más allá de las redes sociales, las plataformas moldean nuestras estrategias comunicativas a través de mecanismos opacos que privilegian la visibilidad sobre el sentido. Los algoritmos de las redes condicionan la circulación de los mensajes, sus interacciones y moldean las formas de participación. En ese escenario, la tarea no es solo mostrar mensajes, sino también disputar los marcos donde se define qué cuenta como comunicación efectiva, reconociendo que dicha disputa también es una forma de resistencia frente a la gobernanza impuesta por estas empresas de Silicon Valley y que estructuran el espacio público digital.

Nuestra investigación sobre “Resistencias digitales y gobernanza algorítmica” muestra que las organizaciones no deben limitarse a adaptarse a estas reglas, sino que pueden disputarlas activamente. No entender la lógica de los algoritmos puede llevar a que las métricas controlen la comunicación en lugar de orientarla. La resistencia no es solo el contenido que publicamos, sino la manera de medir y valorar ese contenido, aun cuando los algoritmos no lo premien con números.

En Derechos Digitales, nuestros canales digitales buscan abrir conversaciones sobre vigilancia masiva, soberanía tecnológica, y Derechos Humanos en los entornos digitales, temas que exigen atención, no consumo rápido. No buscamos adaptarnos a las lógicas algorítmicas de visibilidad, sino tensionarlas: producir contenidos que inviten a la reflexión. Para nuestro trabajo, se trata de estar ahí, manteniendo una presencia crítica que reivindique el derecho a comunicar en nuestros propios términos.

Los retos de las organizaciones sociales

Las organizaciones sociales no competimos en igualdad de condiciones. A diferencia de marcas o influencers, nuestras narrativas suelen ir a contracorriente de lo que la plataforma considera atractivo. Además, en América Latina enfrentamos desafíos adicionales: no contamos con los mismos recursos, acceso a herramientas ni visibilidad que tienen muchas organizaciones de Estados Unidos o Europa, lo que hace aún más difícil captar atención con campañas digitales y medir su alcance.

Un estudio reciente de Austral Comunicación (comunicadoras sociales en Uruguay, Ecuador y Costa Rica) sobre la medición del impacto social en la comunicación organizacional en América Latina señala que, aunque las y los profesionales reconocen la importancia de evaluar el cambio social, persisten vacíos metodológicos y una tendencia a privilegiar los datos fácilmente cuantificables sobre los procesos participativos o cualitativos. Además el International Journal of Communication cuestiona el concepto de “looking cool” como tendencia de las organizaciones a diseñar contenidos que parezcan atractivos para captar atención, más que contenidos que profundicen narrativas.

En las redes sociales, esto nos empuja a ver lo que publicamos solamente a través de números que traducen estándares y lógicas de mercado pensadas para productos, no para resistencias. Entonces, ¿reportamos lo que moviliza, o lo que suma? ¿Optimizamos el contenido para gustar o para fortalecer procesos? Un riesgo es cuando el objetivo deja de ser el contenido o el vínculo para volverse la métrica misma.

¿Si desafiamos las lógicas convencionales?

En comunicación digital muchas métricas se concentran en outputs (posts, impresiones) o engagement (clics, reacciones). Pero lo que importa para la incidencia son los procesos y transformaciones que se movilizan más allá del entorno digital: cuando un mensaje impulsa debates públicos, fortalece comunidades o contribuye a cambios concretos. Por ejemplo, presionar por una ley, instalar un tema en la agenda política o modificar una práctica institucional. Estos efectos reflejan cómo la acción digital se traduce en resultados concretos en la vida de las personas y en la esfera política. Por eso, es fundamental abrir conversaciones con otras organizaciones y dialogar sobre cómo definir qué “éxitos intermedios” podríamos medir.

Las narrativas que queremos posicionar desde los movimientos sociales exigen reflexión, cuidado y reajuste. Son conversaciones que siembran ideas y regresan, meses después, convertidas en nuevas formas colectivas de activismo. Son ejercicios que cambian la manera en que las personas se relacionan con el entorno digital, brindando contenidos políticos, educativos y reflexivos.

Organizaciones de la región están ensayando nuevas maneras de habitar el entorno digital que desafían la lógica de las mediciones convencionales. Hace algunos meses atrás en un conversatorio guiado por SocialTIC, discutimos estrategias para definir objetivos, audiencias y recursos desde la autonomía organizacional. Desde Guatemala, Andrea Ixchíu compartió la experiencia de Hackeo Cultural y la creación de Milpamérica, una red social autónoma pensada para “reforestar nuestras comunicaciones en tiempos de monocultivo”. Desde Colombia, la Fundación Karisma ha producido análisis e incidencia sobre redes comunitarias como alternativa de conectividad y producción de contenido local, explorando cómo estas infraestructuras autónomas pueden cerrar brechas digitales y fortalecer los vínculos comunitarios en el entorno digital.

Desde Derechos Digitales, gran parte de cambios concretos en la comprensión, la acción y la protección de derechos humanos en el entorno digital sucede fuera de lo que se ve en las redes sociales: cuando el Consejo Asesor de Meta cita nuestro aporte en la decisión final por caso de censura, cuando organizaciones en contextos de crisis políticas usan nuestras guías para el resguardo digital, cuando una adolescente reconoce una experiencia de violencia digital en un carrusel de las redes. Ninguna de esas acciones aparece en las estadísticas, pero son el verdadero corazón del trabajo, que debemos continuar impulsando dentro y fuera de las redes sociales.

El dato como brújula comunicacional

Las organizaciones sociales no existieron para competir en métricas digitales, nacieron para disputar sentidos, transformar realidades y construir futuro. En el contraste entre medir lo cuantitativo y acompañarlo de lo cualitativo, está el balance.  En la práctica, esto se puede recopilar a través de herramientas de monitoreo social, encuestas rápidas, entrevistas o seguimiento de interacciones en grupos y comunidades. Así, la medición se convierte en una guía para ajustar estrategias y fortalecer la comunidad.

Sabemos que en nuestra labor diaria contamos con historias de cambio, narrativas de comunidad y testimonios que no figuran en los números, pero sí dicen mucho del poder transformador. El proyecto NGO-IDEAs, que desde 2015 ha trabajado con ONGs en 11 países de la región, promueve un enfoque participativo en el monitoreo de efectos e impactos. Este enfoque destaca la importancia de involucrar a las comunidades en la definición de indicadores y en la evaluación de los resultados, reconociendo que las métricas cuantitativas deben complementarse con datos cualitativos para capturar la complejidad del trabajo en derechos humanos.

En el equipo de comunicación de Derechos Digitales, observamos métricas cuantitativas para entender cómo circulan nuestros contenidos; por otro, prestamos atención a los resultados cualitativos: quién se involucra en conversaciones, qué conexiones se generan entre participantes y cómo se consolidan espacios de colaboración y aprendizaje. Para nosotras, el éxito no está solo en los números visibles, sino en que la información y las herramientas lleguen a quienes pueden actuar y tomar decisiones informadas.

A través de aplicar estas mediciones, podemos incorporar en informes y evaluaciones que no todo puede cuantificarse, que hay efectos que escapan al dato. Un acto de honestidad que puede recuperar credibilidad política frente a quienes esperan números.

Reescribiendo las reglas impuestas

Si queremos un entorno digital más justo, las organizaciones debemos participar activamente en los espacios donde se deciden las reglas del juego. Esto incluye desde mesas de diálogo con las plataformas hasta instancias regionales e internacionales sobre políticas de internet, regulación de contenidos y estándares de transparencia algorítmica.

Exigir transparencia sobre cómo funcionan los algoritmos, qué se amplifica, qué se oculta y con qué criterios, es clave para que las métricas de las plataformas no terminen imponiendo lo que “vale” o “no vale” comunicar.

La incidencia colectiva de las organizaciones sociales se convierte en una forma de resistencia frente a la lógica de métricas impuestas por las plataformas. Participar en la gobernanza digital significa defender el derecho a comunicar.

De este modo, la comunicación deja de ser solo una estrategia para difundir mensajes: se convierte en herramienta de transformación estructural, en puente entre comunidades, derechos y espacios de decisión. Un entorno digital donde los datos nos sirvan para entender, acompañar y potenciar los procesos de cambio, no para definirlos.

Resistencia digital en la era de la gobernanza algorítmica: perspectivas desde la experiencia latinoamericana

El ensayo analiza cómo las plataformas digitales han pasado de ser espacios de amplificación ciudadana a escenarios donde los algoritmos deciden qué voces se visibilizan y cuáles se borran. A partir de experiencias latinoamericanas, el texto documenta casos de silenciamiento automático, moderación sesgada y estrategias de resistencia como el algospeak o el uso de plataformas descentralizadas. Proponemos que la resistencia digital debe incluir demanda de transparencia algorítmica, participación comunitaria en la gobernanza de plataformas y defensa colectiva de estructuras alternativas para garantizar que las narrativas diversas no sean devoradas por filtros invisibles.

Aportes del Foro Global de Justicia Digital al borrador cero del documento final de la CMSI+20

Como parte del Foro Global de Justicia Digital, presentamos una contribución conjunta al borrador cero del documento final de la CMSI+20. Hacemos recomendaciones generales, como moderar la lectura tecno-optimista del progreso hacia los compromisos de la CMSI, así como recomendaciones específicas sobre temas como género, derechos humanos, gobernanza de los datos e inteligencia artificial.

Aportes de Gender in Digital Coalition al borrador cero del documento final de la CMSI+20

Como parte de Gender in Digital Coalition (GiDC), presentamos una contribución conjunta al borrador cero del documento final de la CMSI+20. Hacemos recomendaciones sobre cómo garantizar la incorporación de la perspectiva de género en el marco de la CMSI+20, centrándonos en temas como la brecha digital, la violencia de género facilitada por la tecnología y los mecanismos de rendición de cuentas.

Tras el telón de la Inteligencia Artificial: modelos computacionales y construcciones humanas

En el contexto del discurso público, la Inteligencia Artificial (IA) se suele presentar como si se tratara de un agente capaz de razonar con un grado elevado de complejidad y competente en la toma de decisiones autónomas, incluso cuando se habla de temas sensibles como el futuro del trabajo o la forma de vida de las personas. Sin embargo, esta visión idealista se encuentra bastante lejos de la concepción lógica propia de su construcción técnica. Esta diferencia separa la Inteligencia Artificial del razonamiento humano, del procesamiento masivo de datos, de los algoritmos y de las estructuras matemáticas diseñados previa y conscientemente por personas. En esta columna, analizamos el proceso de construcción de modelos de IA, a partir de tres etapas que determinan el comportamiento del mismo: la calidad de los modelos; los datos utilizados; y las decisiones humanas que acaban por configurarlos y guiar sus respuestas.

La IA en su estructura base 

La IA no es una mente autónoma, sino una composición de algoritmos y arquitecturas matemáticas que procesan información de formas específicas. Según la elección del modelo, se define qué tipo de relaciones pueden aprenderse y cuáles quedan por fuera de su alcance. Así, por ejemplo, los árboles de decisión organizan la información como un conjunto de reglas jerárquicas que se bifurcan en función de condiciones simples, mientras que las redes neuronales artificiales procesan datos en múltiples capas, donde cada nivel detecta patrones progresivamente más complejos. Por su parte, los modelos de lenguaje predicen la palabra más probable en una secuencia, correlacionando masivamente patrones en grandes bases de texto.

Con este antecedente, la IA debe ser entendida como una “máquina de clasificación” que opera en capas. No se trata de inteligencia en sentido humano, aunque suele ser diseñada para responder a contextos específicos. Un modelo de IA es un mecanismo que separa, ordena y categoriza información de acuerdo con los criterios que sus diseñadores establecen. Es decir, la Inteligencia Artificial no es inteligencia, sino un aparato estadístico para clasificar miles o millones de datos en tiempo récord para la capacidad humana. 

Datos, el combustible de la IA

Si los modelos conforman la arquitectura de esta tecnología, los datos se constituyen en su insumo fundamental. Mediante los datos se entiende, no solo lo que una IA puede aprender, sino también sus límites, sus sesgos y sus errores. Lejos de ser una “materia prima neutra”, los datos muestran los resultados de decisiones humanas: qué recolectar, cómo clasificar, quiénes participan en la generación y curaduría de esos datos. Cada una de estas etapas añade elecciones y valores, y es precisamente en este movimiento en el que estará la definición del comportamiento de los sistemas de IA. Por lo tanto, si esta tecnología depende de los datos que usa, ¿qué pasa si esos datos no logran reflejar una verdad universal? Por ejemplo, ChatGPT -y muchos otros proyectos de IA- son grandes modelos de lenguaje (LLM), entrenados con enormes cantidades de datos extraídos de Internet, muchos de los cuales comparten los sesgos de las personas que publican esos datos

En este sentido, la máxima técnica Garbage in, garbage out sigue vigente: si los datos de entrada están sesgados, incompletos o mal clasificados, los resultados de la IA reproducirán los mismos patrones. Existen múltiples ejemplos que ilustran este riesgo. Como  Amazon que abandonó en 2018 su sistema de reclutamiento automático al descubrir que favorecía sistemáticamente a hombres frente a mujeres, reflejando la composición histórica de su base de datos de contrataciones. En otro caso, un reportaje de DW advierte que la discriminación “viene garantizada” en muchos sistemas de IA: desde herramientas de reconocimiento facial con sesgo racial hasta algoritmos de crédito que penalizan a ciertos grupos sociales. Por su lado, ONU Mujeres subraya que la falta de diversidad en los equipos de desarrollo y en las bases de datos de entrenamiento refuerza estereotipos de género y desigualdades existentes históricamente, multiplicando sus efectos en los sistemas generativos.

Aprendizaje por refuerzo

Una vez entrenada, la IA no se detiene: en muchos casos sigue ajustándose y adaptándose a partir de la manera en que las personas la utilizan. El feedback que recibe, los ajustes de configuración y las correcciones introducidas por quienes interactúan con ella son parte de un proceso de aprendizaje continuo que modifica su desempeño con el tiempo.

Existen ejemplos que muestran hasta qué punto la intervención humana influye en los resultados. El caso de Grok, el chatbot de la empresa xAI fundada por Elon Musk, es ilustrativo: tras una actualización destinada a hacerlo más “anti-woke” y políticamente incorrecto, el sistema comenzó a producir respuestas antisemitas e incluso elogios a Hitler. Este comportamiento no surgió de un razonamiento autónomo, sino de las instrucciones y configuraciones humanas que guiaron su funcionamiento. El episodio evidencia cómo pequeñas decisiones de diseño o ajustes orientados a complacer a un público específico pueden derivar en consecuencias éticamente problemáticas, vulnerando derechos de grupos sociales y comunidades.

La IA como instrumento de lucha

Al analizar minuciosamente cómo se construyen los sistemas de IA, podemos observar que no se trata de inteligencias autónomas y racionales como lo puede ser la inteligencia humana. Aquello que llamamos IA no piensa: relaciona datos, sigue patrones y entiende que, en función de los insumos que recibe y siempre bajo instrucciones, generará unas salidas u otras. Más que inteligentes, las IA son artefactos sociotécnicos, en tanto que en ellas se entrelazan arquitecturas matemáticas, bases de datos trabajadas y realizadas por personas, y configuraciones definidas, además de la propia interacción continua que establece con las personas usuarias. Tal y como se puede ver, cada capa es el reflejo de decisiones humanas: desde la decisión sobre qué modelo escoger, hasta aquella que determina qué datos incorporar y cómo hacer las interpretaciones. Entender el carácter instrumental de la IA es fundamental para poder situarla en su debida dimensión. 

Este reconocimiento, también da paso a una agenda urgente: garantizar marcos regulatorios claros y democráticos que orienten el desarrollo de la IA a fines sociales y éticamente responsables, con pleno respeto de los derechos de las personas. Sin formas adecuadas de gobernanza, estos sistemas tendrán la capacidad de reproducir sesgos, acentuar desigualdades y fortalecer visiones tecnológicas colonialistas que implantan modelos ajenos a los contextos socioculturales locales. Además, es necesario pensar en descentralizar el desarrollo de la IA, fomentando aquellas iniciativas que puedan alimentarse de la diversidad cultural y lingüística en territorio, tal como documentamos en nuestra investigación “LatinAmerica in a Glimpse”.

En definitiva, se requiere una gobernanza de estas tecnologías en la que prevalezcan los Derechos Humanos, sustentada en la transparencia, la participación social y la justicia algorítmica. El objetivo debería ser evitar que la IA funcione como un espejo de los sesgos de siempre, y lograr que se convierta en una herramienta para sociedades más democráticas y justas.

Coalición Global por los Derechos Digitales para aportes WSIS al borrador cero del documento final de la WSIS+20

Como parte de la Coalición Global por los Derechos Digitales para la CMSI (GDRC-WSIS), presentamos una contribución conjunta al borrador cero del documento final de la WSIS+20. Junto con 18 organizaciones de la sociedad civil, hacemos recomendaciones sobre varios temas, como la brecha digital, el género, los Derechos Humanos, la gobernanza de datos y la Inteligencia Artificial.

Cooperativas tecnológicas: otra narrativa para el futuro digital

Hablar de derechos digitales en América Latina implica, muchas veces, enfrentarse a un ecosistema profundamente desigual. Las grandes empresas tecnológicas concentran poder económico y político, dictan las reglas de la comunicación en línea y, de manera sistemática precarizan la vida de millones de personas trabajadoras. Desde quienes desarrollan software sin estabilidad laboral, hasta repartidores que sostienen con su cuerpo la economía de plataformas, expandiéndose una lógica de extracción de datos, de recursos y de vidas.

Frente a eso, es posible imaginar otros futuros. Y no solo imaginar, también construirlos, poco a poco, en las decisiones cotidianas del presente. Una de esas formas ha sido reivindicar cómo trabajamos y con quién trabajamos. Elegir cooperativas, colectivos y tecnologías libres no es simplemente contratar servicios; es parte de un gesto político de coherencia. Una manera de decir que nuestros valores como la privacidad, la libertad de expresión, el trabajo colaborativo, la justicia social y la participación democrática, no se quedan en el papel, sino que atraviesan también nuestras prácticas.

Narrativas en disputa: del dominio corporativo a la cooperación

Las big tech han impuesto no solo sus plataformas, sino también sus narrativas: que el desarrollo tecnológico es inevitable, que la innovación es neutra, que el éxito depende de la escala. Ese relato invisibiliza las formas alternativas de producir tecnologías, desde economías solidarias hasta infraestructuras comunitarias, y también atraviesa debates más recientes, como los de la inteligencia artificial. En nuestro informe Latin America in a Glimpse 2024 mostramos que en la región ya existen miradas situadas que disputan esos discursos dominantes, y que impulsan una IA comunitaria, ética y decolonial, parte de un esfuerzo más amplio por pensar tecnologías desde nuestras realidades.

Allí también entran las cooperativas tecnológicas. Una cooperativa no es solo una empresa distinta, sino un intento del trabajo desde otros principios: decisiones compartidas, distribución más equitativa del valor y una mayor consideración de la vida de quienes participan. No es un modelo perfecto ni libre de tensiones, pero refleja una aspiración de alejarse de la lógica extractiva dominante y acercarse a formas de colaboración más horizontales y cuidadosas.

El informe Plataformas de propiedad de las personas trabajadoras e interseccionalidad (WOIP), realizado con cooperativas y colectivos de Brasil y Argentina que producen y gestionan tecnología desde sus propios espacios de trabajo, ya sea programando software, diseñando servicios digitales, sosteniendo infraestructuras comunitarias o creando alternativas de reparto, muestra que estas experiencias no solo enfrentan al poder corporativo, sino que también disputan la imaginación sobre lo que la tecnología puede ser. Desde la “soberanía digital popular” del Movimiento de Trabajadores Sin Techo en Brasil, hasta la “intercooperación” de la Federación Argentina de Cooperativas de Tecnología (FACTTIC), lo que aparece es un mosaico de alternativas que priorizan la diversidad, el cuidado y la dignidad laboral.

La investigación-acción de WOIP también muestra que pensar en cooperativas tecnológicas no es solo una cuestión organizativa, sino una forma distinta de ubicar la tecnología en nuestras sociedades. Uno de los aportes centrales del informe es la idea de “cuidar antes de programar”. En la práctica, esto significa incorporar principios de cuidado, diversidad e interseccionalidad en el diseño de plataformas y servicios. Cooperativas como FACTTIC en Argentina o colectivos en Brasil han mostrado que es posible organizar el trabajo tecnológico de manera que las decisiones no dependan únicamente de la eficiencia técnica, sino también de la inclusión de voces diversas y de la sostenibilidad de las comunidades involucradas.

Y no es solo el campo tecnológico. Por ejemplo, el libro CAPS LOCK: Cómo se apropió el capitalismo del diseño gráfico y cómo escapar de ello de Ruben Pater y Manuel Moreno nos recuerda que existen colectivos de diseño en distintas partes del mundo que han desafiado durante años las lógicas de competencia y explotación en su práctica profesional. Experiencias como Brave New Alps (Italia), Common Knowledge (Reino Unido), Cooperativa de Diseño (Argentina), Mídia NINJA (Brasil), Open Source Publishing (Bélgica) o The Public (Canadá) muestran que es posible sostener prácticas gráficas y culturales desde principios anticapitalistas. Sus trayectorias ofrecen aprendizajes útiles para entender no solo las posibilidades, sino también los desafíos y obstáculos concretos que enfrentan quienes buscan cambiar la forma en que trabajamos y creamos.

La campaña internacional Hire a Coop, que comenzó animando a las universidades a contratar cooperativas para llevar a cabo servicios de desarrollo y diseño, va en la misma línea: visibilizar que existe un mundo alternativo al de Silicon Valley, un mundo donde la contratación de servicios tecnológicos puede ser un acto de justicia, una forma de redistribución y una apuesta por modelos más democráticos de innovación.

Por ello, vemos en esas experiencias y campañas un recordatorio potente: disputar el modelo de las grandes tecnológicas no se trata únicamente de regular o criticar sus excesos, sino también de huir de sus tentáculos y explorar y visibilizar las prácticas que ya existen en la región y el mundo. Cooperativas, colectivos y comunidades digitales están demostrando que es posible producir tecnología desde otros valores, y nuestro rol también es acompañar, amplificar y aprender de esas iniciativas.

Nuestra experiencia: prácticas que buscan coherencia

En Derechos Digitales también hemos intentado recorrer este camino. Cuando llegó el momento de crear nuestro nuevo sitio web, elegimos trabajar con el Maizal, una cooperativa de Argentina que no solo entendió nuestros criterios de privacidad y seguridad, sino que se relacionó con nosotras desde la horizontalidad y el respeto mutuo. No fue una elección meramente técnica, sino parte de un compromiso por alinear lo que defendemos en nuestra comunicación con la manera en que producimos esa comunicación.

Esta decisión se suma a otras que forman parte de nuestra práctica institucional, como optar crecientemente por software libre, mantener nuestra agencia en las comunicaciones internas, y resguardar el control sobre nuestra información y programas. Son pasos que buscan coherencia entre discurso y práctica. Y sabemos que es un camino aún en construcción, donde seguiremos aprendiendo, corrigiendo y equivocándonos.

Pero creemos que esa es la clave: atreverse a ensayar, a equivocarse y a volver a intentar. Porque disputar las narrativas sobre el futuro tecnológico no se hace solo con palabras, sino también con prácticas concretas, con elecciones cotidianas que nos recuerdan que otra tecnología es posible y que podemos demostrar a otras que no estarán solas en la exploración de ese camino. Y esa otra tecnología empieza también en cómo decidimos trabajar juntas, cómo elegimos organizarnos y cómo construimos, en colectivo, un futuro más justo.

Aportación Conjunta de Organizaciones de la Sociedad Civil y Academia sobre la X Cumbre de las Américas: “Construyendo un Hemisferio Seguro, Sostenible y de Prosperidad Compartida”

Más de 20 organizaciones de la sociedad civil y la academia presentamos un documento dirigido a los Estados que participarán en la X Cumbre de las Américas (República Dominicana, diciembre 2025). Nuestro aporte subraya la necesidad de que la transformación digital en la región esté guiada por los derechos humanos, la inclusión y la justicia social.

Contribución a la consulta abierta del Grupo de Trabajo del Consejo de la UIT sobre Internet (CWG-Internet) sobre conectividad significativa en países en desarrollo sin litoral

En el marco de los procesos de consulta abierta del Grupo de Trabajo del Consejo de la UIT sobre Internet (CWG-Internet) presentamos, junto con TEDIC, esta contribución sobre conectividad significativa en países en desarrollo sin litoral. En las Américas sólo dos países responden a tal categoría, Bolivia y Paraguay. En este documento sostenemos que la conectividad significativa habilita el ejercicio de los derechos humanos, y ofrecemos un análisis contextual evaluando los desafíos y las estrategias para avanzar hacia marcos de conectividad significativa en Bolivia y Paraguay desde una perspectiva de derechos humanos e interseccional.

América Latina ante la presión comercial estadounidense: impactos y perspectivas para una agenda de desarrollo anclada en Derechos Humanos

Son poco más de seis meses desde la asunción de Donald Trump a la presidencia de EE. UU., marcada por la presencia destacada de los CEOs de las empresas de tecnología más importantes del mundo flanqueando al mandatario. Desde entonces, hubo anuncios y señales confusas relacionadas con su política internacional y tecnológica.  

En la arena multilateral, habiendo abandonado programas enfocados en la promoción de su agenda de “libertad en internet” que privilegiaba la desregulación del sector, la diplomacia estadounidense ha renunciado también a compromisos antiguos en materia de gobernanza de internet y ha bloqueado consensos históricos relacionados a la aplicación de los Derechos Humanos en las tecnologías. Por otro lado, el gobierno de Trump ha incorporado de manera directa a su estrategia de comercio el discurso de las Big Tech, según el cual cualquier intento de limitar su dominio monopólico representaría una “barrera no arancelaria” y, como tal, una amenaza a los intereses nacionales de EE. UU.

La actual política de comercio estadounidense consolida una tendencia de creciente abandono de la negociación multilateral en el ámbito de la Organización Mundial del Comercio (OMC). Con eso, Trump se ahorra la necesidad de convencer a un conjunto de países (cada vez más conscientes de la relevancia de la agenda digital para el desarrollo económico) de sostener anticuadas limitaciones a la imposición de impuestos aduaneros al comercio electrónico, entre otras.

En el caso latinoamericano, episodios como la imposición de tarifas a México –seguida de sucesivas negociaciones a cambio del fin de “barreras comerciales no arancelarias”–  y la discusión pública con el presidente colombiano que adelantó la amenaza de imposición de nuevas tarifas luego revisadas tras un acuerdo entre los países, dieron la tónica de las nuevas reglas del juego. Ambos casos ponen de manifiesto acuerdos y concesiones poco transparentes que pueden resultar en graves impactos a los Derechos Humanos de sus poblaciones.

La nueva cara de una vieja estrategia

El contexto actual está marcado por altos niveles de inestabilidad y una muy evidente intención de favorecer intereses propios con pocos beneficios para la región. Al recorte de políticas de cooperación internacional que afectan directamente a la población latinoamericana, se suman amenazas de intervención directa que hace mucho no se veían a la luz del día. Sin embargo, el uso de políticas de comercio para presionar a los países en la adopción de medidas que beneficien la industria tecnológica estadounidense está lejos de ser algo nuevo.

El Reporte “Special 301”, producido por la Oficina del Representante Comercial de EE. UU. (USTR, por la sigla en inglés) y muy conocido en el activismo por derechos digitales, ha sido una de las principales formas de presión aplicada a los países de la región. El documento genera un listado de países que supuestamente fallan en proteger derechos de propiedad intelectual de empresas estadounidenses.

Ya en la primera versión del documento, publicada en 1989 luego de la reforma que incorporó su figura, Argentina, Chile, Colombia y Venezuela aparecían en una “lista de atención” por sostener prácticas consideradas “preocupantes” en materia de propiedad intelectual. Brasil y México, por su parte, eran listados como países cuyas prácticas merecían “atención especial”, pero que –según el documento– no serían investigados por tener progresos en negociaciones bilaterales o multilaterales recientes. Entre 2005 y 2018, Argentina, Bolivia, Brasil, Chile, Colombia, Costa Rica, Ecuador, Guatemala, México, Paraguay, Perú y Venezuela han sido listados en el reporte, sea como países de “atención” o de “atención prioritaria”. La mayoría sigue presente en los listados de la edición 2025 del informe. Uruguay fue incluido en el reporte de 2005 y luego dejó de figurar en la lista.

El título del documento hace referencia a la llamada “Sección 301” de la legislación comercial estadounidense de 1974, que permite la investigación unilateral de prácticas comerciales consideradas perjudiciales a los intereses de EE. UU. por parte del USTR, y la adopción de medidas coercitivas para presionar a países en relación a la apertura de sus mercados. Las investigaciones basadas en la Sección 301 pueden ser iniciadas tanto por iniciativa propia del USTR, como a partir de solicitudes del sector privado.

El contexto de aprobación de la Sección 301 nos hace recordar al escenario regional actual. Según el exdiplomático brasileño Regis Aslanian, el mecanismo plasma una política de “autoritarismo comercial” adoptada por EE. UU. en un período en el que su economía se enfrentaba a riesgos de pérdida de su hegemonía. Él cuenta que, en aquella época, Brasil buscaba consolidar una industria nacional y pasó por investigaciones derivadas de la Sección 301 en 1985 y 1987 por supuestas barreras al comercio e inversiones estadounidenses en sectores que incluían el farmacéutico y el tecnológico. El hito ejemplifica en parte cómo se construyeron las relaciones de dependencia tecnológica que persisten hasta el día de hoy en los países del Sur Global.

La investigación más reciente abierta contra Brasil en el marco de la Sección 301 demuestra que el instrumento aún es relevante para ofrecer un aire de legalidad a la imposición de sanciones arbitrarias contra países. Sin embargo, no fue necesario para el gobierno de Trump esperar el resultado de esas averiguaciones para empezar a penalizar a Brasil: la comunicación sobre la imposición de tarifas del 50% a los productos brasileños incluyó la indicación de apertura de la investigación, que ocurrió días después y sigue sin conclusión.

Ya con relación al “Special 301”, su foco ha estado en el intento de presionar hacia la adopción de medidas de criminalización de la “piratería”, así como otros mecanismos que impidan su circulación, como la imposición de trabas tecnológicas, la obligación de entrega de información por parte de proveedores de internet, entre otras muy bien ejemplificadas en los capítulos latinoamericanos de su última versión. Este tipo de medidas ha sido fuertemente impulsado por el lobby de empresas de producción de contenidos a lo largo de las últimas décadas. Sin embargo, en el escenario actual, se mezclan con la presión contraria por la desregulación: la bandera de moda del lobby tecnológico estadounidense, como se ve en el caso de la investigación contra Brasil.

Un juego con pocos vencedores

El tipo de presión impuesta a la soberanía de los Estados latinoamericanos pone en evidencia la disparidad de poder en las negociaciones, donde se espera la entrega de concesiones a cambio de la simple manutención del status quo. No se trata de una situación exclusiva para América Latina: en Europa, donde las distintas políticas de regulación de tecnologías han estado en el centro de la disputa, el resultado de las negociaciones fue poco explícito en las implicaciones para el futuro de las normativas europeas sobre el tema. Además, una nota oficial de la Casa Blanca incluye entre los acuerdos el fin de las discusiones europeas sobre la imposición de impuestos a grandes plataformas digitales (las llamadas network fees), la intención de revisar “barreras no justificadas al comercio digital” y un acuerdo por mantener en cero los aranceles aduaneros para transmisiones electrónicas. 

Sin embargo, algunos países se encuentran en mejor posición para negociar. El caso de Brasil es un ejemplo de ello, pero también de una situación en que una de las exigencias impuestas no deja otra opción: la imposición de tarifas del 50% vino acompañada de una demanda de intervención en la autonomía del Poder Judicial, imposible de ser atendida por cualquier gobierno mínimamente comprometido con la democracia. La ventaja del país es que su comercio internacional es relativamente independiente de EE. UU., solamente 12% de su Producto Interno Bruto depende de ello. Aún así, el impacto de las tarifas vigentes desde el 6 de agosto es significativo para algunos sectores económicos, lo que mantiene al gobierno interesado en sentarse a la mesa de negociaciones, incluso para discutir medidas relacionadas al sector tecnológico.

Aunque aparezca de manera más sutil en la primera comunicación de Trump, donde se hablaba de “ataques continuos a las actividades comerciales digitales de empresas estadounidenses”, la presión sobre la posición de Brasil en relación a la regulación de tecnologías se encuentra visible en la investigación abierta en el marco de la Sección 301.

Ambas acciones ocurren luego de que la Suprema Corte del país concluyera, en un antiguo caso, que la medida que limita la responsabilidad de intermediarios de internet por la distribución de contenidos de terceros en el Marco Civil de Internet es parcialmente inconstitucional. La decisión busca establecer un régimen de responsabilidad diferenciado, pero genera un ambiente de mayor inseguridad jurídica para las empresas. Entre las demandas de las corporaciones tecnológicas se encuentran la revisión de tal decisión, por un lado, y la oferta de beneficios fiscales para la instalación de sus centros de datos en el país, por el otro.

Entre la resistencia y la construcción de alternativas

El impacto dañino de la política exterior de Trump es visible, y así seguirá siendo por muchos años más. En el caso de América Latina, tiene el potencial de comprometer la sostenibilidad de economías ya frágiles, y dejar desprotegidos a los sectores sociales que más apoyo necesitan. Eso sin hablar del posible retraso en materia de desarrollo, fundamental para superar las desigualdades persistentes, tanto a nivel local como global. El potencial de China en suplir el vacío dejado por EE.UU. en relación a inversiones y generación de riqueza es, seguramente, un aliento para los gobiernos de la región. El país viene buscando proyectar su poder también en espacios multilaterales desprestigiados por la diplomacia estadounidense, aunque persisten las dudas sobre su efectivo compromiso con una agenda de Derechos Humanos.

Confiar únicamente en un giro hacia China como fuerza capaz de reequilibrar las relaciones internacionales parece ser un equívoco. Es fundamental que los países de la región logren aprovechar la oportunidad sin replicar un nuevo modelo de dependencia. Si bien la urgencia puede exigir contrapesos económicos y de desarrollo, si el apoyo internacional, sea de China o Europa, no viene acompañado de un compromiso real en la defensa de derechos, estaríamos sólo cambiando de explotadores.

En ese sentido, el fortalecimiento de la agenda tecnológica en agrupaciones como el G20 y los BRICS puede representar una oportunidad para  sostener compromisos ya existentes con la justicia y los Derechos Humanos, incluso en su relación con las tecnologías. La reciente declaración de líderes de los BRICS sobre inteligencia artificial evidencia que aún hay espacio para una perspectiva de desarrollo anclada en la garantía de derechos fundamentales. Resta ver cómo estos compromisos logran efectivizarse en las conversaciones actuales y cómo esos países pueden resistir a la presión de Trump, que parece tenerlos en la mira.