20 años defendiendo derechos digitales: aprendizajes desde el LACIGF y una mirada hacia adelante

Este año cumplimos veinte años de trabajo en la defensa, promoción y desarrollo de los derechos humanos en los entornos digitales de América Latina. Han sido dos décadas de cambios profundos, donde pasamos de una internet más descentralizada y colaborativa a un ecosistema mediado por plataformas globales, dominado por la extracción de datos y las dinámicas de vigilancia tanto estatal como corporativa. Aún así, la región sigue siendo un territorio fértil para la innovación social, la cooperación y las resistencias digitales.

En ese espíritu, decidimos aprovechar el LACIGF18, el principal espacio de encuentro multiactor de la región latinoamericana sobre gobernanza de internet, para celebrar nuestro aniversario número 20 junto a organizaciones aliadas, colegas y amistades que han acompañado este recorrido. La ciudad de Córdoba en Argentina se transformó así en un punto de encuentro entre el pasado y el futuro: un espacio para reconocer los aprendizajes que nos han traído hasta aquí y proyectar colectivamente los próximos desafíos.

Nuestra participación en el LACIGF18

El LACIGF siempre ha sido un foro donde se cruzan perspectivas diversas: sociedad civil, gobiernos, academia, sector privado y comunidad técnica, y para nosotras su valor radica en que permite debatir la política tecnológica desde el Sur Global, discutir las desigualdades que atraviesan la conectividad y construir estrategias comunes frente a los desafíos emergentes. En esta edición participamos en distintas sesiones que abordaron temas clave para la región, desde la ciberseguridad comunitaria hasta los desafíos ambientales y la protección de datos.

Una de nuestras principales actividades en el marco del foro fue estar presentes en el evento previo convocado por la comunidad juvenil de la región, el YouthLACIGF, donde formamos parte del taller “Ciberseguridad Comunitaria: Protección colectiva de nuestros entornos digitales”.

El espacio reunió a juventudes, defensoras ambientales, periodistas y personas vinculadas a organizaciones de base de distintos países. Las experiencias compartidas fueron diversas, pero coincidieron en algo esencial: la inseguridad digital se vive de manera concreta y diferenciada. Afecta a mujeres y a personas de la comunidad LGBTIQA+, a activistas, infancias, adolescencias y personas mayores, cada grupo con vulnerabilidades y formas de exposición diferentes. Se expresa en el acoso y la violencia en línea, en la difusión no consentida de datos personales, en las campañas de odio o en la vigilancia dirigida hacia quienes denuncian abusos de poder, corrupción o daño ambiental. En todos los casos, la tecnología no solo refleja las desigualdades estructurales de nuestras sociedades, sino que puede reproducirlas y profundizarlas.

A partir del intercambio surgió una afirmación clave: la seguridad digital es colectiva. No se trata únicamente de saber configurar contraseñas o instalar herramientas de cifrado, sino de construir redes de confianza, sostener conversaciones difíciles y acompañarse en los momentos de mayor exposición o riesgo. Esta perspectiva comunitaria nos invita a repensar las prácticas institucionales, los programas de formación y las políticas públicas, para situar la seguridad en un enfoque de bienestar y cuidado.

También participamos del taller llamado “Medio ambiente, tecnología y resistencias: desafíos digitales de la defensa ambiental en América Latina”, dedicado a explorar el vínculo entre crisis socioambiental y tecnología, con un enfoque situado en las personas que defienden el medio ambiente en América Latina. Nos propusimos visibilizar el rol fundamental de la tecnología frente a la emergencia climática y la crisis ecológica, y evidenciar las barreras que enfrentan las activistas para un acceso significativo a internet y a la información. La falta de conectividad en territorios rurales, la concentración de infraestructura tecnológica y las amenazas digitales, como las campañas de desinformación, el hostigamiento en línea o la violencia de género facilitada por las tecnologías, son obstáculos que inciden directamente en su capacidad de ejercer derechos y proteger el entorno.

El panel reunió a personas defensoras del medio ambiente de diferentes países, junto a representantes de la sociedad civil, la comunidad técnica, gobiernos locales y organismos de derechos humanos. Fue un espacio de diálogo multisectorial donde se compartieron experiencias concretas de resistencia, como las movilizaciones frente a la instalación de data centers o proyectos extractivos que profundizan desigualdades ambientales y digitales.

La conversación también permitió reconocer los marcos regionales que pueden fortalecer esta protección, como el Acuerdo de Escazú y los debates hacia la COP30 sobre cambio climático. Estos instrumentos abren oportunidades para incorporar la dimensión digital en la agenda ambiental y garantizar que la defensa de la naturaleza y de los derechos humanos vaya de la mano con la defensa de una tecnología justa, segura y accesible.

Finalmente, en el taller “Datos en fuga: cómo se exponen y explotan nuestros datos en internet”, presentamos avances de nuestra investigación en curso sobre explotación ilegal y comercialización de bases de datos estatales en Argentina, Brasil y Perú. En la instancia destacamos que estas filtraciones de información personal no son meras fallas de seguridad ni accidentes administrativos. Son parte de un circuito de extracción y monetización que alimenta economías ilegales, facilita extorsiones y expone a las personas a riesgos profundos, especialmente aquellas que ya enfrentan desigualdades estructurales por razones de género, clase, raza o territorio.

Frente a este escenario, la protección de datos personales debe abordarse como un componente esencial de los derechos humanos. No se trata solo de un aspecto técnico o administrativo, sino de una condición para garantizar autonomía, privacidad y seguridad. Cuando los datos personales son filtrados, vendidos o manipulados, las consecuencias pueden ser irreversibles, desde daños económicos hasta violencia física. Por eso, insistimos en la necesidad de políticas públicas sólidas, autoridades independientes, más transparencia y rendición de cuentas de las plataformas, y mecanismos efectivos de investigación y sanción.

Celebrar, recordar y proyectar: una nueva edición de Latin America in a Glimpse

En el marco del LACIGF celebramos nuestros 20 años de trabajo y presentamos la nueva edición de Latin America in a Glimpse, una publicación que reúne los hitos, aprendizajes y tensiones que han marcado dos décadas de defensa de los derechos digitales en América Latina. Más que un recuento histórico, el documento busca ser una invitación a mirar el pasado con sentido crítico y el futuro con imaginación política: una herramienta para activar memoria, conversación y acción colectiva.

La publicación está acompañada por un juego de cartas que permite reconstruir esta historia de manera participativa, conectando experiencias, hitos y desafíos. En el mazo hay también veinte cartas en blanco: no son un adorno, sino una declaración. Representan todo lo que falta contar, lo que está ocurriendo hoy y lo que aún no existe. Nos recuerdan que la historia de los derechos digitales no está cerrada, y que escribirla es una tarea compartida. Nuestro momento de celebración nos permitió reflexionar sobre algunos de esos hitos a partir de la experiencia de amigas y expertas de toda la región.

Llegar a este aniversario nos encuentra en un momento complejo. La expansión de sistemas de vigilancia automatizada, la opacidad de las infraestructuras y la concentración del poder tecnológico amenazan las bases mismas del espacio público digital. Pero también sabemos que en la región hay comunidades, movimientos y organizaciones que no han dejado de imaginar alternativas, tejer alianzas y crear tecnología con sentido de justicia social.

El futuro de los derechos digitales dependerá de nuestra capacidad de mantenernos unidas, fortalecer la cooperación regional y seguir disputando el sentido político de la tecnología. Veinte años después, seguimos convencidas de lo mismo que nos movilizó al inicio: que la tecnología puede ser una herramienta para ampliar libertades, fortalecer la democracia y proteger la dignidad de las personas.

Latin America in a Glimpse: 20 años defendiendo derechos digitales

Latin America in a Glimpse es una publicación que recorre dos décadas de trabajo de Derechos Digitales en la defensa y promoción de los derechos humanos en los entornos digitales de América Latina. No es una memoria ni una cronología, sino una reflexión sobre cómo se han transformado la conectividad, las tecnologías y los debates públicos en la región, y sobre las resistencias que han surgido para garantizar que el desarrollo digital responda al interés público.

El documento revisa cómo pasamos de una internet abierta y descentralizada a un ecosistema dominado por plataformas globales, donde la conectividad ya no es solo acceso, sino también condiciones de justicia, autonomía y participación significativa. En este contexto, América Latina ha sido tanto territorio de experimentación tecnológica como de respuestas comunitarias y creativas frente a modelos extractivistas de datos, recursos y trabajo.

Este “Latin America in a Glimpse: 20 años defendiendo derechos digitales” se organiza en tres capítulos: los dos primeros, escritos por los codirectores ejecutivos de Derechos Digitales, Juan Carlos Lara y Jamila Venturini, y el tercero, por Paloma Lara Castro, directora de Políticas Públicas. Cada uno aborda, desde distintas perspectivas, las transformaciones, tensiones y resistencias que han marcado dos décadas de defensa digital en América Latina.

Junto al documento, presentamos un juego de cartas con 60 hitos del ecosistema digital latinoamericano y de nuestra historia institucional, además de 20 cartas en blanco para escribir los que aún están por venir.

Este juego es una invitación a revisar estos últimos 20 años desde una perspectiva colectiva y participativa. A través de distintos hitos (normas, campañas, movimientos sociales, avances tecnológicos y controversias públicas) podrás reconstruir una línea del tiempo que muestra cómo se
ha dado la defensa de los derechos digitales en América Latina y el mundo, sus conquistas y desafíos.

Juega, debate y reflexiona:

  • ¿Qué acontecimientos marcaron un antes y un después?
  • ¿Qué luchas siguen vigentes?
  • ¿Qué aprendizajes nos dejó cada momento?

*Si necesitas ayuda para imprimir el juego o tienes dudas sobre la investigación escríbenos a través de nuestro formulario de contacto

Contribución de Derechos Digitales a la Asamblea General de las Naciones Unidas sobre el proceso de actualización de la Resolución para la promoción y protección de los derechos humanos en el contexto de las tecnologías digitales

Presentamos una serie de comentarios para contribuir al proceso de actualización de la resolución A/RES/78/213, cuyo objetivo principal sigue siendo la garantía y la promoción de los derechos humanos tanto online como offline, integrando ahora aspectos como: la reafirmación del Pacto por el Futuro y el Pacto Digital Global; el reconocimiento de la importancia de la conectividad, el acceso a Internet y la alfabetización digital, especialmente en los países en desarrollo; el papel de la inteligencia artificial (IA) en la promoción y protección de los derechos humanos; la desinformación y la integridad de la información en el contexto de la IA; la protección de los niñeces y los grupos vulnerables en los entornos digitales; la perspectiva de género y la inclusión; el refuerzo de la participación significativa de múltiples partes interesadas en los ámbitos de gobernanza de las tecnologías digitales; y las salvaguardias contra el uso indebido de las tecnologías de reconocimiento biométrico y facial.

Disputar las reglas del juego: métricas, comunicación y gobernanza digital

Los algoritmos de las redes sociales, diseñados para maximizar la atención y el tiempo de permanencia, determinan qué se muestra y qué se oculta, sin ofrecer transparencia sobre cómo operan. Este modelo no está pensado para fortalecer derechos ni construir ciudadanía digital, sino para capturar datos y generar interacción continua bajo la lógica comercial.

En el entorno digital, las organizaciones sociales enfrentamos una paradoja: necesitamos comprender cómo circulan nuestros mensajes y medir su impacto, pero las métricas disponibles no reflejan todo lo que importa. ¿Cómo aprendemos de los datos sin permitir que condicionen el sentido de nuestro trabajo y la forma en que construimos comunidad?

Gobernanza algorítmica: el poder invisible que decide qué se ve

En el ecosistema digital dominante, las organizaciones sociales participamos de la lógica de los números que se pueden mostrar. Los sistemas automatizados de los algoritmos refuerzan ese ciclo de estímulo y recompensa, incentivando contenidos que generen reacción antes que reflexión.

Como planteamos en nuestra columna sobre cómo comunicar más allá de las redes sociales, las plataformas moldean nuestras estrategias comunicativas a través de mecanismos opacos que privilegian la visibilidad sobre el sentido. Los algoritmos de las redes condicionan la circulación de los mensajes, sus interacciones y moldean las formas de participación. En ese escenario, la tarea no es solo mostrar mensajes, sino también disputar los marcos donde se define qué cuenta como comunicación efectiva, reconociendo que dicha disputa también es una forma de resistencia frente a la gobernanza impuesta por estas empresas de Silicon Valley y que estructuran el espacio público digital.

Nuestra investigación sobre “Resistencias digitales y gobernanza algorítmica” muestra que las organizaciones no deben limitarse a adaptarse a estas reglas, sino que pueden disputarlas activamente. No entender la lógica de los algoritmos puede llevar a que las métricas controlen la comunicación en lugar de orientarla. La resistencia no es solo el contenido que publicamos, sino la manera de medir y valorar ese contenido, aun cuando los algoritmos no lo premien con números.

En Derechos Digitales, nuestros canales digitales buscan abrir conversaciones sobre vigilancia masiva, soberanía tecnológica, y Derechos Humanos en los entornos digitales, temas que exigen atención, no consumo rápido. No buscamos adaptarnos a las lógicas algorítmicas de visibilidad, sino tensionarlas: producir contenidos que inviten a la reflexión. Para nuestro trabajo, se trata de estar ahí, manteniendo una presencia crítica que reivindique el derecho a comunicar en nuestros propios términos.

Los retos de las organizaciones sociales

Las organizaciones sociales no competimos en igualdad de condiciones. A diferencia de marcas o influencers, nuestras narrativas suelen ir a contracorriente de lo que la plataforma considera atractivo. Además, en América Latina enfrentamos desafíos adicionales: no contamos con los mismos recursos, acceso a herramientas ni visibilidad que tienen muchas organizaciones de Estados Unidos o Europa, lo que hace aún más difícil captar atención con campañas digitales y medir su alcance.

Un estudio reciente de Austral Comunicación (comunicadoras sociales en Uruguay, Ecuador y Costa Rica) sobre la medición del impacto social en la comunicación organizacional en América Latina señala que, aunque las y los profesionales reconocen la importancia de evaluar el cambio social, persisten vacíos metodológicos y una tendencia a privilegiar los datos fácilmente cuantificables sobre los procesos participativos o cualitativos. Además el International Journal of Communication cuestiona el concepto de “looking cool” como tendencia de las organizaciones a diseñar contenidos que parezcan atractivos para captar atención, más que contenidos que profundicen narrativas.

En las redes sociales, esto nos empuja a ver lo que publicamos solamente a través de números que traducen estándares y lógicas de mercado pensadas para productos, no para resistencias. Entonces, ¿reportamos lo que moviliza, o lo que suma? ¿Optimizamos el contenido para gustar o para fortalecer procesos? Un riesgo es cuando el objetivo deja de ser el contenido o el vínculo para volverse la métrica misma.

¿Si desafiamos las lógicas convencionales?

En comunicación digital muchas métricas se concentran en outputs (posts, impresiones) o engagement (clics, reacciones). Pero lo que importa para la incidencia son los procesos y transformaciones que se movilizan más allá del entorno digital: cuando un mensaje impulsa debates públicos, fortalece comunidades o contribuye a cambios concretos. Por ejemplo, presionar por una ley, instalar un tema en la agenda política o modificar una práctica institucional. Estos efectos reflejan cómo la acción digital se traduce en resultados concretos en la vida de las personas y en la esfera política. Por eso, es fundamental abrir conversaciones con otras organizaciones y dialogar sobre cómo definir qué “éxitos intermedios” podríamos medir.

Las narrativas que queremos posicionar desde los movimientos sociales exigen reflexión, cuidado y reajuste. Son conversaciones que siembran ideas y regresan, meses después, convertidas en nuevas formas colectivas de activismo. Son ejercicios que cambian la manera en que las personas se relacionan con el entorno digital, brindando contenidos políticos, educativos y reflexivos.

Organizaciones de la región están ensayando nuevas maneras de habitar el entorno digital que desafían la lógica de las mediciones convencionales. Hace algunos meses atrás en un conversatorio guiado por SocialTIC, discutimos estrategias para definir objetivos, audiencias y recursos desde la autonomía organizacional. Desde Guatemala, Andrea Ixchíu compartió la experiencia de Hackeo Cultural y la creación de Milpamérica, una red social autónoma pensada para “reforestar nuestras comunicaciones en tiempos de monocultivo”. Desde Colombia, la Fundación Karisma ha producido análisis e incidencia sobre redes comunitarias como alternativa de conectividad y producción de contenido local, explorando cómo estas infraestructuras autónomas pueden cerrar brechas digitales y fortalecer los vínculos comunitarios en el entorno digital.

Desde Derechos Digitales, gran parte de cambios concretos en la comprensión, la acción y la protección de derechos humanos en el entorno digital sucede fuera de lo que se ve en las redes sociales: cuando el Consejo Asesor de Meta cita nuestro aporte en la decisión final por caso de censura, cuando organizaciones en contextos de crisis políticas usan nuestras guías para el resguardo digital, cuando una adolescente reconoce una experiencia de violencia digital en un carrusel de las redes. Ninguna de esas acciones aparece en las estadísticas, pero son el verdadero corazón del trabajo, que debemos continuar impulsando dentro y fuera de las redes sociales.

El dato como brújula comunicacional

Las organizaciones sociales no existieron para competir en métricas digitales, nacieron para disputar sentidos, transformar realidades y construir futuro. En el contraste entre medir lo cuantitativo y acompañarlo de lo cualitativo, está el balance.  En la práctica, esto se puede recopilar a través de herramientas de monitoreo social, encuestas rápidas, entrevistas o seguimiento de interacciones en grupos y comunidades. Así, la medición se convierte en una guía para ajustar estrategias y fortalecer la comunidad.

Sabemos que en nuestra labor diaria contamos con historias de cambio, narrativas de comunidad y testimonios que no figuran en los números, pero sí dicen mucho del poder transformador. El proyecto NGO-IDEAs, que desde 2015 ha trabajado con ONGs en 11 países de la región, promueve un enfoque participativo en el monitoreo de efectos e impactos. Este enfoque destaca la importancia de involucrar a las comunidades en la definición de indicadores y en la evaluación de los resultados, reconociendo que las métricas cuantitativas deben complementarse con datos cualitativos para capturar la complejidad del trabajo en derechos humanos.

En el equipo de comunicación de Derechos Digitales, observamos métricas cuantitativas para entender cómo circulan nuestros contenidos; por otro, prestamos atención a los resultados cualitativos: quién se involucra en conversaciones, qué conexiones se generan entre participantes y cómo se consolidan espacios de colaboración y aprendizaje. Para nosotras, el éxito no está solo en los números visibles, sino en que la información y las herramientas lleguen a quienes pueden actuar y tomar decisiones informadas.

A través de aplicar estas mediciones, podemos incorporar en informes y evaluaciones que no todo puede cuantificarse, que hay efectos que escapan al dato. Un acto de honestidad que puede recuperar credibilidad política frente a quienes esperan números.

Reescribiendo las reglas impuestas

Si queremos un entorno digital más justo, las organizaciones debemos participar activamente en los espacios donde se deciden las reglas del juego. Esto incluye desde mesas de diálogo con las plataformas hasta instancias regionales e internacionales sobre políticas de internet, regulación de contenidos y estándares de transparencia algorítmica.

Exigir transparencia sobre cómo funcionan los algoritmos, qué se amplifica, qué se oculta y con qué criterios, es clave para que las métricas de las plataformas no terminen imponiendo lo que “vale” o “no vale” comunicar.

La incidencia colectiva de las organizaciones sociales se convierte en una forma de resistencia frente a la lógica de métricas impuestas por las plataformas. Participar en la gobernanza digital significa defender el derecho a comunicar.

De este modo, la comunicación deja de ser solo una estrategia para difundir mensajes: se convierte en herramienta de transformación estructural, en puente entre comunidades, derechos y espacios de decisión. Un entorno digital donde los datos nos sirvan para entender, acompañar y potenciar los procesos de cambio, no para definirlos.

Resistencia digital en la era de la gobernanza algorítmica: perspectivas desde la experiencia latinoamericana

El ensayo analiza cómo las plataformas digitales han pasado de ser espacios de amplificación ciudadana a escenarios donde los algoritmos deciden qué voces se visibilizan y cuáles se borran. A partir de experiencias latinoamericanas, el texto documenta casos de silenciamiento automático, moderación sesgada y estrategias de resistencia como el algospeak o el uso de plataformas descentralizadas. Proponemos que la resistencia digital debe incluir demanda de transparencia algorítmica, participación comunitaria en la gobernanza de plataformas y defensa colectiva de estructuras alternativas para garantizar que las narrativas diversas no sean devoradas por filtros invisibles.

Aportes del Foro Global de Justicia Digital al borrador cero del documento final de la CMSI+20

Como parte del Foro Global de Justicia Digital, presentamos una contribución conjunta al borrador cero del documento final de la CMSI+20. Hacemos recomendaciones generales, como moderar la lectura tecno-optimista del progreso hacia los compromisos de la CMSI, así como recomendaciones específicas sobre temas como género, derechos humanos, gobernanza de los datos e inteligencia artificial.

Aportes de Gender in Digital Coalition al borrador cero del documento final de la CMSI+20

Como parte de Gender in Digital Coalition (GiDC), presentamos una contribución conjunta al borrador cero del documento final de la CMSI+20. Hacemos recomendaciones sobre cómo garantizar la incorporación de la perspectiva de género en el marco de la CMSI+20, centrándonos en temas como la brecha digital, la violencia de género facilitada por la tecnología y los mecanismos de rendición de cuentas.

Tras el telón de la Inteligencia Artificial: modelos computacionales y construcciones humanas

En el contexto del discurso público, la Inteligencia Artificial (IA) se suele presentar como si se tratara de un agente capaz de razonar con un grado elevado de complejidad y competente en la toma de decisiones autónomas, incluso cuando se habla de temas sensibles como el futuro del trabajo o la forma de vida de las personas. Sin embargo, esta visión idealista se encuentra bastante lejos de la concepción lógica propia de su construcción técnica. Esta diferencia separa la Inteligencia Artificial del razonamiento humano, del procesamiento masivo de datos, de los algoritmos y de las estructuras matemáticas diseñados previa y conscientemente por personas. En esta columna, analizamos el proceso de construcción de modelos de IA, a partir de tres etapas que determinan el comportamiento del mismo: la calidad de los modelos; los datos utilizados; y las decisiones humanas que acaban por configurarlos y guiar sus respuestas.

La IA en su estructura base 

La IA no es una mente autónoma, sino una composición de algoritmos y arquitecturas matemáticas que procesan información de formas específicas. Según la elección del modelo, se define qué tipo de relaciones pueden aprenderse y cuáles quedan por fuera de su alcance. Así, por ejemplo, los árboles de decisión organizan la información como un conjunto de reglas jerárquicas que se bifurcan en función de condiciones simples, mientras que las redes neuronales artificiales procesan datos en múltiples capas, donde cada nivel detecta patrones progresivamente más complejos. Por su parte, los modelos de lenguaje predicen la palabra más probable en una secuencia, correlacionando masivamente patrones en grandes bases de texto.

Con este antecedente, la IA debe ser entendida como una “máquina de clasificación” que opera en capas. No se trata de inteligencia en sentido humano, aunque suele ser diseñada para responder a contextos específicos. Un modelo de IA es un mecanismo que separa, ordena y categoriza información de acuerdo con los criterios que sus diseñadores establecen. Es decir, la Inteligencia Artificial no es inteligencia, sino un aparato estadístico para clasificar miles o millones de datos en tiempo récord para la capacidad humana. 

Datos, el combustible de la IA

Si los modelos conforman la arquitectura de esta tecnología, los datos se constituyen en su insumo fundamental. Mediante los datos se entiende, no solo lo que una IA puede aprender, sino también sus límites, sus sesgos y sus errores. Lejos de ser una “materia prima neutra”, los datos muestran los resultados de decisiones humanas: qué recolectar, cómo clasificar, quiénes participan en la generación y curaduría de esos datos. Cada una de estas etapas añade elecciones y valores, y es precisamente en este movimiento en el que estará la definición del comportamiento de los sistemas de IA. Por lo tanto, si esta tecnología depende de los datos que usa, ¿qué pasa si esos datos no logran reflejar una verdad universal? Por ejemplo, ChatGPT -y muchos otros proyectos de IA- son grandes modelos de lenguaje (LLM), entrenados con enormes cantidades de datos extraídos de Internet, muchos de los cuales comparten los sesgos de las personas que publican esos datos

En este sentido, la máxima técnica Garbage in, garbage out sigue vigente: si los datos de entrada están sesgados, incompletos o mal clasificados, los resultados de la IA reproducirán los mismos patrones. Existen múltiples ejemplos que ilustran este riesgo. Como  Amazon que abandonó en 2018 su sistema de reclutamiento automático al descubrir que favorecía sistemáticamente a hombres frente a mujeres, reflejando la composición histórica de su base de datos de contrataciones. En otro caso, un reportaje de DW advierte que la discriminación “viene garantizada” en muchos sistemas de IA: desde herramientas de reconocimiento facial con sesgo racial hasta algoritmos de crédito que penalizan a ciertos grupos sociales. Por su lado, ONU Mujeres subraya que la falta de diversidad en los equipos de desarrollo y en las bases de datos de entrenamiento refuerza estereotipos de género y desigualdades existentes históricamente, multiplicando sus efectos en los sistemas generativos.

Aprendizaje por refuerzo

Una vez entrenada, la IA no se detiene: en muchos casos sigue ajustándose y adaptándose a partir de la manera en que las personas la utilizan. El feedback que recibe, los ajustes de configuración y las correcciones introducidas por quienes interactúan con ella son parte de un proceso de aprendizaje continuo que modifica su desempeño con el tiempo.

Existen ejemplos que muestran hasta qué punto la intervención humana influye en los resultados. El caso de Grok, el chatbot de la empresa xAI fundada por Elon Musk, es ilustrativo: tras una actualización destinada a hacerlo más “anti-woke” y políticamente incorrecto, el sistema comenzó a producir respuestas antisemitas e incluso elogios a Hitler. Este comportamiento no surgió de un razonamiento autónomo, sino de las instrucciones y configuraciones humanas que guiaron su funcionamiento. El episodio evidencia cómo pequeñas decisiones de diseño o ajustes orientados a complacer a un público específico pueden derivar en consecuencias éticamente problemáticas, vulnerando derechos de grupos sociales y comunidades.

La IA como instrumento de lucha

Al analizar minuciosamente cómo se construyen los sistemas de IA, podemos observar que no se trata de inteligencias autónomas y racionales como lo puede ser la inteligencia humana. Aquello que llamamos IA no piensa: relaciona datos, sigue patrones y entiende que, en función de los insumos que recibe y siempre bajo instrucciones, generará unas salidas u otras. Más que inteligentes, las IA son artefactos sociotécnicos, en tanto que en ellas se entrelazan arquitecturas matemáticas, bases de datos trabajadas y realizadas por personas, y configuraciones definidas, además de la propia interacción continua que establece con las personas usuarias. Tal y como se puede ver, cada capa es el reflejo de decisiones humanas: desde la decisión sobre qué modelo escoger, hasta aquella que determina qué datos incorporar y cómo hacer las interpretaciones. Entender el carácter instrumental de la IA es fundamental para poder situarla en su debida dimensión. 

Este reconocimiento, también da paso a una agenda urgente: garantizar marcos regulatorios claros y democráticos que orienten el desarrollo de la IA a fines sociales y éticamente responsables, con pleno respeto de los derechos de las personas. Sin formas adecuadas de gobernanza, estos sistemas tendrán la capacidad de reproducir sesgos, acentuar desigualdades y fortalecer visiones tecnológicas colonialistas que implantan modelos ajenos a los contextos socioculturales locales. Además, es necesario pensar en descentralizar el desarrollo de la IA, fomentando aquellas iniciativas que puedan alimentarse de la diversidad cultural y lingüística en territorio, tal como documentamos en nuestra investigación “LatinAmerica in a Glimpse”.

En definitiva, se requiere una gobernanza de estas tecnologías en la que prevalezcan los Derechos Humanos, sustentada en la transparencia, la participación social y la justicia algorítmica. El objetivo debería ser evitar que la IA funcione como un espejo de los sesgos de siempre, y lograr que se convierta en una herramienta para sociedades más democráticas y justas.

Coalición Global por los Derechos Digitales para aportes WSIS al borrador cero del documento final de la WSIS+20

Como parte de la Coalición Global por los Derechos Digitales para la CMSI (GDRC-WSIS), presentamos una contribución conjunta al borrador cero del documento final de la WSIS+20. Junto con 18 organizaciones de la sociedad civil, hacemos recomendaciones sobre varios temas, como la brecha digital, el género, los Derechos Humanos, la gobernanza de datos y la Inteligencia Artificial.

Cooperativas tecnológicas: otra narrativa para el futuro digital

Hablar de derechos digitales en América Latina implica, muchas veces, enfrentarse a un ecosistema profundamente desigual. Las grandes empresas tecnológicas concentran poder económico y político, dictan las reglas de la comunicación en línea y, de manera sistemática precarizan la vida de millones de personas trabajadoras. Desde quienes desarrollan software sin estabilidad laboral, hasta repartidores que sostienen con su cuerpo la economía de plataformas, expandiéndose una lógica de extracción de datos, de recursos y de vidas.

Frente a eso, es posible imaginar otros futuros. Y no solo imaginar, también construirlos, poco a poco, en las decisiones cotidianas del presente. Una de esas formas ha sido reivindicar cómo trabajamos y con quién trabajamos. Elegir cooperativas, colectivos y tecnologías libres no es simplemente contratar servicios; es parte de un gesto político de coherencia. Una manera de decir que nuestros valores como la privacidad, la libertad de expresión, el trabajo colaborativo, la justicia social y la participación democrática, no se quedan en el papel, sino que atraviesan también nuestras prácticas.

Narrativas en disputa: del dominio corporativo a la cooperación

Las big tech han impuesto no solo sus plataformas, sino también sus narrativas: que el desarrollo tecnológico es inevitable, que la innovación es neutra, que el éxito depende de la escala. Ese relato invisibiliza las formas alternativas de producir tecnologías, desde economías solidarias hasta infraestructuras comunitarias, y también atraviesa debates más recientes, como los de la inteligencia artificial. En nuestro informe Latin America in a Glimpse 2024 mostramos que en la región ya existen miradas situadas que disputan esos discursos dominantes, y que impulsan una IA comunitaria, ética y decolonial, parte de un esfuerzo más amplio por pensar tecnologías desde nuestras realidades.

Allí también entran las cooperativas tecnológicas. Una cooperativa no es solo una empresa distinta, sino un intento del trabajo desde otros principios: decisiones compartidas, distribución más equitativa del valor y una mayor consideración de la vida de quienes participan. No es un modelo perfecto ni libre de tensiones, pero refleja una aspiración de alejarse de la lógica extractiva dominante y acercarse a formas de colaboración más horizontales y cuidadosas.

El informe Plataformas de propiedad de las personas trabajadoras e interseccionalidad (WOIP), realizado con cooperativas y colectivos de Brasil y Argentina que producen y gestionan tecnología desde sus propios espacios de trabajo, ya sea programando software, diseñando servicios digitales, sosteniendo infraestructuras comunitarias o creando alternativas de reparto, muestra que estas experiencias no solo enfrentan al poder corporativo, sino que también disputan la imaginación sobre lo que la tecnología puede ser. Desde la “soberanía digital popular” del Movimiento de Trabajadores Sin Techo en Brasil, hasta la “intercooperación” de la Federación Argentina de Cooperativas de Tecnología (FACTTIC), lo que aparece es un mosaico de alternativas que priorizan la diversidad, el cuidado y la dignidad laboral.

La investigación-acción de WOIP también muestra que pensar en cooperativas tecnológicas no es solo una cuestión organizativa, sino una forma distinta de ubicar la tecnología en nuestras sociedades. Uno de los aportes centrales del informe es la idea de “cuidar antes de programar”. En la práctica, esto significa incorporar principios de cuidado, diversidad e interseccionalidad en el diseño de plataformas y servicios. Cooperativas como FACTTIC en Argentina o colectivos en Brasil han mostrado que es posible organizar el trabajo tecnológico de manera que las decisiones no dependan únicamente de la eficiencia técnica, sino también de la inclusión de voces diversas y de la sostenibilidad de las comunidades involucradas.

Y no es solo el campo tecnológico. Por ejemplo, el libro CAPS LOCK: Cómo se apropió el capitalismo del diseño gráfico y cómo escapar de ello de Ruben Pater y Manuel Moreno nos recuerda que existen colectivos de diseño en distintas partes del mundo que han desafiado durante años las lógicas de competencia y explotación en su práctica profesional. Experiencias como Brave New Alps (Italia), Common Knowledge (Reino Unido), Cooperativa de Diseño (Argentina), Mídia NINJA (Brasil), Open Source Publishing (Bélgica) o The Public (Canadá) muestran que es posible sostener prácticas gráficas y culturales desde principios anticapitalistas. Sus trayectorias ofrecen aprendizajes útiles para entender no solo las posibilidades, sino también los desafíos y obstáculos concretos que enfrentan quienes buscan cambiar la forma en que trabajamos y creamos.

La campaña internacional Hire a Coop, que comenzó animando a las universidades a contratar cooperativas para llevar a cabo servicios de desarrollo y diseño, va en la misma línea: visibilizar que existe un mundo alternativo al de Silicon Valley, un mundo donde la contratación de servicios tecnológicos puede ser un acto de justicia, una forma de redistribución y una apuesta por modelos más democráticos de innovación.

Por ello, vemos en esas experiencias y campañas un recordatorio potente: disputar el modelo de las grandes tecnológicas no se trata únicamente de regular o criticar sus excesos, sino también de huir de sus tentáculos y explorar y visibilizar las prácticas que ya existen en la región y el mundo. Cooperativas, colectivos y comunidades digitales están demostrando que es posible producir tecnología desde otros valores, y nuestro rol también es acompañar, amplificar y aprender de esas iniciativas.

Nuestra experiencia: prácticas que buscan coherencia

En Derechos Digitales también hemos intentado recorrer este camino. Cuando llegó el momento de crear nuestro nuevo sitio web, elegimos trabajar con el Maizal, una cooperativa de Argentina que no solo entendió nuestros criterios de privacidad y seguridad, sino que se relacionó con nosotras desde la horizontalidad y el respeto mutuo. No fue una elección meramente técnica, sino parte de un compromiso por alinear lo que defendemos en nuestra comunicación con la manera en que producimos esa comunicación.

Esta decisión se suma a otras que forman parte de nuestra práctica institucional, como optar crecientemente por software libre, mantener nuestra agencia en las comunicaciones internas, y resguardar el control sobre nuestra información y programas. Son pasos que buscan coherencia entre discurso y práctica. Y sabemos que es un camino aún en construcción, donde seguiremos aprendiendo, corrigiendo y equivocándonos.

Pero creemos que esa es la clave: atreverse a ensayar, a equivocarse y a volver a intentar. Porque disputar las narrativas sobre el futuro tecnológico no se hace solo con palabras, sino también con prácticas concretas, con elecciones cotidianas que nos recuerdan que otra tecnología es posible y que podemos demostrar a otras que no estarán solas en la exploración de ese camino. Y esa otra tecnología empieza también en cómo decidimos trabajar juntas, cómo elegimos organizarnos y cómo construimos, en colectivo, un futuro más justo.