Tras el telón de la Inteligencia Artificial: modelos computacionales y construcciones humanas

En el contexto del discurso público, la Inteligencia Artificial (IA) se suele presentar como si se tratara de un agente capaz de razonar con un grado elevado de complejidad y competente en la toma de decisiones autónomas, incluso cuando se habla de temas sensibles como el futuro del trabajo o la forma de vida de las personas. Sin embargo, esta visión idealista se encuentra bastante lejos de la concepción lógica propia de su construcción técnica. Esta diferencia separa la Inteligencia Artificial del razonamiento humano, del procesamiento masivo de datos, de los algoritmos y de las estructuras matemáticas diseñados previa y conscientemente por personas. En esta columna, analizamos el proceso de construcción de modelos de IA, a partir de tres etapas que determinan el comportamiento del mismo: la calidad de los modelos; los datos utilizados; y las decisiones humanas que acaban por configurarlos y guiar sus respuestas.

La IA en su estructura base 

La IA no es una mente autónoma, sino una composición de algoritmos y arquitecturas matemáticas que procesan información de formas específicas. Según la elección del modelo, se define qué tipo de relaciones pueden aprenderse y cuáles quedan por fuera de su alcance. Así, por ejemplo, los árboles de decisión organizan la información como un conjunto de reglas jerárquicas que se bifurcan en función de condiciones simples, mientras que las redes neuronales artificiales procesan datos en múltiples capas, donde cada nivel detecta patrones progresivamente más complejos. Por su parte, los modelos de lenguaje predicen la palabra más probable en una secuencia, correlacionando masivamente patrones en grandes bases de texto.

Con este antecedente, la IA debe ser entendida como una “máquina de clasificación” que opera en capas. No se trata de inteligencia en sentido humano, aunque suele ser diseñada para responder a contextos específicos. Un modelo de IA es un mecanismo que separa, ordena y categoriza información de acuerdo con los criterios que sus diseñadores establecen. Es decir, la Inteligencia Artificial no es inteligencia, sino un aparato estadístico para clasificar miles o millones de datos en tiempo récord para la capacidad humana. 

Datos, el combustible de la IA

Si los modelos conforman la arquitectura de esta tecnología, los datos se constituyen en su insumo fundamental. Mediante los datos se entiende, no solo lo que una IA puede aprender, sino también sus límites, sus sesgos y sus errores. Lejos de ser una “materia prima neutra”, los datos muestran los resultados de decisiones humanas: qué recolectar, cómo clasificar, quiénes participan en la generación y curaduría de esos datos. Cada una de estas etapas añade elecciones y valores, y es precisamente en este movimiento en el que estará la definición del comportamiento de los sistemas de IA. Por lo tanto, si esta tecnología depende de los datos que usa, ¿qué pasa si esos datos no logran reflejar una verdad universal? Por ejemplo, ChatGPT -y muchos otros proyectos de IA- son grandes modelos de lenguaje (LLM), entrenados con enormes cantidades de datos extraídos de Internet, muchos de los cuales comparten los sesgos de las personas que publican esos datos

En este sentido, la máxima técnica Garbage in, garbage out sigue vigente: si los datos de entrada están sesgados, incompletos o mal clasificados, los resultados de la IA reproducirán los mismos patrones. Existen múltiples ejemplos que ilustran este riesgo. Como  Amazon que abandonó en 2018 su sistema de reclutamiento automático al descubrir que favorecía sistemáticamente a hombres frente a mujeres, reflejando la composición histórica de su base de datos de contrataciones. En otro caso, un reportaje de DW advierte que la discriminación “viene garantizada” en muchos sistemas de IA: desde herramientas de reconocimiento facial con sesgo racial hasta algoritmos de crédito que penalizan a ciertos grupos sociales. Por su lado, ONU Mujeres subraya que la falta de diversidad en los equipos de desarrollo y en las bases de datos de entrenamiento refuerza estereotipos de género y desigualdades existentes históricamente, multiplicando sus efectos en los sistemas generativos.

Aprendizaje por refuerzo

Una vez entrenada, la IA no se detiene: en muchos casos sigue ajustándose y adaptándose a partir de la manera en que las personas la utilizan. El feedback que recibe, los ajustes de configuración y las correcciones introducidas por quienes interactúan con ella son parte de un proceso de aprendizaje continuo que modifica su desempeño con el tiempo.

Existen ejemplos que muestran hasta qué punto la intervención humana influye en los resultados. El caso de Grok, el chatbot de la empresa xAI fundada por Elon Musk, es ilustrativo: tras una actualización destinada a hacerlo más “anti-woke” y políticamente incorrecto, el sistema comenzó a producir respuestas antisemitas e incluso elogios a Hitler. Este comportamiento no surgió de un razonamiento autónomo, sino de las instrucciones y configuraciones humanas que guiaron su funcionamiento. El episodio evidencia cómo pequeñas decisiones de diseño o ajustes orientados a complacer a un público específico pueden derivar en consecuencias éticamente problemáticas, vulnerando derechos de grupos sociales y comunidades.

La IA como instrumento de lucha

Al analizar minuciosamente cómo se construyen los sistemas de IA, podemos observar que no se trata de inteligencias autónomas y racionales como lo puede ser la inteligencia humana. Aquello que llamamos IA no piensa: relaciona datos, sigue patrones y entiende que, en función de los insumos que recibe y siempre bajo instrucciones, generará unas salidas u otras. Más que inteligentes, las IA son artefactos sociotécnicos, en tanto que en ellas se entrelazan arquitecturas matemáticas, bases de datos trabajadas y realizadas por personas, y configuraciones definidas, además de la propia interacción continua que establece con las personas usuarias. Tal y como se puede ver, cada capa es el reflejo de decisiones humanas: desde la decisión sobre qué modelo escoger, hasta aquella que determina qué datos incorporar y cómo hacer las interpretaciones. Entender el carácter instrumental de la IA es fundamental para poder situarla en su debida dimensión. 

Este reconocimiento, también da paso a una agenda urgente: garantizar marcos regulatorios claros y democráticos que orienten el desarrollo de la IA a fines sociales y éticamente responsables, con pleno respeto de los derechos de las personas. Sin formas adecuadas de gobernanza, estos sistemas tendrán la capacidad de reproducir sesgos, acentuar desigualdades y fortalecer visiones tecnológicas colonialistas que implantan modelos ajenos a los contextos socioculturales locales. Además, es necesario pensar en descentralizar el desarrollo de la IA, fomentando aquellas iniciativas que puedan alimentarse de la diversidad cultural y lingüística en territorio, tal como documentamos en nuestra investigación “LatinAmerica in a Glimpse”.

En definitiva, se requiere una gobernanza de estas tecnologías en la que prevalezcan los Derechos Humanos, sustentada en la transparencia, la participación social y la justicia algorítmica. El objetivo debería ser evitar que la IA funcione como un espejo de los sesgos de siempre, y lograr que se convierta en una herramienta para sociedades más democráticas y justas.

Filtraciones de datos: el costo ciudadano de la negligencia digital

Cada nueva filtración de datos parece encontrarnos igual: con indiferencia y resignación. No es apatía, sino cansancio. “Total, no tengo nada que ocultar, no soy tan importante”, es una de las frases más repetidas, que refleja cómo se ha instalado la idea de que la privacidad no importa. Esa resignación, alimentada por la negligencia de las empresas y entidades estatales que almacenan nuestros datos, está erosionando la confianza social y normalizando la idea de que la privacidad deje de percibirse como un derecho básico.

Se trata de un fenómeno que no surge de la nada. En lo que va del año, ya podemos constatar múltiples casos en distintos países de América Latina. En Argentina una app estatal comprometió 13 mil perfiles; en Uruguay se vendió una base de datos estatal con más de medio millón de registros; en México un ataque a una boletera dejó al descubierto datos bancarios de 80 mil personas; en Paraguay se filtraron más de 7 millones de registros del Tribunal Superior de Justicia Electoral; en El Salvador una gestora de cobros perdió más de 140 gigabytes de información de sus clientes; y en Venezuela se reportó la exposición de más de 3,2 millones de personas usuarias de Movistar. En estas filtraciones suelen aparecer datos como el documento de identidad, nombres, fechas de nacimiento, direcciones, teléfonos. Muchos incidentes incluyen además información sensible como fotografías, firmas, huellas, historiales médicos, registros laborales y socioeconómicos.

Desde el tecnicismo, estos campos se presentan como simples columnas en una base de datos, pero en realidad cada una de esas columnas corresponde a fragmentos de nuestras vidas: quiénes somos, dónde vivimos, cómo trabajamos y hasta qué padecemos. Reducir la información a tablas y registros invisibiliza que detrás de cada dato hay una persona con derechos que pueden ser vulnerados si su información personal queda expuesta.

Cuando la tecnología falla, las personas lo sufren

Tanto el sector privado como el público parecen estar en una carrera sin fin hacia la “innovación”, pero ¿qué valor tiene hablar de innovación si se construye sobre la exposición constante de los datos de la ciudadanía? Innovar no debería significar coleccionar más información de la necesaria ni esconder en la letra pequeña cómo se utiliza. Tiene que incluir el diseño de sistemas no solo funcionales, sino también seguros y accesibles, que no trasladen todo el riesgo a las personas. Mientras eso no ocurra, la llamada “innovación” seguirá siendo un discurso vacío, blindado a través de comunicados tardíos que llegan cuando el daño ya está hecho.

Las filtraciones permiten que datos que parecen administrativos se transformen en herramientas de delito. Con un número de documento, y otras informaciones básicas que suelen aparecer en un carnet de identidad, un delincuente puede solicitar préstamos o abrir cuentas bancarias a nombre de otra persona. Con direcciones y teléfonos filtrados, las extorsiones y estafas se multiplican. Esa información llegó a utilizarse incluso para inscribir a personas en partidos políticos sin su consentimiento, como ocurrió en el caso de la filtración de la base de datos del Reniec en Perú, el cual facilitó afiliaciones masivas a organizaciones políticas sin autorización ciudadana.

La mayoría de los ciberataques ocurridos entre 2023 y 2024 contra organizaciones latinoamericanas derivó en filtraciones de datos, que representaron el 53% de los casos. Más de la mitad de la información robada correspondió a datos personales (32%) y credenciales de cuentas (21%), revelando cómo el contenido filtrado es insumo para el delito digital.

No todas las personas enfrentan los mismos riesgos cuando sus datos quedan al descubierto. Las mujeres suelen ser blanco de violencia digital: acosadores que utilizan sus fotos o números de teléfono para hostigarlas, amenazarlas o enviarles contenido sexual. Niñas, niños y adolescentes quedan especialmente vulnerables a engaños en línea o a ser fácilmente identificables, lo que conlleva a riesgosas situaciones de trata y violencia infantil. Las personas defensoras de Derechos Humanos o pertenecientes a la comunidad LGTBIQA+ quedan expuestas a campañas de acoso y criminalización si su información personal se hace pública. En muchos casos esto ocurre a través del doxxing, es decir, la exposición maliciosa de datos personales en Internet. Las filtraciones masivas de bases de datos que luego circulan abiertamente en la web —ya sea en foros de la Darkweb o en canales de compraventa de Telegram— alimentan estas prácticas, amplificando el hostigamiento y poniendo en riesgo la garantía de derechos en general.

Los datos socioeconómicos filtrados también agravan la desigualdad: un historial de deudas o la procedencia de un barrio estigmatizado pueden bastar para que alguien sea descartado en un proceso laboral. Entonces, si miramos estas filtraciones solo como un problema técnico, pasamos por alto que en realidad refuerzan estructuras de discriminación y amplifican violencias que ya existen históricamente en nuestra sociedad.

Medidas urgentes para resguardar la confianza

Uno de los mayores descuidos suele ubicarse en el control de accesos: se debe garantizar que solo las personas autorizadas puedan acceder a los sistemas que almacenan nuestra información y que esos permisos deban ser revisados de forma constante y eliminados cuando ya no correspondan. No hacerlo puede derivar en situaciones graves. En un caso reciente en Perú, un extrabajador de una empresa de telecomunicaciones fue investigado penalmente porque delincuentes aprovecharon un acceso a su nombre que nunca había sido desactivado para ingresar a la base de datos personales nacional y, con esa información, suplantar personas, cambiar titularidad de líneas móviles y robar cuentas bancarias.

Para prevenir estos delitos, es necesaria la aplicación del principio de “mínimo privilegio”, es decir, que cada persona que trabaja en las entidades que almacenan nuestros datos tenga únicamente los accesos que necesita para cumplir su función, y desactivar de inmediato los accesos de quienes dejan esa institución.

Asimismo, la adopción de autenticación multifactor (MFA) en todos los accesos administrativos junto al uso de gestores de contraseñas, reduce significativamente el riesgo de intrusiones. La MFA consiste en combinar al menos dos métodos distintos de verificación, como por ejemplo: algo que sabemos (una contraseña), algo que tenemos (un celular o un token físico) y algo que somos (huella digital o rasgos faciales). No obstante, este último método -la biometría- actualmente no es una solución libre de riesgos. En Brasil, por ejemplo, se investigó un esquema que vulneró los sistemas de biometría del portal gov.br mediante técnicas de manipulación de imágenes, accediendo de forma indebida a datos personales.

Otra medida indispensable es el cifrado. En pleno 2025 todavía vemos bases de datos expuestas y archivos circulando sin protección, como si fueran documentos abiertos al público. Ese tipo de fallo de seguridad permitió la intrusión fraudulenta a los registros de más de 243 millones de personas en Brasil en 2020, cuando credenciales del Ministerio de Salud quedaron expuestas en el código fuente de una página oficial durante al menos seis meses. Toda información debe almacenarse cifrada y toda transferencia de información debe viajar por canales seguros, como ocurre con las páginas web que usan HTTPS en lugar del inseguro HTTP.

La seguridad exige constancia: auditar accesos, detectar patrones anómalos como consultas masivas o fuera de horario y mantener registros verificables. Cada ingreso debe quedar trazado y cada alerta investigada a tiempo, porque no sirve reaccionar cuando el daño ya está hecho. La ciudadanía tiene derecho al resguardo de sus datos y su privacidad y no solo a que se informe livianamente después de un incidente. Cada registro ignorado o cada log sin revisar es, en realidad, una decisión sobre cuánto valoran las instituciones la confianza pública.

Tan importante como proteger los sistemas es cuestionar la cantidad de información que se recolecta. Muchas filtraciones se podrían haber evitado si las organizaciones no hubieran almacenado más datos de los necesarios. Guardar copias indefinidas de documentos, recolectar información sensible “por si acaso” o para generar publicidad, no establecer plazos claros de eliminación, todo esto multiplica los riesgos.

De todas formas, ninguna herramienta sustituye a una cultura de seguridad que ponga a las personas en el centro. Una capacitación en seguridad digital de media hora una vez al año no forma conciencia ni previene errores. Las instituciones necesitan contar con una política de seguridad digital, dotada de equipos profesionales preparados, protocolos claros y un compromiso real desde la dirección hasta el último nivel operativo. A menudo vemos gastos millonarios en sistemas de seguridad, pero la tecnología por sí sola no es suficiente si no se acompaña de procesos claros de prevención, detección y respuesta, y de especialistas capacitados que entiendan que están protegiendo a personas, no solo datos o dispositivos.

Cuando la ley no alcanza

Varios países de América Latina cuentan hoy con leyes de protección de datos personales y autoridades de regulación. Sin embargo, los casos recientes demuestran que lejos de resolverse, esta problemática se vuelve recurrente en nuestra región: tanto empresas como entidades estatales vuelven a tener filtraciones que afectan a millones de personas. El marco regulatorio, aunque necesario, se muestra insuficiente si no existe la capacidad y voluntad de hacerlo cumplir.

Proteger los datos es un deber político y ético. El Estado debe garantizar derechos y construir confianza ciudadana, y las instituciones -públicas y privadas- asumir que detrás de cada registro hay vidas humanas. Mientras nuestra región no entienda que la privacidad es parte de la dignidad, seguiremos tratando las filtraciones como simples fallas técnicas, cuando en realidad evidencian la falta de compromiso público con la protección de derechos.

La resiliencia digital del arcoiris

En medio de un mundo convulsionado por la irrupción de la IA, las personas intentan aprovechar los beneficios que estos avances tecnológicos pueden brindar pero, a la vez, buscan lidiar con aquellas consecuencias negativas que ese mismo uso puede traer, y que en ocasiones aún ni podemos identificar. Entre ellos, uno de los problemas que se ha profundizado y mutado es el de la Violencia de Género Facilitada por las Tecnologías (VGFT). Estudios de la ONU, y de personas especialistas en el tema, ya demuestran el impacto diferencial de ciertos procesos tecnológicos sobre determinados sectores sociales, grupos en situación de vulnerabilidad que pagan mucho más caro las amenazas del ámbito digital, entre los que se encuentran las mujeres y las personas de la comunidad LGBTIQA+.

Si bien las tecnologías históricamente han servido como espacio de refugio y red para los colectivos de la diversidad, hoy observamos un estrepitoso auge de los discursos de odio, hipervigilancia, persecución, acoso y violencia digital que sufren a diario estas poblaciones. ¿Cuáles son los desafíos que enfrentan ante este nuevo terreno digital hostil? ¿Qué estrategias construyen las organizaciones latinoamericanas para resguardar al colectivo LGBTIQA+ y aprovechar las tecnologías en su favor?

Resurgimiento de los discursos antiderechos

Antes de poner la lupa sobre el entorno digital, repasemos lo que las renovadas derechas de nuestro continente vienen expresando en relación a los derechos LGBTIQA+. El retorno de Trump a la Casa Blanca vino con una nueva propuesta para la derecha global: la batalla cultural radical contra lo que ellos denominan “agenda woke”. El actual gobierno de EE. UU. cerró todos los programas estatales de diversidad, equidad e inclusión (DEI) del gobierno federal, destinados principalmente a las minorías, entre otras políticas sustanciales.

Para los nuevos -viejos- paladines de los valores morales y la familia tradicional, la educación sexual en las escuelas es adoctrinamiento, el cupo laboral trans es un privilegio, el lenguaje inclusivo es una aberración para la lengua. Con esa narrativa justifican el cierre de políticas públicas e instituciones enteras y se pasean por conferencias internacionales con discursos cargados de odio contra personas LGBTIQA+.

Así lo vienen expresando los gobiernos de ultraderecha de Argentina y El Salvador. En el marco del último Foro Económico Mundial, el presidente Javier Milei, vinculó lo que catalogó como “versiones extremas de la ideología de género” con el abuso infantil. Desde que inició su gestión, Argentina está experimentando un rápido retroceso para los derechos de las mujeres y personas LGBTIQA+. Por su parte, pocos días después de asumir el poder, Nayib Bukele eliminó la Dirección de Diversidad Sexual, y en su participación en la Conferencia de Acción Política Conservadora (CPAC) de 2024, dijo: “Es importante que la currícula no lleve ideología de género”.

Sin embargo, estos escenarios regresivos no se circunscriben a países con gobiernos autoritarios de derecha. Según el Instituto Raza & Igualdad, el asesinato de personas por su orientación sexual o identidad de género es una realidad en Latinoamérica, al punto que la región se ubica como la más peligrosa en el mundo para personas trans. En ese contexto, Brasil, México y Colombia, gobernados por coaliciones progresistas y de izquierda, son los países con mayor número de casos, según el Trans Murder Monitoring. Por ejemplo, la regional América Latina y Caribe de ILGA determinó en un informe que en Brasil se asesina a una persona LGBTIQA+ cada 34 horas.

Entre las tendencias del informe anual 2024 de la Comisión Interamericana de Derechos Humanos (CIDH), se señala que, durante el año pasado, “los desafíos particulares que enfrentan las personas y grupos que padecen discriminación histórica y sistemática se intensificaron”. En particular, registran un aumento de discursos de odio, desinformación y cuestionamiento de los derechos de las personas LGBTIQA+ y mujeres, entre otros sectores sociales.

Narrativas digitales de odio

Las personas LGBTIQA+ en América Latina enfrentan diversas problemáticas en el entorno digital, que van desde la violencia en línea hasta la vulneración de datos personales, pasando por otras modalidades que configuran un escenario hostil, en lo que históricamente ha sido un espacio de red y refugio para esta comunidad.

Antes de repasarlas, hablemos de la brecha digital de géneros. Según la lista elaborada por la Internet Society sobre las tarifas de internet móvil, ocho de los diez países con los precios más elevados están en América. Más allá del costo del servicio, nuestra región cuenta con amplios territorios rurales o semiurbanos, donde se carece de energía eléctrica, así como del equipamiento de banda ancha necesarios para lograr cobertura de red. El reporte de ILGA “Acceder a la conexión: cerrando la brecha digital de las comunidades LGBTI en el mundo”, identifica que en América Latina la falta de infraestructura de red afecta especialmente a las personas LGBTIQA+, muchas de las cuales también se ven marginadas por su raza y/o condición de pertenencia a la población indígena.

La violencia digital contra las personas LGBTIQA+ viene en aumento en redes sociales como X, Facebook y YouTube, según la investigación de ILGA. Además, señala que este colectivo es más vulnerable a sufrir daños en línea que sus pares heterosexuales y cisgénero. Pero, ¿qué hacen las plataformas para regular estas agresiones y promover mayor inclusión y seguridad? Hacen poco o nada; e, incluso, en sintonía con la agenda conservadora global, permiten que estos comportamientos violentos se extiendan.

Tras los anuncios de Zuckerberg a inicios de 2025, los usuarios de las plataformas de Meta pueden denominar a personas gays o trans como “enfermos mentales”, sin restricciones. Una investigación brasilera demuestra que las personas usuarias de TikTok que se identifican como no binarias se han visto especialmente afectadas por la aplicación de las normas de las plataformas en América Latina. Las políticas de contenido y los términos de servicio tienen un impacto diferencial en su privacidad, autonomía, libertad de expresión y derechos sociales, económicos y reproductivos. Por otra parte, las principales conclusiones del “Índice de seguridad en las redes sociales” de este año, indican que las recientes revocaciones de las políticas contra el discurso de odio en Meta y YouTube representan graves amenazas para la seguridad de las personas LGBTIQA+; y que las plataformas suprimen desproporcionadamente el contenido de los colectivos de la diversidad mediante la eliminación, la desmonetización y el shadowbanning.

Para completar el diagnóstico, es importante destacar que esta población también sufre de manera desproporcionada la persecución e hipervigilancia digital, también conocida como “vigilancia queer”. Hoy es difícil que la huella digital contemple el anonimato de las y los internautas, lo que expone aún más a las comunidades LGBTIQA+ en relación con su privacidad y datos personales en la interacción digital. Los perfilamientos en redes sociales a partir de la identidad de género, no sólo se utilizan con fines comerciales y publicitarios, sino que también pueden ser una herramienta de los Estados para la vigilancia y criminalización de determinados grupos sociales.

Internet pintada con todos los colores

Si bien las personas y colectivos LGBTIQA+ reconocen estas problemáticas y sus impactos negativos, no están dispuestas a abandonar internet, sino más bien adaptarse a los tiempos que corren y construir la resiliencia digital que el contexto requiere. En la actualidad, tanto organizaciones feministas y de la diversidad, como colectivos por los Derechos Humanos en internet, se articulan y trabajan para crear espacios y herramientas que acompañen a estas comunidades a transitar de manera más justa, inclusiva y segura el ecosistema digital.

Derechos Digitales publicó una investigación que documenta la labor de tres líneas de ayuda en materia de seguridad digital operando en América Latina: el Centro S.O.S Digital de Fundación InternetBolivia.org en Bolivia, Maria d’Ajuda de Marialab en Brasil y Navegando Libres por la Red de Taller Comunicación Mujer en Ecuador. Además, a través de los Fondos que brinda la organización, se fomentan iniciativas que buscan generar resiliencia digital en los colectivos feministas y LGBTIQA+ de nuestra región, como por ejemplo un proyecto desarrollado por LatFem basado en cuidados digitales para ejercer más y mejor periodismo feminista.

Existen también plataformas digitales destinadas a documentar y archivar la historia de las diversidades, como son el Recursero Trans y el Archivo Trans de Argentina, el Colectivo Pedrina de El Salvador, el Archivo de la Memoria Transmasculina de México, y el Archivo de la Memoria Marica del Perú, así como varios proyectos de registro que fomenta el área LGBT+ de Wikimedia en plataformas abiertas. Asimismo, proliferan los medios de comunicación digitales con perspectiva feminista que prestan especial atención a la actualidad y agenda de la diversidad. Entre ellos podemos mencionar a la agencia Presentes, GenderIT.org, Volcánicas, Portal Catarinas, Wambra, Muy Waso y Altavoz LGBT+.

Con el fin de fomentar la seguridad digital de las personas y activistas LGBTIQA+, varios colectivos impulsan guías y recomendaciones: Libres y Segures de TEDIC en Paraguay, Guía de Defensa Contra la Violencia Digital de R3D e Impunidad Cero en México, y Nos Mantenemos Seguros: Guía de Seguridad Digital LGBTQ de GLAAD. Además, en la región se construyen plataformas que permiten realizar estadísticas, cifras y mapeos sobre la violencia digital contra personas de estas comunidades, como Sin Violencia, El Observatorio de Violencias LGBTIQ+ de ILGA LAC, o el Informe Anual de Derechos Humanos de la Diversidad Sexual y de Género de MOVILH Chile.

Una red inclusiva y diversa es posible

Las experiencias e iniciativas dan cuenta de una actividad dinámica y esperanzadora en lo que podríamos llamar la resiliencia digital del arcoiris. Valores históricos de la comunidad LGBTIQA+ como la solidaridad, el autocuidado colectivo, la red y la empatía, se ponen en juego también en la esfera de internet. Si bien podemos observar un giro hacia la privacidad que parece contrario a la disputa de visibilidad del movimiento, lo cierto es que las estrategias de privacidad resultan, en este contexto, una de las pocas herramientas con las que cuentan para evitar el expolio de los datos personales, y la conformación de perfiles de internautas, que implica también riesgos de vigilancia y control por fuerzas de seguridad estatales y grupos extremistas.

Pero está claro que sólo con los esfuerzos de la sociedad civil no alcanza. Se necesitan marcos regulatorios a nivel global, regional y nacional, que protejan a estos grupos en situación de vulnerabilidad y erradiquen la violencia de género digital. Los sesgos de los algoritmos y la IA se alimenta de discriminaciones y estereotipos históricos contra las minorías. Precisamos de enfoques interseccionales para abordar estos peligros, y compromisos concretos de las compañías de tecnologías para que internet vuelva a ser un espacio de fomento de los Derechos Humanos, y no todo lo contrario.

Muchas personas y activistas LGBTIQA+ abandonan las redes, o disminuyen su interacción en línea, por miedo. Es imprescindible el fomento de políticas públicas y reglas claras y transparentes para el funcionamiento de las plataformas, para que todas las personas, sin importar su identidad de género, puedan sentirse seguras en la red. Porque no volveremos al closet nunca más, ni en las calles, ni en internet.

Datos, privacidad y nuestra huella digital

Tuve la suerte de experimentar con computadoras desde niño en la década de 1980. En esa época la información se guardaba en disquetes, primero los de 5 ¼, luego los de 3 ½. El disquete de mayor capacidad no podría almacenar una sola foto de la que tomamos hoy en día con un teléfono móvil. Sin embargo, en ellos guardábamos videojuegos -lo que más me gustaba en esa época-, archivos de texto y hojas de cálculo. Si bien era poca la información que estos dispositivos almacenaban, las personas eran muy conscientes de su importancia y era común tener varias copias de un documento en distintos disquetes. Con el tiempo, la capacidad de almacenamiento se incrementó y las computadoras personales empezaron a traer discos duros donde se podía guardar mucha más información. Eso sí, era importante respaldarla en disquetes porque la computadora podía dañarse con virus o con alguna descarga eléctrica.

Ya en los 90 se popularizaron los discos compactos (CD por sus siglas en inglés), primero para música y luego para software más complejo que podía almacenar mucha más información. La capacidad de un solo CD era equivalente a la de, aproximadamente, 484 disquetes y la disponibilidad de espacio facilitó la popularización, entre las personas usuarias de ese entonces, de la grabación de multimedia, como música, fotos y videos. Durante esa época, algunas personas tuvimos la suerte de conectarnos a internet, a través de la telefonía fija de las casas utilizando el sistema de dial-up. Si bien las conexiones eran muy lentas, y el contenido multimedia limitado, algo importante empezó a cambiar en relación a la gestión de nuestra información y todavía no teníamos noción de esto: nuestros datos se comenzaban a guardar de manera remota.

En sus inicios, utilizábamos internet para aprender, investigar y comunicarnos. El correo electrónico era la principal forma de comunicación y, a finales de los 90, si no tenías un correo de Hotmail, era de Yahoo, aunque había otros también. Sin embargo, lo que tenían en común esos sistemas era que su capacidad de almacenamiento era limitada y los buzones de correo se llenaban rápidamente, por lo que había que vaciarlos y respaldar localmente la información que considerábamos importante. Esto empezó a cambiar en 2004, cuando Google creó Gmail con una capacidad extraordinaria para el guardado comparado con el resto de proveedores de correo de la época: 1GB o el equivalente a 710 disquetes de 3 ½ . En pocos años, Gmail se convirtió en uno de los proveedores más populares y borrar correos electrónicos en algo del pasado. La capacidad de almacenamiento creció de manera similar del tamaño de los archivos multimedia que hoy son tan populares.

Con la popularización de los teléfonos inteligentes, pude vivir otra gran transformación: la integración directa entre mi información –como contactos, fotos, documentos y otros – y los servidores de las gigantes tecnológicas como Apple y Google. Esta costumbre de guardar la información en línea en servidores remotos fue adoptada por otras empresas y es lo que actualmente conocemos como “la nube”.

Durante los cerca de 40 años que llevo siendo usuario de la informática pude presenciar la transición del almacenamiento de forma local a remota. Cuando la información se guardaba de forma local sabíamos dónde estaba y éramos responsables de su cuidado. Cuando apareció la nube, cedimos esta información a terceros que guardan nuestros datos bajo criterios de acceso y respaldo que no siempre conocemos.

Somos datos, ¿dónde estamos?

Somos nuestros contactos, “dime con quién andas y te diré quién eres”. Somos nuestros chats, correos, fotos y videos que describen nuestra vida personal y profesional. Somos el lugar y la hora donde nos encontramos, lo que buscamos, lo que leemos, los likes que damos y los likes que no damos. Somos los documentos de texto, las hojas de cálculo y las presentaciones que hacemos. Somos las conversaciones que tenemos con la inteligencia artificial y muchos datos más.

Todos ellos se encuentran en la nube –lo que coloquialmente conocemos como la computadora de alguien más-. Google sabe lo que buscamos, nuestros correos electrónicos, ubicación, los documentos que escribimos y con quién colaboramos. Meta conoce nuestras interacciones sociales a través de plataformas como Facebook, Instagram o WhatsApp. Aquí citamos sólo dos ejemplos, pero vale la pena preguntarnos: ¿por qué estas empresas ofrecen tanto espacio para almacenar nuestra información de forma gratuita? Si para nosotras hay una ventaja clara en no depender de dispositivos frágiles o limitados, ¿qué beneficios obtienen ellas? ¿Cuál es el costo real de esta inesperada gentileza?

Hoy sabemos que estas empresas nos regalan espacio de almacenamiento porque esos datos les dan poder. Empresas como Google y Meta nos dan servicios “gratuitos” a cambio de nuestros datos, que luego utilizan para vender publicidad dirigida o generar nuevos productos que luego serán explorados económicamente. Desde hace algunos años estamos viviendo el boom de la inteligencia artificial, en particular de los modelos largos de lenguaje. ¿Nos hemos preguntado por qué aplicaciones como Gemini y ChatGPT saben lo que saben? Es muy probable que las hayamos estado entrenando con nuestros datos sin un consentimiento explícito.

Pero el uso comercial de nuestros datos por las gigantes de tecnología no es el único riesgo del modelo de almacenamiento en nube a nuestra privacidad. En 2013, Edward Snowden filtró documentos de inteligencia de EE. UU. que revelaron cómo este país y sus aliados utilizan la infraestructura de empresas como Google, Meta, Microsoft y Yahoo, entre otras, para espiar a sus usuarios. Ya pasaron 12 años desde estas filtraciones y si bien se han incorporado algunas protecciones adicionales a la información que circula en internet, lo más probable es que los datos almacenados en la nube sigan siendo espiados. Es más: es plausible pensar que el modelo se replica en otros contextos y la información almacenada en Tik Tok, Alibaba o Temu también sean accesibles por agencias del gobierno chino.

El éxito del modelo depende de las facilidades que puedan ofrecer en un contexto de abundancia (por no decir exceso) de información, versus la dificultad de tener mayor control. Pensemos en las fotografías que tomamos en nuestros teléfonos móviles. Por defecto, cuando se toma una fotografía, esta se sube a la nube de Google o a la de Apple. Personalmente, no quiero que mis momentos personales queden almacenados en una nube a la cual tienen acceso agencias de inteligencia de diferentes países del mundo. Es verdad que tanto Android como Apple permiten desactivar la característica de sincronizar nuestras fotos. ¿Pero qué pasa con las fotos donde aparezco, que fueron tomadas desde el celular de otra persona? ¿Mi exposición personal queda entonces dependiente de la consciencia de una persona desconocida? 

¿Qué podemos hacer?

Existen datos sobre los que podemos tener control de forma individual, otros que podemos controlar de forma colectiva y otros sobre los que no tenemos control directo. Para proteger nuestra privacidad, podemos pensar en almacenar la información privada de manera local. Si pensamos en un documento de texto, podemos utilizar herramientas como LibreOffice en lugar de Office 365 o Google Docs, que están conectados a las nubes de sus proveedoras. Si pensamos en fotos tomadas en nuestro teléfono, podemos desactivar la sincronización de las mismas, tanto en Android como iPhone.

Sí, gran parte de las buenas prácticas en gestión de información personal actualmente requieren resistir a las supuestas facilidades ofrecidas por los servicios dominantes y cambiar prácticas para lograr recuperar nuestra autonomía. Al almacenar la información de manera local, ganamos en privacidad, pero puede ser que, al menos al inicio, perdamos en conveniencia.

Podemos experimentar vivir la digitalización de otras formas. Por ejemplo, para respaldar las fotos y otros documentos de un teléfono, podemos utilizar el cable de datos para transferir la información a nuestra computadora y de la computadora podemos usar un disco duro externo para respaldar nuestros datos. También se puede acceder a soluciones más sofisticadas utilizando herramientas libres como Syncthing o mediante un servidor de archivos.

También podemos utilizar aplicaciones cifradas como Signal. Si queremos compartir más documentos, podríamos buscar nubes en las que confiemos o incluso utilizar nubes en las que no confiamos pero cifrar nuestros documentos con herramientas como Veracrypt.

En organizaciones o comunidades donde se cuenta con determinados recursos, se puede utilizar infraestructura propia y autónoma con herramientas de software libre. En el caso de Derechos Digitales, compartimos nuestros documentos a través de una instancia propia de  Nextcloud, los redactamos utilizando OnlyOffice o a través de pads. Nuestras conversaciones suceden a través de nuestra propia plataforma de chat cifrada y autónoma. En el caso de los correos, si bien no controlamos nuestro servidor, sí estamos en la capacidad de cifrar correos sensibles utilizando aplicaciones como Thunderbird.

Tener control sobre el lugar donde se almacena nuestra información o cifrar la información sensible en lugares que no controlamos es una forma de ejercer nuestro derecho a la privacidad. Lamentablemente eso no siempre es una tarea sencilla o posible. Por eso es que seguimos luchando para que cualquier recolección o uso de nuestros datos se haga en base a criterios muy bien establecidos de modo que se garantice el respeto y la protección de nuestros derechos. Y una forma de resguardar nuestra privacidad es defendiendo el cifrado, el anonimato y la privacidad por diseño, intentando alinear nuestra comodidad con el ejercicio de los Derechos Humanos.

Nuestras vidas suceden en el espacio digital y, por tanto, quedan documentadas. Entender dónde se almacenan es el primer paso para poder cuidar nuestros datos y nuestra privacidad. Es fundamental que la ciudadanía tenga una visión crítica de la vida digital y poder explorar alternativas tecnológicas que nos permitan retomar el control sobre nuestra información.

Cooperativas tecnológicas: otra narrativa para el futuro digital

Hablar de derechos digitales en América Latina implica, muchas veces, enfrentarse a un ecosistema profundamente desigual. Las grandes empresas tecnológicas concentran poder económico y político, dictan las reglas de la comunicación en línea y, de manera sistemática precarizan la vida de millones de personas trabajadoras. Desde quienes desarrollan software sin estabilidad laboral, hasta repartidores que sostienen con su cuerpo la economía de plataformas, expandiéndose una lógica de extracción de datos, de recursos y de vidas.

Frente a eso, es posible imaginar otros futuros. Y no solo imaginar, también construirlos, poco a poco, en las decisiones cotidianas del presente. Una de esas formas ha sido reivindicar cómo trabajamos y con quién trabajamos. Elegir cooperativas, colectivos y tecnologías libres no es simplemente contratar servicios; es parte de un gesto político de coherencia. Una manera de decir que nuestros valores como la privacidad, la libertad de expresión, el trabajo colaborativo, la justicia social y la participación democrática, no se quedan en el papel, sino que atraviesan también nuestras prácticas.

Narrativas en disputa: del dominio corporativo a la cooperación

Las big tech han impuesto no solo sus plataformas, sino también sus narrativas: que el desarrollo tecnológico es inevitable, que la innovación es neutra, que el éxito depende de la escala. Ese relato invisibiliza las formas alternativas de producir tecnologías, desde economías solidarias hasta infraestructuras comunitarias, y también atraviesa debates más recientes, como los de la inteligencia artificial. En nuestro informe Latin America in a Glimpse 2024 mostramos que en la región ya existen miradas situadas que disputan esos discursos dominantes, y que impulsan una IA comunitaria, ética y decolonial, parte de un esfuerzo más amplio por pensar tecnologías desde nuestras realidades.

Allí también entran las cooperativas tecnológicas. Una cooperativa no es solo una empresa distinta, sino un intento del trabajo desde otros principios: decisiones compartidas, distribución más equitativa del valor y una mayor consideración de la vida de quienes participan. No es un modelo perfecto ni libre de tensiones, pero refleja una aspiración de alejarse de la lógica extractiva dominante y acercarse a formas de colaboración más horizontales y cuidadosas.

El informe Plataformas de propiedad de las personas trabajadoras e interseccionalidad (WOIP), realizado con cooperativas y colectivos de Brasil y Argentina que producen y gestionan tecnología desde sus propios espacios de trabajo, ya sea programando software, diseñando servicios digitales, sosteniendo infraestructuras comunitarias o creando alternativas de reparto, muestra que estas experiencias no solo enfrentan al poder corporativo, sino que también disputan la imaginación sobre lo que la tecnología puede ser. Desde la “soberanía digital popular” del Movimiento de Trabajadores Sin Techo en Brasil, hasta la “intercooperación” de la Federación Argentina de Cooperativas de Tecnología (FACTTIC), lo que aparece es un mosaico de alternativas que priorizan la diversidad, el cuidado y la dignidad laboral.

La investigación-acción de WOIP también muestra que pensar en cooperativas tecnológicas no es solo una cuestión organizativa, sino una forma distinta de ubicar la tecnología en nuestras sociedades. Uno de los aportes centrales del informe es la idea de “cuidar antes de programar”. En la práctica, esto significa incorporar principios de cuidado, diversidad e interseccionalidad en el diseño de plataformas y servicios. Cooperativas como FACTTIC en Argentina o colectivos en Brasil han mostrado que es posible organizar el trabajo tecnológico de manera que las decisiones no dependan únicamente de la eficiencia técnica, sino también de la inclusión de voces diversas y de la sostenibilidad de las comunidades involucradas.

Y no es solo el campo tecnológico. Por ejemplo, el libro CAPS LOCK: Cómo se apropió el capitalismo del diseño gráfico y cómo escapar de ello de Ruben Pater y Manuel Moreno nos recuerda que existen colectivos de diseño en distintas partes del mundo que han desafiado durante años las lógicas de competencia y explotación en su práctica profesional. Experiencias como Brave New Alps (Italia), Common Knowledge (Reino Unido), Cooperativa de Diseño (Argentina), Mídia NINJA (Brasil), Open Source Publishing (Bélgica) o The Public (Canadá) muestran que es posible sostener prácticas gráficas y culturales desde principios anticapitalistas. Sus trayectorias ofrecen aprendizajes útiles para entender las posibilidades, junto con los desafíos y obstáculos concretos que enfrentan quienes buscan cambiar la forma en que trabajamos y creamos.

La campaña internacional Hire a Coop, que comenzó animando a las universidades a contratar cooperativas para llevar a cabo servicios de desarrollo y diseño, va en la misma línea: visibilizar que existe un mundo alternativo al de Silicon Valley, un mundo donde la contratación de servicios tecnológicos puede ser un acto de justicia, una forma de redistribución y una apuesta por modelos más democráticos de innovación.

Por ello, vemos en esas experiencias y campañas un recordatorio potente: disputar el modelo de las grandes tecnológicas es regular o criticar sus excesos, y también huir de sus tentáculos y explorar y visibilizar las prácticas que ya existen en la región y el mundo. Cooperativas, colectivos y comunidades digitales están demostrando que es posible producir tecnología desde otros valores, y nuestro rol también es acompañar, amplificar y aprender de esas iniciativas.

Nuestra experiencia: prácticas que buscan coherencia

En Derechos Digitales también hemos intentado recorrer este camino. Cuando llegó el momento de crear nuestro nuevo sitio web, elegimos trabajar con el Maizal, una cooperativa de Argentina que no solo entendió nuestros criterios de privacidad y seguridad, sino que se relacionó con nosotras desde la horizontalidad y el respeto mutuo. No fue una elección meramente técnica, sino parte de un compromiso por alinear lo que defendemos en nuestra comunicación con la manera en que producimos esa comunicación.

Esta decisión se suma a otras que forman parte de nuestra práctica institucional, como optar crecientemente por software libre, mantener nuestra agencia en las comunicaciones internas, y resguardar el control sobre nuestra información y programas. Son pasos que buscan coherencia entre discurso y práctica. Y sabemos que es un camino aún en construcción, donde seguiremos aprendiendo, corrigiendo y equivocándonos.

Pero creemos que esa es la clave: atreverse a ensayar, a equivocarse y a volver a intentar. Porque disputar las narrativas sobre el futuro tecnológico no se hace solo con palabras, sino también con prácticas concretas, con elecciones cotidianas que nos recuerdan que otra tecnología es posible y que podemos demostrar a otras que no estarán solas en la exploración de ese camino. Y esa otra tecnología empieza también en cómo decidimos trabajar juntas, cómo elegimos organizarnos y cómo construimos, en colectivo, un futuro más justo.

Infancias en línea: riesgos, regulaciones y desafíos para América Latina

En 2017, el Fondo de las Naciones Unidas para la Infancia (UNICEF) publicó la estimación de que 1 de cada 3 usuarios de internet en todo el mundo era niño, niña o adolescente. A pesar de que aún existen muchos jóvenes que no tienen un acceso significativo a internet – y de que esto constituye un problema de orden primario -, es posible que hoy, casi una década después, la proporción de personas con menos de 18 años en entornos digitales sea aún mayor. En la realidad latinoamericana, estadísticas de países como Brasil, Argentina y México muestran que niños, niñas y adolescentes no solo pasan cada vez más tiempo conectados, sino que también comienzan a acceder a internet a edades cada vez más tempranas.

El punto sobre el cual UNICEF venía alertando al menos desde 2017 es que la infraestructura y las aplicaciones de internet, en esencia, no fueron diseñadas para este público, ni evolucionaron considerando la etapa de desarrollo físico, cognitivo y psicosocial que atraviesan niños, niñas y adolescentes. A esto se suma la lógica de explotación comercial sobre la cual opera internet desde hace años, muy distante de aquella idea inicial de un espacio libre, abierto y creativo. Estos factores exponen a los más jóvenes a una serie de riesgos online, considerablemente más graves que para los usuarios adultos.

En los últimos meses, la discusión sobre estos temas se intensificó. En el Reino Unido entró en vigor un paquete de medidas regulatorias que coloca en el centro la protección infantil en línea. En Brasil, el debate ganó aún más visibilidad tras una denuncia sobre la “adultización” e hipersexualización de niños y adolescentes en entornos digitales. Ambos episodios muestran cómo la agenda de protección en internet se consolidó como un tema urgente en todo el mundo. Sin embargo, es importante reflexionarlo desde una perspectiva localizada desde el contexto latinoamericano.

Niños y adolescentes están, de hecho, en riesgo en internet

La OCDE clasifica los riesgos a los que están expuestos niños, niñas y adolescentes en internet en cuatro categorías – las “4 C’s”. La primera son los riesgos de exposición a contenido inadecuado, como materiales nocivos, discursos de odio, desinformación u otros contenidos ilegales. Aquí entra, por ejemplo, la exposición a la pornografía, con consecuencias que van desde la erotización precoz hasta el estímulo a la violencia y la reproducción de estigmas de género. También entra el acceso a juegos de azar, un problema creciente en América Latina.

La segunda categoría son los riesgos de conducta, que abarcan aquellos creados por las propias interacciones de los niños en entornos digitales. Pueden manifestarse en comportamientos odiosos o nocivos, como el ciberacoso o la automutilación, muchas veces incentivados por el diseño de las plataformas y la viralización de ciertos contenidos. A comienzos de 2025, por ejemplo, una niña de 8 años murió en Brasil tras inhalar desodorante en aerosol en un reto de TikTok.

El tercer grupo son los riesgos de contacto, cuando niños y adolescentes son expuestos a interacciones dañinas o criminales con terceros adultos. Estos encuentros pueden ir desde situaciones de acoso hasta casos de explotación sexual infantil. Recientemente, en Estados Unidos, la fiscalía de Lousiana demandó a la plataforma de juegos Roblox, muy popular entre el público infantil, por no implementar mecanismos básicos de seguridad, lo que habría permitido que pedófilos se hicieran pasar por niños y entablaran interacciones malintencionadas a través del chat.

La cuarta dimensión son los riesgos de consumo, ligados al perfilado comercial y la inducción de gastos, parte estructural del modelo de negocio de las grandes plataformas digitales. Niños y adolescentes, en proceso de desarrollo, carecen hasta cierta edad de herramientas para distinguir publicidad de contenido orgánico. Incluso siendo ya un poco más viejos, no cuentan con recursos suficientes para lidiar con las presiones comerciales. Las prácticas de perfilamiento, como ya denunciaron distintos whistleblowers, han sido utilizadas por plataformas para aprovechar la vulnerabilidad emocional de adolescentes (sobre todo niñas). Entre sus prácticas está la promoción de contenidos que estimulan distorsiones corporales para mantenerlas enganchadas, aun con pleno conocimiento de sus efectos nocivos en la salud mental.

La OCDE señala, además, que existen riesgos transversales, como la pérdida de privacidad, la salud física y mental y los derivados de tecnologías digitales avanzadas o biométricas. Temas como el sharenting, los sesgos de los sistemas de inteligencia artificial y los impactos del uso excesivo de redes sociales en el sedentarismo juvenil entran en esta categoría. Casos recientes publicados en la prensa, como la denuncia de las ganancias de YouTube con contenidos abusivos sobre niños, muestran cómo estas dimensiones se combinan y retroalimentan.

Es esencial reconocer estos riesgos, así como el hecho de que pueden afectar de manera trágica el desarrollo de una persona en formación. También es importante destacar que no recaen de forma homogénea: estudios comparativos señalan que las plataformas aplican reglas más laxas en países del Sur Global. En América Latina, niños indígenas y afrodescendientes tienen menos acceso tanto a internet como a educación formal, incluida la educación digital. Además, en un contexto en el que las plataformas digitales lucran con la vulneración de derechos, la carga del cuidado recae de forma desproporcionada en las familias y, especialmente, en las madres. En una región con altas tasas de maternidad en solitario y bajos niveles de alfabetización digital, muchas mujeres no cuentan con el tiempo ni con las herramientas necesarias para acompañar la navegación segura de sus hijos, lo que los vuelve aún más vulnerables.

 La respuesta regulatoria

No es en vano que, sobre todo en los últimos cinco años, este tema comenzó a recibir creciente atención de reguladores en todo el mundo. En 2020, el Comité de los Derechos del Niño de la ONU redactó la versión final de su Observación General 25 relativa a los derechos de los niños en relación con el entorno digital, aprobándola a comienzos de 2021. El documento representó un hito en el derecho internacional de los derechos humanos, al interpretar la Convención sobre los Derechos del Niño de 1989 a la luz de los avances tecnológicos, reafirmando que todos los derechos de niños, niñas y adolescentes se extienden también al entorno digital. Conviene recordar que la Convención de 1989 es el tratado internacional más ratificado del mundo, y que instauró la doctrina de la protección integral, reconociendo a todas las personas con menos de 18 años como sujetos de derechos, con autonomía progresiva para su ejercicio, y, por lo tanto, debiendo ser promovidos y protegidos en todos los espacios.

2021 también marcó la aprobación del Age Appropriate Design Code por el ICO del Reino Unido, que estableció estándares de diseño para productos y servicios digitales destinados o con alta probabilidad de ser utilizados por niños y adolescentes. La iniciativa inspiró en los años siguientes diversas medidas por parte de autoridades de protección de datos, especialmente en Europa, como en Suecia e Irlanda. El Digital Services Act (DSA), aprobado en 2023 en la Unión Europea, también tiene reglas específicas para el grupo, señalando el principio de su mejor interés para el desarrollo de servicios digitales y reglas diferenciadas para el tratamiento de sus datos.

En 2024, Australia aprobó una ley inédita que prohíbe el acceso de personas con menos de 16 años a redes sociales y la Unión Africana adoptó directrices para la protección en línea de niños, niñas y adolescentes. La discusión también ganó fuerza en los Estados Unidos, donde ya recibió media sanción el Kids Online Safety Act (KOSA), aunque bajo apoyo desde argumentos problemáticos de políticos conservadores, como la protección de niños a “contenidos LGBT”. En 2025, nuevamente el Reino Unido, esta vez a través de la Ofcom, publicó una serie de directrices condensadas en los ya mencionados Protection of Children Codes and Guidance.

Estas iniciativas también resonaron en América Latina. En julio de 2025, Colombia aprobó la Ley 2489, “por medio de la cual se establecen disposiciones para el desarrollo de entornos digitales sanos y seguros para los niños, niñas y adolescentes del país”. En Brasil, desde 2022 se debate en el Congreso Nacional el Proyecto de Ley nº 2628,  que también establece reglas específicas para la protección de los más jóvenes en internet. El texto fue aprobado en el Senado a finales de 2024 y recién aprobado también en la Cámara de los Diputados, en agosto de 2025. Ahora vuelve al Senado para aprobación final, incluyendo dispositivos como la prohibición del uso de datos de personas con menos de 18 años para publicidad comportamental, además de previsiones sobre supervisión parental, vedación de acceso a contenidos dañinos y rendición de cuentas por parte de las aplicaciones digitales. Su tramitación recobró fuerza en agosto de este año, tras la referida denuncia del influencer Felca digital sobre la adultización e hipersexualización de niños y adolescentes en internet.

Un punto común de estas iniciativas regulatorias es establecer reglas diferenciadas para el uso de entornos digitales por parte de niños y adolescentes, ya sea en relación con los contenidos a los que pueden (o no) acceder, o en relación con prácticas de diseño y extracción de datos. Para que esa diferenciación ocurra en la práctica, gobiernos y empresas que proveen servicios digitales señalan que es necesario poder identificar quiénes son las personas con menos de 18 años en internet. En este contexto, aun cuando no aparezcan de forma explícita en todas las normativas recientes, la implementación de mecanismos de verificación de edad ha pasado a ser considerada una puerta de entrada esencial para la defensa de la infancia.

Informes de autoridades y análisis recientes hablan de una “ola global” de sistemas de verificación de edad en toda internet, donde la protección de la infancia se presenta como justificación para extender controles de identidad a todos los usuarios, incluso en aplicaciones que no son consideradas de alto riesgo. Esta tendencia recuerda al debate de la última década que oponía la defensa de la criptografía fuerte al combate contra la circulación de material de abuso sexual infantil, dividiendo en grupos opuestos, de manera simplista, a defensores de la privacidad y defensores de la infancia.

Más allá de soluciones fáciles

Esa falsa oposición plantea trampas que empobrecen el debate y dificultan la búsqueda de soluciones. Tiene, al menos, dos problemas centrales. El primero es no reconocer que niños y adolescentes, como sujetos de derechos, también tienen derecho a la privacidad y deben poder ejercerlo en el marco de su autonomía progresiva. Si pensamos en quienes viven en contextos familiares o comunitarios represivos, buscando información sobre su sexualidad o identidad de género, por ejemplo, este derecho se vuelve aún más importante.

Extender mecanismos de verificación de edad de manera indiscriminada altera la estructura de internet y puede afectar también a las propias infancias. No se trata de sacrificar las características fundamentales de la red como el acceso abierto y el anonimato relativo en nombre de su protección, porque ellas también se benefician de estas condiciones. El desafío es matizar el debate y reconocer las tensiones en juego, incluyendo en las discusiones regulatorias también agentes técnicos que puedan apoyar a desarrollar estos matices.

El segundo problema es desconsiderar que las tecnologías operan dentro de entramados sociotécnicos complejos. Así como no son, de manera aislada, la raíz de los riesgos que enfrentan niños y adolescentes, tampoco serán, de manera aislada, la solución.

Debemos discutir seriamente temas como la cultura de la violación y la ausencia de educación sexual en las escuelas, y cómo estas problemáticas atraviesan desigualdades de género y raza. En América Latina, entre 2018 y 2022, casi 490.000 niñas con menos de 18 años fueron víctimas de delitos contra su dignidad sexual, un dato que evidencia la urgencia de ese debate. Además, es necesario debatir el modelo económico que sostiene internet: el capitalismo de vigilancia. Un sistema nocivo para todos los usuarios, pero que impacta de manera particularmente severa a niños, niñas y adolescentes.

Estamos en un potencial punto de inflexión en la forma en que se estructura la internet y circulan sus usuarios. El debate sobre la protección de las infancias es indispensable, pero no puede reducirse a fórmulas simplistas ni a la falsa oposición entre privacidad y seguridad. América Latina no debe importar soluciones regulatorias prefabricadas sin crítica, sino comprometerse en un proyecto político y social que coloque a niños, niñas y adolescentes en toda su diversidad en el centro de un futuro digital verdaderamente justo.

La reforma laboral de Colombia y el trabajo por plataformas digitales: ecos de luchas previas y desafíos que persisten

Al igual que en la región y el mundo, el trabajo mediado por plataformas digitales se ha expandido aceleradamente en Colombia. Aspectos estructurales como las altas y persistentes tasas de desempleo e informalidad en el país, sumado a los flujos migratorios, han propiciado el crecimiento de esta modalidad de trabajo que, por demás, promete ficciones como el trabajo por cuenta propia y la diversificación de ingresos, que contrastan con realidades distintas en la práctica.

Tras más de una década de operación en el país de compañías tecnológicas que ofrecen servicios como transporte privado -Uber, Cabify, Didi-, reparto y mensajería -Rappi, Didi Food- e incluso servicios domésticos y de cuidado -Hogaru, AseoYa, AUX-, en junio del año en curso se aprobó una reforma laboral que extiende medidas para promover la formalización del trabajo del sector de plataformas digitales de reparto en específico. En ese contexto, es importante resaltar que esta reforma responde a años de organización sindical y lucha colectiva por parte de las personas repartidoras, quienes, a través de mesas de negociación con el gobierno y la principal plataforma de reparto en Colombia- Rappi- construyeron la antesala de las medidas que contempla la reforma actual.

Ahora bien, conforme analizaremos a lo largo de esta columna, aunque algunas demandas de este sector fueron abordadas en la normativa,  disposiciones muy relevantes relativas a la transparencia algorítmica y protección de datos, requieren de mayor profundidad considerando su influencia determinante en el ejercicio del derecho al trabajo mediante plataformas.

Las luchas del colectivo de repartidores de plataformas como piedra angular de la reforma

Los estudios de sociología destacan el rol clave de los movimientos sindicales en los procesos de reconfiguración del rumbo de las políticas estatales y empresariales. Si bien no es el único caso en el país, en esta columna nos concentraremos en la organización sindical de repartidores, un movimiento atravesado por una alta precariedad y marcado por eufemismos corporativos que encubren la condición laboral bajo etiquetas como “usuarios” o “socios”. En este contexto, las personas repartidoras carecen de garantías mínimas de protección laboral y seguridad social, de salarios dignos y de mecanismos de réplica o de debido proceso frente a decisiones tomadas por un algoritmo.

Esta situación se agrava si consideramos que, aunque el trabajo mediado por plataformas se concibió inicialmente como una fuente extra de ingresos en el tiempo libre, terminó por convertirse en la fuente principal de sustento económico de más de 600 mil personas. En ese sentido, es importante mencionar que según investigaciones sobre el tema en el país,  la fuerza laboral migrante forma una gran parte de este sector, experimentando riesgos y exclusiones diferenciadas.

Tales retos, reconocidos en varios informes de la Organización Mundial del Trabajo (OIT), han dado lugar a  múltiples iniciativas de organización colectiva que, desde 2020, han demandado la garantía de derechos laborales mínimos. Entre sus principales demandas se encuentran: el reconocimiento de una relación laboral; el pago de los aportes a salud, pensión y riesgos laborales; el reconocimiento y la garantía del derecho a la asociación colectiva; la adecuación de espacios públicos para la espera de pedidos- dada la constante exposición al sol y a la lluvia- y la transparencia algorítmica, que implica clarificar los criterios y posibles sesgos que alimentan los algoritmos, especialmente frente al bloqueo de las cuentas y las medidas de supervisión en el proceso de recogida y entrega de paquetes. La reforma tomó en cuenta algunos de los puntos de este pliego de peticiones, respondiendo – al menos en parte- a las demandas históricas de la organización sindical.  

Considerando estos antecedentes, ¿qué demandas del colectivo de trabajadores fueron incluidas en la ley de reforma laboral, y qué desafíos y zonas grises persisten?

Los logros de la reforma laboral

La reforma se nutrió de un proceso participativo que incluyó al gobierno, las plataformas digitales agrupadas en el gremio Alianza In, los sindicatos de trabajadores de plataformas de reparto Unidapp y Asdiapp, así como a la academia y la sociedad civil. El resultado se plasmó en 7 artículos, que siguen ciertas tendencias de un impulso global y regional por regular el trabajo mediante plataformas. Entre los avances más relevantes se encuentran: el reconocimiento de una relación laboral entre las plataformas y las personas repartidoras bajo dos modalidades – dependiente o autónoma-, la obligación de establecer contratos acordes y garantizar la afiliación al sistema de seguridad social, con esquemas de aportes según la modalidad de relación laboral. Además, la reforma establece mecanismos de transparencia sobre la utilización de sistemas automatizados; incluyendo la supervisión humana de las decisiones automatizadas y la claridad en el tratamiento de los datos de las personas trabajadoras.  

A la luz de las demandas de las organizaciones sindicales, la aprobación de la reforma laboral representa un avance en la lucha contra la precariedad y la elevada informalidad que ha caracterizado al trabajo de reparto por plataformas digitales en Colombia. Para el presidente de la organización sindical Unidapp, este paso supone ganar “una batalla muy importante” al incorporar, por primera vez, un  reconocimiento mínimo de la seguridad social, uno de sus reclamos históricos. Sin embargo, considerando que las plataformas digitales de trabajo, como entornos digitales que median la prestación de servicios, se apoyan de forma sustancial en decisiones algorítmicas y en el tratamiento de datos personales -incluyendo las decisiones sobre bloqueo de cuentas-  estos aspectos permanecen como puntos críticos que la reforma no abordó con la profundidad necesaria y que requieren una lectura desde los derechos humanos.

La caja negra del algoritmo y la necesidad de una política de gestión algorítmica integral

En resonancia con las discusiones respecto al trabajo decente en plataformas abordadas en la 113a Conferencia Internacional del Trabajo (CIT), y con iniciativas legislativas en países como México, Chile y Uruguay,  la reforma laboral colombiana incorpora dos artículos breves dedicados a la transparencia en el uso de sistemas automatizados que inciden en la toma de decisiones y la supervisión sobre el trabajo de las personas repartidoras. Estas disposiciones se centran en el deber de informar a las personas trabajadoras sobre los sistemas empleados por ejemplo para la asignación de pedidos o la suspensión de cuentas, mediante un documento conciso, transparente, inteligible y fácilmente accesible. Así mismo, se establece la necesidad de la supervisión humana de las decisiones automatizadas que afectan las condiciones laborales, incluyendo al evaluación constante de su impacto.

Si bien estas medidas representan un paso hacia el cumplimiento del principio de “explicabilidad” – fundamental para garantizar que las personas trabajadoras puedan impugnar decisiones tomadas de forma automatizada, persisten interrogantes sobre aspectos claves, como si esta información se entregará antes de la implementación de los algoritmos, si habrá un plazo entre la notificación y el despliegue de los sistemas, con qué periodicidad se evaluará su impacto; cuánto demorará la revisión humana prevista y cuáles serían los mecanismos para acceder a esta.

Según la asociación sindical referida, en las plataformas de reparto en Colombia los algoritmos se utilizan principalmente para decidir respecto a bloqueos y suspensiones de cuentas. Aún después de las negociaciones con plataformas como Rappi -antecedentes de las medidas de transparencia que contempla la reforma-  persiste la falta de claridad sobre todas las causales posibles de bloqueos que aplican las plataformas. Informar sobre la existencia -ya conocida- de algoritmos para la gestión del trabajo es un paso relevante, pero no suficiente para abordar la complejidad de la transparencia algorítmica como dimensión del derecho a la información y como base para la auditoría y el control democrático de las plataformas. Conforme a las orientaciones internacionales,  se requiere avanzar hacia una política de gestión algorítmica integral, interseccional y basada en el principio de no discriminación, que especifique qué datos se utilizan y con qué criterios, y que reduzca los sesgos que inciden en las condiciones de trabajo.

Por otra parte, la supervisión humana prevista en la reforma no considera las barreras que actualmente enfrentan las personas repartidoras para apelar las decisiones automatizadas. Según el sindicato referido, hoy este proceso solo ocurre como tercer paso después de un bloqueo y para acceder a éste es necesario interponer un derecho de petición o una acción de tutela. En la práctica, si un cliente presenta una queja, el algoritmo puede sancionar de forma automática a la persona repartidora sin garantizar un debido proceso. Aunque la reforma incorpora la posibilidad de una revisión humana tras una decisión automatizada, no detalla los procedimientos que deberán seguir las personas trabajadoras, ni los mecanismos a utilizar, los cuales, en la actualidad demandan tiempo, recursos y conocimientos que resultan incompatibles con las  necesidades de este grupo para quienes un día sin trabajar impacta de forma considerable su mínimo vital.

El lugar de los datos personales.

La reforma laboral incorpora algunas disposiciones relevantes sobre el tratamiento de los datos personales de las personas trabajadoras. En primer lugar, establece que las finalidades de dicho tratamiento por parte de las plataformas deben presentarse de forma clara, sencilla y transparente, contar con la autorización previa de las personas trabajadoras y respetar el derecho de hábeas data. Esta medida es clave para el sindicato Unidapp ya que, sostienen que aunque existe conocimiento sobre los datos recopilados por las plataformas, persiste la falta de claridad respecto a los usos concretos que se les da, lo que refuerza la necesidad de mayor transparencia en este ámbito.

Si bien Colombia cuenta con la ley de protección de datos (Ley 1581 de 2012), que ampara el derecho constitucional que tienen todas las personas a conocer, actualizar y rectificar las informaciones que se hayan recogido sobre ellas en bases de datos, no contiene disposiciones propias sobre el tratamiento de datos por parte de sistemas automatizados que aplican al caso del trabajo por plataformas digitales, un aspecto que será contemplado en la reforma recientemente anunciada por el gobierno actual a dicha ley.

En segundo lugar, la reforma incorpora la creación de un mecanismo “de reconocimiento de identidad plena que permita individualizar al trabajador digital en servicios de reparto” conforme al derecho de hábeas data. Sin embargo, el texto no precisa qué datos se utilizarán para esta verificación, lo cual abre interrogantes sobre aspectos relevantes como dónde se almacenará la información; si se incluirán datos sensibles, como los biométricos; bajo qué criterios de protección operará el mecanismo y si se prevén riesgos identificados en estudios previos, como la posible instrumentalización de estos datos para prácticas de vigilancia por parte de las plataformas.

Los desafíos de la reforma más allá del trabajo de reparto

En su estado actual la reforma laboral sólo contempló a trabajadores de plataformas digitales de reparto pero, no quedan claros los criterios que justifican la exclusión de sectores como el transporte privado – con más de 1 millón de conductores registrados -, el trabajo doméstico – intermediado por más de 5 aplicaciones digitales en el momento –, o las plataformas webcam – un segmento del trabajo por plataformas altamente expuesto a violaciones laborales y explotación sexual. Estos son sectores que también se encuentran en situaciones de vulnerabilidad, expuestos a decisiones algorítmicas opacas y a la falta de claridad en torno al uso de sus datos personales.

A lo largo de esta columna se han señalado aspectos que requieren revisión en la etapa de reglamentación e implementación de la reforma laboral, con la participación significativa de la sociedad civil y de organizaciones de personas trabajadoras. Eventuales avances hacia convenios internacionales vinculantes, que parten de las discusiones promovidas en el ámbito de la OIT, podrían tener un rol crucial para fomentar la cooperación e intercambio a nivel regional, nutriendo la experiencia colombiana y ofreciendo una oportunidad para cerrar brechas y avanzar hacia un trabajo en plataformas con garantías mínimas comunes en América Latina , que se extiendan a todos los sectores y servicios. Estas garantías deben de requerir a las compañías tecnológicas a implementar sistemas algorítmicos transparentes, que aseguren en todo momento la privacidad y protección de datos de las personas trabajadoras, en cumplimiento con  estándares y orientaciones internacionales, así como con la legislación nacional vigente.

América Latina ante la presión comercial estadounidense: impactos y perspectivas para una agenda de desarrollo anclada en Derechos Humanos

Son poco más de seis meses desde la asunción de Donald Trump a la presidencia de EE. UU., marcada por la presencia destacada de los CEOs de las empresas de tecnología más importantes del mundo flanqueando al mandatario. Desde entonces, hubo anuncios y señales confusas relacionadas con su política internacional y tecnológica.  

En la arena multilateral, habiendo abandonado programas enfocados en la promoción de su agenda de “libertad en internet” que privilegiaba la desregulación del sector, la diplomacia estadounidense ha renunciado también a compromisos antiguos en materia de gobernanza de internet y ha bloqueado consensos históricos relacionados a la aplicación de los Derechos Humanos en las tecnologías. Por otro lado, el gobierno de Trump ha incorporado de manera directa a su estrategia de comercio el discurso de las Big Tech, según el cual cualquier intento de limitar su dominio monopólico representaría una “barrera no arancelaria” y, como tal, una amenaza a los intereses nacionales de EE. UU.

La actual política de comercio estadounidense consolida una tendencia de creciente abandono de la negociación multilateral en el ámbito de la Organización Mundial del Comercio (OMC). Con eso, Trump se ahorra la necesidad de convencer a un conjunto de países (cada vez más conscientes de la relevancia de la agenda digital para el desarrollo económico) de sostener anticuadas limitaciones a la imposición de impuestos aduaneros al comercio electrónico, entre otras.

En el caso latinoamericano, episodios como la imposición de tarifas a México –seguida de sucesivas negociaciones a cambio del fin de “barreras comerciales no arancelarias”–  y la discusión pública con el presidente colombiano que adelantó la amenaza de imposición de nuevas tarifas luego revisadas tras un acuerdo entre los países, dieron la tónica de las nuevas reglas del juego. Ambos casos ponen de manifiesto acuerdos y concesiones poco transparentes que pueden resultar en graves impactos a los Derechos Humanos de sus poblaciones.

La nueva cara de una vieja estrategia

El contexto actual está marcado por altos niveles de inestabilidad y una muy evidente intención de favorecer intereses propios con pocos beneficios para la región. Al recorte de políticas de cooperación internacional que afectan directamente a la población latinoamericana, se suman amenazas de intervención directa que hace mucho no se veían a la luz del día. Sin embargo, el uso de políticas de comercio para presionar a los países en la adopción de medidas que beneficien la industria tecnológica estadounidense está lejos de ser algo nuevo.

El Reporte “Special 301”, producido por la Oficina del Representante Comercial de EE. UU. (USTR, por la sigla en inglés) y muy conocido en el activismo por derechos digitales, ha sido una de las principales formas de presión aplicada a los países de la región. El documento genera un listado de países que supuestamente fallan en proteger derechos de propiedad intelectual de empresas estadounidenses.

Ya en la primera versión del documento, publicada en 1989 luego de la reforma que incorporó su figura, Argentina, Chile, Colombia y Venezuela aparecían en una “lista de atención” por sostener prácticas consideradas “preocupantes” en materia de propiedad intelectual. Brasil y México, por su parte, eran listados como países cuyas prácticas merecían “atención especial”, pero que –según el documento– no serían investigados por tener progresos en negociaciones bilaterales o multilaterales recientes. Entre 2005 y 2018, Argentina, Bolivia, Brasil, Chile, Colombia, Costa Rica, Ecuador, Guatemala, México, Paraguay, Perú y Venezuela han sido listados en el reporte, sea como países de “atención” o de “atención prioritaria”. La mayoría sigue presente en los listados de la edición 2025 del informe. Uruguay fue incluido en el reporte de 2005 y luego dejó de figurar en la lista.

El título del documento hace referencia a la llamada “Sección 301” de la legislación comercial estadounidense de 1974, que permite la investigación unilateral de prácticas comerciales consideradas perjudiciales a los intereses de EE. UU. por parte del USTR, y la adopción de medidas coercitivas para presionar a países en relación a la apertura de sus mercados. Las investigaciones basadas en la Sección 301 pueden ser iniciadas tanto por iniciativa propia del USTR, como a partir de solicitudes del sector privado.

El contexto de aprobación de la Sección 301 nos hace recordar al escenario regional actual. Según el exdiplomático brasileño Regis Aslanian, el mecanismo plasma una política de “autoritarismo comercial” adoptada por EE. UU. en un período en el que su economía se enfrentaba a riesgos de pérdida de su hegemonía. Él cuenta que, en aquella época, Brasil buscaba consolidar una industria nacional y pasó por investigaciones derivadas de la Sección 301 en 1985 y 1987 por supuestas barreras al comercio e inversiones estadounidenses en sectores que incluían el farmacéutico y el tecnológico. El hito ejemplifica en parte cómo se construyeron las relaciones de dependencia tecnológica que persisten hasta el día de hoy en los países del Sur Global.

La investigación más reciente abierta contra Brasil en el marco de la Sección 301 demuestra que el instrumento aún es relevante para ofrecer un aire de legalidad a la imposición de sanciones arbitrarias contra países. Sin embargo, no fue necesario para el gobierno de Trump esperar el resultado de esas averiguaciones para empezar a penalizar a Brasil: la comunicación sobre la imposición de tarifas del 50% a los productos brasileños incluyó la indicación de apertura de la investigación, que ocurrió días después y sigue sin conclusión.

Ya con relación al “Special 301”, su foco ha estado en el intento de presionar hacia la adopción de medidas de criminalización de la “piratería”, así como otros mecanismos que impidan su circulación, como la imposición de trabas tecnológicas, la obligación de entrega de información por parte de proveedores de internet, entre otras muy bien ejemplificadas en los capítulos latinoamericanos de su última versión. Este tipo de medidas ha sido fuertemente impulsado por el lobby de empresas de producción de contenidos a lo largo de las últimas décadas. Sin embargo, en el escenario actual, se mezclan con la presión contraria por la desregulación: la bandera de moda del lobby tecnológico estadounidense, como se ve en el caso de la investigación contra Brasil.

Un juego con pocos vencedores

El tipo de presión impuesta a la soberanía de los Estados latinoamericanos pone en evidencia la disparidad de poder en las negociaciones, donde se espera la entrega de concesiones a cambio de la simple manutención del status quo. No se trata de una situación exclusiva para América Latina: en Europa, donde las distintas políticas de regulación de tecnologías han estado en el centro de la disputa, el resultado de las negociaciones fue poco explícito en las implicaciones para el futuro de las normativas europeas sobre el tema. Además, una nota oficial de la Casa Blanca incluye entre los acuerdos el fin de las discusiones europeas sobre la imposición de impuestos a grandes plataformas digitales (las llamadas network fees), la intención de revisar “barreras no justificadas al comercio digital” y un acuerdo por mantener en cero los aranceles aduaneros para transmisiones electrónicas. 

Sin embargo, algunos países se encuentran en mejor posición para negociar. El caso de Brasil es un ejemplo de ello, pero también de una situación en que una de las exigencias impuestas no deja otra opción: la imposición de tarifas del 50% vino acompañada de una demanda de intervención en la autonomía del Poder Judicial, imposible de ser atendida por cualquier gobierno mínimamente comprometido con la democracia. La ventaja del país es que su comercio internacional es relativamente independiente de EE. UU., solamente 12% de su Producto Interno Bruto depende de ello. Aún así, el impacto de las tarifas vigentes desde el 6 de agosto es significativo para algunos sectores económicos, lo que mantiene al gobierno interesado en sentarse a la mesa de negociaciones, incluso para discutir medidas relacionadas al sector tecnológico.

Aunque aparezca de manera más sutil en la primera comunicación de Trump, donde se hablaba de “ataques continuos a las actividades comerciales digitales de empresas estadounidenses”, la presión sobre la posición de Brasil en relación a la regulación de tecnologías se encuentra visible en la investigación abierta en el marco de la Sección 301.

Ambas acciones ocurren luego de que la Suprema Corte del país concluyera, en un antiguo caso, que la medida que limita la responsabilidad de intermediarios de internet por la distribución de contenidos de terceros en el Marco Civil de Internet es parcialmente inconstitucional. La decisión busca establecer un régimen de responsabilidad diferenciado, pero genera un ambiente de mayor inseguridad jurídica para las empresas. Entre las demandas de las corporaciones tecnológicas se encuentran la revisión de tal decisión, por un lado, y la oferta de beneficios fiscales para la instalación de sus centros de datos en el país, por el otro.

Entre la resistencia y la construcción de alternativas

El impacto dañino de la política exterior de Trump es visible, y así seguirá siendo por muchos años más. En el caso de América Latina, tiene el potencial de comprometer la sostenibilidad de economías ya frágiles, y dejar desprotegidos a los sectores sociales que más apoyo necesitan. Eso sin hablar del posible retraso en materia de desarrollo, fundamental para superar las desigualdades persistentes, tanto a nivel local como global. El potencial de China en suplir el vacío dejado por EE.UU. en relación a inversiones y generación de riqueza es, seguramente, un aliento para los gobiernos de la región. El país viene buscando proyectar su poder también en espacios multilaterales desprestigiados por la diplomacia estadounidense, aunque persisten las dudas sobre su efectivo compromiso con una agenda de Derechos Humanos.

Confiar únicamente en un giro hacia China como fuerza capaz de reequilibrar las relaciones internacionales parece ser un equívoco. Es fundamental que los países de la región logren aprovechar la oportunidad sin replicar un nuevo modelo de dependencia. Si bien la urgencia puede exigir contrapesos económicos y de desarrollo, si el apoyo internacional, sea de China o Europa, no viene acompañado de un compromiso real en la defensa de derechos, estaríamos sólo cambiando de explotadores.

En ese sentido, el fortalecimiento de la agenda tecnológica en agrupaciones como el G20 y los BRICS puede representar una oportunidad para  sostener compromisos ya existentes con la justicia y los Derechos Humanos, incluso en su relación con las tecnologías. La reciente declaración de líderes de los BRICS sobre inteligencia artificial evidencia que aún hay espacio para una perspectiva de desarrollo anclada en la garantía de derechos fundamentales. Resta ver cómo estos compromisos logran efectivizarse en las conversaciones actuales y cómo esos países pueden resistir a la presión de Trump, que parece tenerlos en la mira.

Emergencia climática y centros de datos: el nuevo extractivismo de las Big Tech

El cambio climático es un riesgo existencial, y los Estados deben actuar con decisión. Así lo sostuvo la Corte Interamericana de Derechos Humanos (Corte IDH) en una reciente Opinión Consultiva (OC32), solicitada por Chile y Colombia con el objetivo de que ésta aclarase el alcance de las obligaciones estatales en la lucha contra la crisis climática global.

En un momento muy oportuno, la Corte declaró la existencia de una emergencia climática en la región considerando, por un lado, los efectos de catástrofes ambientales recientes, como los incendios, inundaciones y derrames de petróleo que tuvieron lugar en 2024. Por el otro, el escenario geopolítico que avanza hacia desarrollos tecnológicos -como la Inteligencia Artificial- sin debidas garantías; y facilita la expansión de las Big Tech en América Latina, sin una evaluación adecuada de su huella ecológica, ni salvaguardas en derechos de la ciudadanía. Estas empresas operan bajo lógicas extractivistas que se aprovechan de los recursos energéticos y naturales de la región para sostener sus operaciones -particularmente el entrenamiento de modelos de IA-, muchas veces a costa del equilibrio de ecosistemas frágiles y del bienestar de las comunidades locales.

Tres claves de una Opinión compleja

La Opinión Consultiva es compleja y en su extensión se afirman distintas ideas clave, de las que rescatamos al menos tres.

La primera, la necesidad de considerar responsabilidades diferenciadas en tanto no todos los Estados ni sectores de la economía contribuyen de la misma forma a la emergencia climática. Quienes más contaminan y emiten gases de efecto invernadero (GEI) deben contar con mayores compromisos en los esfuerzos dirigidos a paliar las consecuencias del cambio climático.

En segundo lugar, la interrelación estrecha entre la protección del clima, la naturaleza y el medio ambiente, y TODOSlos Derechos Humanos. Las acciones de los Estados no pueden limitarse a abstenerse de causar daño ambiental, sino que deben ser activas y progresivas en miras a la protección de derechos fundamentales.

Y en tercer lugar, la obligación estatal de regular las operaciones de las empresas que contaminan para, por un lado, obligar a que adopten medidas efectivas para mitigar el impacto de su cadena de valor en el cambio climático, y aborden sus impactos en los Derechos Humanos. Y, por otro lado, para exigir que divulguen de forma accesible las emisiones de gases de efecto invernadero de su actividad empresarial.

Los centros de datos en América Latina: las crisis por venir

Estas obligaciones deben extenderse también a las políticas digitales. Se sabe que, para que la IA siga creciendo, se necesita una base física: los centros de datos. Estos funcionan sin pausa, día y noche, y consumen enormes cantidades de electricidad, agua y aire. El agua sirve para enfriar los servidores, la electricidad mantiene todo en marcha y alimenta los sistemas de enfriamiento, y el aire ayuda a disipar el calor como recurso alternativo. No es casual que las Big Tech vean en América Latina una fuente para la explotación de esos recursos a bajo costo económico y regulatorio.

Sin embargo, las consecuencias ambientales y sociales de esta actividad son preocupantes. El agua utilizada en estos procesos ya no puede destinarse al consumo humano. La elevada demanda energética puede tensionar infraestructuras ya frágiles, poniendo en riesgo el suministro básico para la población. Además, el uso intensivo de electricidad puede derivar en mayores emisiones de carbono, afectando la calidad del aire. Se estima que para 2030 los centros de datos estarán entre las industrias más contaminantes del planeta.

Varios países han aceptado la instalación de los mismos bajo promesas que no son del todo claras. Como la de la soberanía digital, un tanto abstracta al tratarse de infraestructuras privadas para sostener sistemas de IA propios; o la promesa de generación de fuentes de empleo, que suelen ser temporales o de baja calidad, insuficientes para justificar el daño ambiental.

En México, por ejemplo, empresas como Amazon, Microsoft y Google buscan instalar centros de datos en el desierto de Querétaro. Allí, la crisis hídrica, agravada por sequías extremas del último año, ha puesto a las comunidades afectadas en una situación crítica. Estas comunidades, que rechazan la idea de estas instalaciones tecnológicas, ya han enfrentado dificultades para acceder al agua frente a su explotación por parte de empresas locales.

En Colombia, la narrativa oficial de avanzar hacia una “nube soberana” ha conducido al país a la firma de acuerdos con Emiratos Árabes Unidos para emplazar centros de datos en Santa Marta. Se trata de una zona del Caribe conocida por tener uno de los más costosos servicios de electricidad del país. Además, el agua que beben las comunidades locales ha sido motivo de advertencia de medios y organizaciones sociales que denuncian su mala calidad y la deficiente cobertura del servicio para el consumo humano.

En Chile, la instalación de estos centros se hace bajo la promesa de la generación de empleos y de inversión en la industria local. Recientemente, Microsoft abrió su centro de datos en la región Metropolitana de Santiago, una zona que sufre una megasequía de más de una década. Y Google está rediseñando el despliegue del suyo, en la Comuna de Cerrillos, luego de que un tribunal ambiental obligase a la empresa a evaluar el impacto hídrico del proyecto en una zona donde el agua es escasa.

Brasil, que junto a México es uno de los mayores emisores de gases de efecto invernadero del mundo, avanza también la acogida de centros de datos. En la población de ElDorado do Sul, afectada en 2024 por una inundación calificada por el Estado como el peor desastre ambiental reciente, se instalará la “Ciudad de la IA”, un complejo masivo de centros de datos que ocupará una de las zonas más privilegiadas de la región por su elevación, lo que la beneficiaría ante futuras inundaciones. También se instalará uno propio de Tik Tok en Ceará, que sufre una sequía extrema, y que se estima que agotará el consumo energético de 2,2 millones de brasileños a diario.

Las Big Tech colonizan nuestros recursos y no rinden cuentas

Las Big Tech operan en la región bajo lógicas coloniales ancladas en la explotación de recursos esenciales. Pese a ello, las respuestas regulatorias, cuando se trata de abordar su impacto ambiental, parecen ampliar los beneficios de los que gozan a cambio de promesas de beneficios futuros poco verificables.

En Brasil, por ejemplo, las autoridades nacionales prometen exenciones de impuestos a los centros de datos. Y la elaboración de la política nacional  sobre la materia, que excluyó de participación al Ministerio de Ambiente, propone eliminar las licencias ambientales para “desburocratizar” su instalación por, supuestamente, no tener impacto ambiental.

Las autoridades a nivel local también avanzan en esa senda. Los Concejales de Rio Grande do Sul, donde se ubicará la “Ciudad de la IA”, aprobaron en 2024 una ley que genera exenciones impositivas y flexibiliza los procesos de licenciamiento ambiental para estos centros. Como agradecimiento, las empresas beneficiarias donaron 110 notebooks repartidas en 13 colegios públicos de la región, un gesto que enmarcaron como “promoción del progreso social”.

En Chile, en el mes de junio de 2025, se habría liberado de la obligación de evaluación de impacto ambiental a las Big Tech que instalasen centros de datos en el país.

Entonces, las legislaciones ambientales se ven enflaquecidas, al tiempo que las de regulación de la IA que avanzan en esos mismos países omiten cualquier abordaje serio sobre la materia. La falta de transparencia sobre su impacto ambiental, y su progresiva proliferación en el futuro cercano supondrían una mayor asfixia a la gestión de recursos críticos de países como los nuestros.

La expectativa de que ese crecimiento es tal que, en declaraciones recientes, Sam Altman, líder de OpenAI, responsable de ChatGPT, no descartó que en un futuro cercano todo el planeta estuviese cubierto de centros de datos.

Mientras tanto, las comunidades directamente afectadas suelen tener poca o ninguna participación en las decisiones políticas que definen el destino de los recursos naturales de los que dependen para vivir. Basta ver el caso de una comunidad en Chile. Vecinos organizados y con acceso limitado al agua enfrentaron el proyecto de instalación de un centro de datos de Google. Ante la presión social, las autoridades autorizaron la operación bajo una modalidad de refrigeración por aire en lugar de agua. Pero el conflicto en verdad no se resolvió, tan solo cambió de forma.

Pese a todo, hay motivos para la esperanza

La Opinión Consultiva OC-32/23 de la Corte IDH representa un hito en la consolidación del enfoque de Derechos Humanos frente a la crisis climática. La Corte no solo reafirma que el cambio climático constituye una amenaza real y presente para el ejercicio pleno de los derechos fundamentales, sino que subraya la obligación de los Estados de actuar con urgencia, ambición y coherencia para mitigar sus efectos y proteger a las poblaciones en situación de vulnerabilidad.

Sin embargo, este pronunciamiento también deja planteada una tarea crucial que aún permanece pendiente: abordar con mayor contundencia el papel del sector privado, y en particular de las grandes corporaciones tecnológicas, en la generación y profundización de esta crisis. La responsabilidad ambiental de las Big Tech no puede seguir diluyéndose bajo el discurso de la innovación sin límites o su autorregulación.

En este contexto, los Estados deben asumir con decisión su papel de reguladores en materia ambiental considerando la declaratoria de emergencia climática de la Corte IDH. Esa función debe ser ejercida teniendo a la Opinión Consultiva como base de la discusión para fortalecer mecanismos de transparencia, auditoría de sus operaciones y participación social frente a proyectos extractivistas, como los de los centros de datos.

Por su parte, hay que advertir que la regulación ambiental y las normas sobre IA no pueden operar como marcos aislados ni contradictorios entre sí: deben integrarse en una visión común, coherente y participativa, orientada a garantizar la sostenibilidad del planeta y la dignidad de todas las personas.

Aunque el panorama parezca retador, también se abren puertas de esperanza. Recientemente, otra Opinión, de la Corte Internacional de Justicia de las Naciones Unidas, también se expresó sobre esta materia y reafirmó cómo, en omisión de sus deberes de regular al sector privado y su impacto ambiental, los Estados pueden llegar a ser demandados por otros Estados, y ser encontrados responsables por su inacción.

La tarea de quienes trabajamos en la sociedad civil, será apropiarnos de estos instrumentos legales para exigir por todas las vías posibles una mayor rendición de cuentas para enfrentar este problema de dimensiones globales que no da espera.

Privacidad en la mensajería: ¿cómo asegurarse de eliminar mensajes ante el riesgo de intrusión?

En la actualidad, más de 3 mil millones de personas usan activamente aplicaciones de mensajería en todo el mundo, y las cifran van en aumento. Si bien existe una gran variedad de alternativas con distintas características y funciones, la mayoría comparte elementos en común. Su popularidad varía geográficamente por regiones y también por países. A continuación, analizamos tres de las más relevantes: Signal, WhatsApp y Telegram.

Antecedentes: de la ausencia de privacidad hacia «alguna» privacidad

Más allá de su popularidad, las preocupaciones con la privacidad de las aplicaciones de mensajería –y las respuestas a tales preocupaciones– se han ido incrementando a lo largo del tiempo. Las revelaciones de Edward Snowden sobre vigilancia masiva son un hito clave en esta breve historia, una vez que ayudaron a popularizar el cifrado y otras medidas de protección como estándar.

En este contexto, y como fusión de los proyectos TextSecure y RedPhone, en 2014 nace Signal. El espíritu de esta nueva herramienta se centraba en proteger la privacidad de las comunicaciones, y en ese esfuerzo introdujeron el esquema de seguridad de cifrado de extremo a extremo. Si bien esta aplicación está delimitada por su uso en pequeños nichos o determinadas regiones del mundo (incluso al día de hoy muchas personas la desconocen), ella fue crucial para la introducción de un sistema de protección similar en WhatsApp, la aplicación de mensajería más popular en América Latina. Ante la creciente demanda por resguardar los intercambios de mensajes, la empresa más pujante del rubro tuvo la necesidad de aplicar un mecanismo de cifrado a la altura de las necesidades para no quedar obsoleta. Por ello, en 2016 WhatsApp integra el protocolo Signal para el cifrado de extremo a extremo por defecto para todas las personas usuarias.

Por su parte, Telegram, creada en 2013, no posee este esquema de cifrado de extremo a extremo por defecto en sus conversaciones, solo lo utiliza para los chats secretos. Esta plataforma aplica por defecto el cifrado entre cliente-servidor, lo que significa que, si bien los mensajes viajan cifrados, pueden ser legibles por la empresa o quien tenga acceso a sus servidores. En este sentido, el uso de canales comunes en Telegram es desaconsejado desde un punto de vista de protección de la privacidad.

Desafíos que persisten

El cifrado de extremo a extremo busca dar cuenta de la privacidad de las comunicaciones en tránsito, o sea, de cómo se protegen en el camino de un origen a un destino. Pero, ¿cómo garantizar la privacidad de las comunicaciones en aplicaciones de mensajería ante una intrusión física en el dispositivo?

La pregunta es válida para situaciones simples de extravío o pérdida, pero también en contextos de intervención policial o de intrusión a dispositivos por medio de software diseñado para eso. Ante el reporte de situaciones de abuso en tales acciones en la región y su riesgo para el ejercicio de Derechos Humanos, es fundamental conocer mecanismos para hacer valer el derecho a la privacidad en el uso de herramientas de mensajería.

Existen una serie de medidas que se pueden aplicar para mitigar estos riesgos, que abordamos anteriormente. Algunas son: utilizar contraseña en el dispositivo, contar con una clave de acceso para la aplicación, configurar el chat para mensajes temporales, entre otras. Presentes desde 2016 en Signal y desde 2020 en WhatsApp, los mensajes temporales pueden resultar una estrategia segura, pero solo funcionarán desde el momento en que el chat haya sido configurado para tal efecto.

Entonces, ante el peligro de intervención de un equipo, ¿cómo asegurarnos de que no puedan acceder a las conversaciones o, al menos, a algunas de ellas? La respuesta es simple, pero su implementación no tanto: eliminando esos mensajes. Si estuviéramos hablando de una carta que podemos destruir físicamente quizás la recomendación fuera obvia, pero en dispositivos digitales surge la legítima duda: ¿existe la posibilidad de recuperar un mensaje eliminado? Sí, bajo ciertas circunstancias se pueden restablecer conversaciones eliminadas. De ahí la necesidad de abordar algunos aspectos técnicos para garantizar que el ejercicio del derecho a la privacidad, en este caso, sea más efectivo.

WhatsApp: cómo eliminar mensajes de forma definitiva

Actualmente, existen dos formas de recuperar los chats eliminados: la recuperación de los respaldos en línea por un lado, y la copia de seguridad local de la aplicación, por el otro.

Una instalación típica de WhatsApp ofrece la opción de configurar un respaldo en línea utilizando Google Drive, para usuarios Android, o iCloud, en el caso de Iphone. Los respaldos de Android en Google Drive son únicos y se sobrescriben, es decir, no existen versiones históricas de los archivos. Si se desea que los mensajes no se puedan restablecer, es necesario eliminar el archivo en cuestión desde Google Drive.  

En el caso de Android se debe acceder a la cuenta en Google Drive, ir al apartado “Almacenamiento” y luego a “Copias de seguridad”. Ahí se encuentra el archivo de respaldo de la cuenta de WhatsApp identificado por el número telefónico. Si se desea que los mensajes no se puedan recuperar, se debe eliminar el archivo en cuestión. Es fundamental asegurarse de que el archivo eliminado no quede en la papelera de reciclaje; de ser así, también debe borrarse desde allí.

Además del respaldo en línea, WhatsApp utiliza copias de seguridad locales para posibles restauraciones. El esquema de respaldo local es incremental, es decir utiliza varios archivos para guardar el historial de las conversaciones de forma periódica. Las copias pueden ser encontradas en una carpeta cifrada ubicada en “Android/media/com.whatsapp/WhatsApp/Databases”. Dentro de este directorio encontraremos una serie de archivos cuya nomenclatura es “msgstore.db.crypt14*”. Para eliminar estos archivos de respaldo locales, y que estos no puedan ser recuperables, se debe usar una herramienta de borrado seguro como iShredder o bien conectar el dispositivo al computador y utilizar herramientas como Shred, disponible en la mayoría de las distribuciones GNU/Linux, Eraser para Windows o srm para macOS.

Cabe mencionar que todos estos procedimientos explicados solo aplican al dispositivo donde se ejecute el proceso. Es decir, si la otra persona a quien se dirigen los mensajes no los elimina, seguirá teniendo acceso a los mismos y permanecerán disponibles para terceros en el caso de una extracción o intrusión al dispositivo. También es necesario prestar atención a los mensajes temporales, cuya duración puede ser de 1, 7 o 90 días, pues, según explica WhatsApp, si crea una copia de seguridad antes de que desaparezca un mensaje, este se incluirá en la copia de seguridad.

Eliminar mensajes de WhatsApp definitivamente requiere de al menos esos tres pasos e implementarlos o no depende de la percepción de riesgo que pueda tener cada persona de estar sujeta a una intrusión indebida a sus comunicaciones personales. Aún así, como se ve, hay fragilidades que son intrínsecas al uso de este tipo de aplicaciones y la confianza en la empresa por detrás de la aplicación y en las terceras personas con quienes compartimos nuestras informaciones.

Borrar mensajes, resguardar derechos

Aunque pueda resultar una tarea compleja, y que requiere de varios pasos a seguir, la posibilidad de borrar mensajes de manera segura es una acción concreta hacia una mayor autonomía digital y una defensa efectiva de nuestros derechos. Así como en la vida real, es necesario que los entornos digitales nos provean de herramientas que nos permitan resguardar nuestro derecho a la privacidad en línea y que están accesibles para todas las personas.

Desde Derechos Digitales, sostenemos que la privacidad de las comunicaciones no es un lujo ni una cuestión meramente técnica: es una condición indispensable para el ejercicio de otros derechos, como la libertad de expresión, la organización social y la defensa de los Derechos Humanos. En América Latina, donde diversos Estados han desplegado prácticas de vigilancia sin control ciudadano ni garantías adecuadas, proteger nuestras comunicaciones digitales se vuelve urgente.