Combatir la violencia de género facilitada por tecnologías (VGFT) desde el enfoque del derecho internacional de los derechos humanos

Este documento, realizado con el apoyo de UNFPA, identifica vacíos comunes en distintas jurisdicciones sobre la violencia de género facilitada por tecnologías y sintetiza los principales desafíos conceptuales, estratégicos y legislativos. Elaborado con un enfoque interseccional y centrado en derechos humanos, este trabajo busca orientar futuras reformas legales y de política pública. Su propósito es apoyar a quienes diseñan políticas, investigan o defienden derechos en la construcción de marcos coherentes y garantes para prevenir, atender y reparar la VGFT.

Deepfakes: cuando las tecnologías promueven la violencia de género digital

Cada vez son más las noticias sobre casos de deepfakes en América Latina. Estas tecnologías, basadas en inteligencia artificial (IA), permiten crear imágenes falsas insertando el rostro de una persona en el cuerpo de otra, simulando situaciones que nunca ocurrieron, muchas veces de carácter sexual. En varios países de la región, se registraron casos particularmente alarmantes en colegios, donde niñas fueron víctimas de sus propios compañeros. Suelen utilizar estas herramientas para generar, compartir e incluso comercializar contenido sexual de sus compañeras. En los últimos años, los medios reportaron este tipo de hechos, principalmente en colegios privados de Perú, Ecuador, Brasil, Chile, Argentina y Guatemala, entre otros. Niños y adolescentes aprenden a explotar la tecnología para vulnerar a sus compañeras, mientras ellas quedan expuestas a una violencia para la que nadie tiene respuestas concretas.

Por su parte, la cobertura mediática sigue un patrón: los casos con mayor visibilidad provienen de colegios privados en zonas urbanas, pero eso no significa que sean los únicos. En un colegio de la Región del Maule, Chile, en una comuna fuera de los grandes centros urbanos, ocurrió un caso similar, por ejemplo. A diferencia de los anteriores, esta noticia no se encuentra fácilmente en internet y fueron las propias adolescentes quienes se vieron obligadas a denunciarlo en redes sociales.

En Latinoamérica, donde la mayoría de los colegios no pertenecen a élites, lo que llega a los medios representa solo una fracción de la realidad. Mientras algunos casos generan indignación, muchos otros quedan en el olvido, y en los contextos invisibilizados, las víctimas no reciben atención ni respuesta institucional.

En esta columna nos proponemos analizar qué rol están cumpliendo las aplicaciones de deepfake en América Latina en la proliferación de nuevas formas de violencia de género digital. A partir de estudios e investigaciones especializadas, indagamos las condiciones que las habilitan y las responsabilidades técnicas, políticas y económicas detrás de su funcionamiento, sin dejar de lado los desafíos urgentes que enfrenta la región para abordarlas.

Investigar el uso de apps de deepfake en América Latina

Los casos en colegios latinoamericanos mencionados evidencian un problema que trasciende lo técnico. La irrupción de este tipo de actos responde a un ecosistema digital que facilita su expansión sin considerar sus consecuencias. Según el informe State of Deepfakes 2023, el 98% del contenido deepfake disponible en línea tiene fines sexuales y el 99% de las personas representadas son mujeres. A esto se suma que el 48% de los hombres encuestados vio este tipo de contenido al menos una vez, y que el 74% no siente culpa por hacerlo.

Frente a esta realidad, grupos de investigación están tomando nota para poder reflejar conclusiones científicas y precisas. Junto a Situada, realicé una investigación para analizar el alcance de estas aplicaciones en la región, las condiciones que lo permiten y cómo su diseño facilita la violencia de género digital.

Para ello, se estudiaron 105 aplicaciones de deepfake publicadas en Google Play (Android), identificadas mediante una herramienta especialmente desarrollada para tal fin, la cual se conectaba a la tienda a través de una API. Gracias a esta conexión automatizada, pudimos recopilar información técnica y descriptiva de cada app, permitiendo observar patrones en su diseño y funcionalidad. El análisis de software suele centrarse en la usabilidad, pero es fundamental evaluar este tipo de tecnología más allá de lo técnico-comercial, desde una perspectiva ética, crítica y feminista.

Red flag: los hallazgos más preocupantes

La investigación de Situada detectó que el 89.5% de las aplicaciones de deepfake representan un riesgo para las mujeres, al facilitar la creación de contenido sexual no consensuado. El análisis reveló una combinación preocupante de factores sociotécnicos, lo cual se refleja en los principales hallazgos del estudio.

Uno de los primeros patrones identificados fue la falta de transparencia en el desarrollo de las apps: el 42.8% no indicaban su procedencia ni en Google Play ni en sus sitios web, dificultando la rendición de cuentas y sus motivaciones. Entre quienes sí reportaban autoría, se encontraron imágenes promocionales sexualizadas que refuerzan la objetivación de las mujeres. Además, se constató una clara brecha de género en los equipos que desarrollan estas apps, que refuerza la persistente falta de diversidad en el sector tecnológico.

Los hombres -especialmente del Norte Global- históricamente dominaron la innovación tecnológica, excluyendo las experiencias y necesidades de las mujeres. Esta dinámica fue ampliamente estudiada por autoras feministas que analizan cómo el diseño y la producción tecnológica reproducen desigualdades estructurales. Entre ellas, Judy Wajcman aportó conceptos clave en su libro “Tecnofeminismo”, donde explora cómo el desarrollo técnico está atravesado por relaciones de poder. Informes recientes de la UNESCO y Randstad confirman que menos del 30% de las personas que trabajan en IA son mujeres. Esta exclusión no responde solo a la falta de acceso o a las habilidades, sino a una cultura técnica masculinizada que condiciona lo que se diseña, para quién y con qué propósito.

Otro aspecto crítico identificado fue la clasificación que Google Play otorga a las aplicaciones. Esta tienda exige que todas las apps cuenten con una etiqueta de edad, asignada a través de un sistema gestionado por la Coalición Internacional de Clasificación por Edad (IARC por sus siglas en inglés). Para ello, los desarrolladores deben completar un formulario autodeclarativo y, en función de sus respuestas, se determina la categoría correspondiente (por ejemplo, “Mayores de 17 años”). Sin embargo, este mecanismo depende exclusivamente de la honestidad de quienes publican las apps. No hay verificación activa del contenido real de las aplicaciones. El análisis mostró que el 65.7% fueron clasificadas como “Apto para todo público”, pese a que se usan para la creación de contenido sexual no consentido. Clasificaciones que deberían proteger a las personas usuarias, terminan validando tecnologías dañinas bajo rótulos engañosos.

También se evidenció cómo estas herramientas operan bajo un modelo de negocio centrado en la rentabilidad. El 67.6% requiere un pago para desbloquear funciones principales y, aunque algunas ofrecen pruebas gratuitas, restringen la descarga hasta que se pague, incentivando la compra. Este modelo prioriza la rentabilidad por encima de cualquier principio ético, facilitando la explotación digital de los cuerpos de las mujeres. A esto se suma su facilidad de uso: el 96.2% fueron calificadas como intuitivas, incluso accesibles para personas sin experiencia técnica o dominio del idioma, lo que amplía su adopción.

Por otro lado, el análisis demostró que estos servicios en línea incorporan funciones que simulan besos o abrazos, normalizando la idea de que las mujeres pueden ser expuestas en situaciones íntimas sin su consentimiento. En los anuncios de estas aplicaciones, es común ver representaciones forzadas, casi siempre protagonizadas por un hombre, que utiliza una foto propia junto con la imagen de una mujer, reforzando dinámicas de control. Además, el uso de plantillas predefinidas contribuye a su hipersexualización: las opciones femeninas abundan en categorías como “Hot Bikini”, “Latex”, “Sexy Girl” o “Body Latino” (reforzando estereotipos fetichistas sobre las mujeres latinas), mientras que las plantillas masculinas son escasas y neutras.

Por último, las empresas detrás de estas aplicaciones eluden su responsabilidad legal a través de avisos en los que prohíben el uso de material no autorizado, pero dejan la ejecución en manos de la persona usuaria. Este hallazgo refleja que la estrategia legal no impide el daño, pero sí protege a las compañías que se benefician económicamente con estas prácticas. Al trasladar la carga moral exclusivamente a quien las utiliza, las empresas evaden su responsabilidad ética como diseñadoras de tecnología con impactos previsibles.

Una tendencia global reflejada en América Latina

Las conclusiones de esta investigación se inscriben en una tendencia global, de la cual América Latina no es ajena. Diversas organizaciones de la sociedad civil vienen advirtiendo que tecnologías como la deepfake forman parte de una creciente ola de violencia de género digital. En un informe reciente presentado a la ONU, desde Derechos Digitales, junto a otros grupos, señalamos que estas prácticas silencian voces y limitan la participación pública.

En la misma línea, Coding Rights documentó cómo ciertos servicios basados en IA imponen visiones patriarcales y coloniales sobre los cuerpos y decisiones de niñas y adolescentes en nuestra región. De forma similar, el Banco Interamericano de Desarrollo (BID) viene alertando sobre el uso de deepfake con fines de extorsión y humillación sexual, advirtiendo la ausencia de políticas regionales para enfrentar esta problemática.

En el plano legal, luego de recopilar casos de deepfake porn, activistas como Olimpia Coral insisten en que “la ley es insuficiente” y que es urgente capacitar a policías y fiscales para comprender estas tecnologías y atender adecuadamente a las víctimas. La evidencia también se manifiesta en el ámbito político. Un estudio de Fundación Karisma, en colaboración con ONU Mujeres, centrado en las elecciones legislativas de 2022, concluyó que la manipulación de información -incluyendo imágenes trucadas (deepfake) y suplantaciones- se convirtió en una forma de violencia digital contra candidatas mujeres. 

En conjunto, estos informes coinciden en lo que la investigación de Situada evidencia a nivel regional: las tecnologías de IA, cuando se desarrollan sin responsabilidad ética ni supervisión pública, reproducen violencias históricas hacia las mujeres

Neutralidad falsa: tecnologías que perpetúan la violencia de género 

Los resultados de estos análisis son alarmantes, pero no se comparan con el impacto en las mujeres afectadas. Mientras estas aplicaciones generan ganancias, las mujeres y niñas ven sus imágenes manipuladas y difundidas sin su consentimiento. Algunas temen salir de sus casas, otras sufren ansiedad y depresión, o son extorsionadas y revictimizadas por quienes minimizan el daño bajo la excusa de que “es solo IA” o “no es real”, ignorando que lo online tiene consecuencias en la vida offline.

Esta masificación no puede desvincularse de una economía de la conectividad que premia lo viral y convierte la exposición en capital. El número de descargas legitima estas prácticas como aceptables, invisibilizando sus impactos dañinos. Lo que ocurre en este mercado digital constituye una prolongación de la lógica patriarcal que trata los cuerpos de las mujeres como bienes disponibles para el deseo ajeno. Es una forma estructural de violencia donde la cosificación reduce a la mujer a objeto sexual y anula su agencia al servicio del placer masculino.

Plataformas como Google Play legitiman este ecosistema al permitir la circulación masiva de tecnologías que posibilitan agresiones simbólicas y sexuales sin consentimiento, bajo esquemas comerciales lucrativos. Responsabilizar únicamente a las personas usuarias es insuficiente. Se requiere cuestionar el sistema técnico, económico y normativo que habilita estas violencias.

El desafío no es solo denunciar, sino repensar la tecnología desde su raíz: reconocer que toda herramienta implica decisiones morales y políticas. Afrontar esta problemática requiere respuestas coordinadas: regulaciones con enfoque de género que obliguen a las plataformas a retirar contenidos no consentidos, y compromisos empresariales de transparencia que incorporen evaluaciones de impacto ético antes de publicar herramientas que puedan ser usadas para dañar. También es necesario avanzar en medidas de reparación integral para las víctimas, incluyendo apoyo psicosocial, acompañamiento jurídico y garantías de no repetición. Finalmente, promover una alfabetización digital crítica -especialmente entre jóvenes- puede prevenir estos usos violentos y construir una cultura digital basada en el respeto y el consentimiento. Avanzar hacia políticas públicas con perspectiva interseccional feminista y prácticas de desarrollo ético es una urgencia para garantizar que la innovación no se construya a costa de la dignidad de las personas.

Envejecer en un mundo hiperconectado: la ausencia de las personas mayores en las políticas digitales

La acelerada digitalización de nuestras sociedades trae consigo la incorporación de múltiples Tecnologías de la Información y la Comunicación (TIC) en la vida de las personas. Si bien el acceso a las mismas puede habilitar el ejercicio de nuestros derechos, existen marcadas diferencias en cómo se usan, apropian, entienden y experimentan entre la diversidad de personas usuarias. Esto genera capacidades y condiciones desiguales para su uso pleno, significativo, seguro y autónomo.

Uno de los grupos sociales que enfrenta mayores desafíos y desigualdades en el uso de las TIC son las personas mayores. Este grupo fue reconocido por la ONU como uno de los segmentos de la sociedad que requiere mayor atención, acompañamiento y cuidado para enfrentar los retos que plantea la creciente digitalización del mundo actual, y para reducir las barreras que les impiden aprovechar plenamente las herramientas tecnológicas en beneficio de su bienestar. Entre dichas barreras destacan la brecha digital y la alta exposición a ciberataques y amenazas en el ciberespacio.

En esta columna ahondaremos en la exclusión de las vejeces en políticas digitales, particularmente en las estrategias nacionales de ciberseguridad. Analizaremos las vulnerabilidades específicas que enfrentan en línea, reafirmando la importancia de proteger sus derechos a la autonomía, el cuidado y la no discriminación, esenciales para su integración y participación efectiva en la era digital.

América Latina, envejecimiento poblacional y desafíos de inclusión digital

Como hemos señalado anteriormente, desde una perspectiva interseccional la edad constituye una categoría fundamental a la hora de formular políticas sobre el diseño, despliegue y uso de las TIC. En esa línea, organismos regionales e internacionales ya reconocieron que los derechos humanos y las libertades fundamentales de las personas mayores deben ser garantizados a través de las políticas, planes, estrategias y legislaciones de los Estados. Además, de acuerdo con estudios sociales sobre esta temática, la inclusión de las personas mayores en el ámbito de las políticas públicas es tanto una cuestión demográfica como social.

Por un lado, la región atraviesa un proceso sostenido de envejecimiento poblacional desde inicios del siglo XXI. Se estima que para el año 2050, el 25% de la población en América Latina y el Caribe tendrá 65 años o más. Considerando la persistente brecha digital que enfrentan en la región, esta proyección debe ser tomada como una motivación crucial para impulsar políticas de inclusión digital que reconozcan la existencia de las vejeces como parte de la sociedad y respondan a sus propias necesidades, garantizando su participación en el mundo hiperconectado que habitamos.

Por otro lado, encontramos que los problemas asociados al envejecimiento fueron históricamente considerados como asuntos a resolver en el ámbito individual y privado. Sin embargo, se envejece en un contexto social y cultural específico que habilita u obstaculiza que se haga con plenitud, inclusión y en condiciones de equidad en el ejercicio de derechos. Se envejece siendo parte de un colectivo, por lo cual incorporar  a las personas mayores en las políticas públicas digitales implica reconocer su especificidad como grupo social.

Lejos de ser espectadoras pasivas de la transformación tecnológica, las vejeces merecen ejercer plenamente sus capacidades en la era digital, con autonomía y sin obstáculos técnicos e informativos que limiten su participación. Sin embargo, la calidad, la información y los conocimientos técnicos necesarios para ello siguen siendo escasos y poco adaptados a sus realidades, situándolas en una posición de desventaja para hacer un uso seguro de las tecnologías.

Estrategias nacionales de ciberseguridad: ¿alguien quiere pensar en las personas mayores?

De forma reiterada, vemos noticas que evidencian la frecuencia y gravedad de los ciberataques en la región, dirigidos tanto a personas como a instituciones. Hace una semana, por ejemplo, la información de 20 millones de personas pensionadas del Instituto Mexicano del Seguro Social fue divulgada y puesta a la venta en foros clandestinos, dejando a una gran cantidad de personas mayores expuestas a múltiples riesgos y métodos de estafa como el phishing. Este caso ilustra  no solo  la fragilidad de los sistemas estatales de almacenamiento de datos, sino también la vulnerabilidad en cascada de las vejeces allí registradas, denotando la imperiosa tarea de reforzar marcos de Derechos Humanos en el tratamiento de la ciberseguridad.

La visión clásica de la ciberseguridad enfocó sus esfuerzos principalmente en la protección del Estado y sus infraestructuras. Sin embargo, perspectivas de género e interseccionales en esta materia sugieren un cambio sistémico urgente en su abordaje, que centre las políticas y  estrategias en las personas, e integre las diversas realidades y necesidades de  sectores sociales que enfrentan amenazas y riesgos diferenciales en el espacio digital. Este giro en el enfoque es clave para garantizar el ejercicio efectivo de los  derechos en los entornos digitales; en particular de grupos históricamente excluidos como las mujeres, las personas de la comunidad LGBTQIA+ y las personas mayores.

A la fecha, de los 21 países de América Latina, 13 ya adoptaron estrategias nacionales de ciberseguridad. Pero sólo 3 (Brasil, Chile y Uruguay) tienen menciones explícitas en sus líneas de acción a las vejeces, y sólo 1 (la reciente estrategia del Paraguay) reconoce  la edad como una de las intersecciones a considerar a la hora de ejecutar políticas de protección para la ciudadanía en el ciberespacio. Ahora bien, ¿la mera referencia a las personas mayores es suficiente para hablar de inclusión? Como buena práctica, la estrategia de Chile contempla la alfabetización básica en ciberseguridad para este sector etario. De hecho, en su plan de acción, este sector es transversal a la mayoría de medidas a implementar, lo que permite concretar objetivos y responsables para cumplir lo que se plasmó en el documento de la estrategia. No obstante, en las demás políticas públicas mencionadas se habla de forma general sobre campañas de concientización en ciberseguridad que incluyen a las personas mayores, sin contar aún con medidas específicas o preferentes que respondan a sus necesidades particulares.

La exclusión que transita la vejez en la mayoría de estos marcos normativos refleja una preocupación señalada por organismos regionales de Derechos Humanos: el edadismo. Esta  forma de discriminación por razón de edad permanece enraizada cultural y jurídicamente en América Latina, exponiendo a este grupo social a diferentes formas de violencia, incluida la que ocurre en línea.

La creciente dependencia de nuestras sociedades en las TIC, así como la digitalización de servicios básicos y fundamentales, incrementa inevitablemente la exposición a riesgos y amenazas. En el caso de las vejeces, la brecha de conocimientos frente a la naturaleza y la sofisticación de los ciberataques las deja altamente desprotegidas, convirtiéndolas en el objetivo de ataques, estafas en su mayoría, caracterizados por la suplantación de identidad para robar información personal y financiera a través de emails, páginas web falsas, llamadas telefónicas, mensajes de texto, entre otros.

Podría afirmarse que, considerando el carácter socio-técnico de las tecnologías, y ante la evolución constante tanto de éstas, como de las violencias que amplifican, el envejecimiento conlleva una condición de vulnerabilidad desde la cual las personas mayores encuentran barreras para participar del cambio tecnológico y usar plena, autónoma y efectivamente las TIC. Debe quedar claro, sin embargo, que el problema no es envejecer; no es la vejez la que dificulta el ejercicio de los Derechos Humanos en los entornos digitales, es la concepción social, cultural y jurídica que los Estados de nuestra región mantienen frente a ella. Estas concepciones se traducen en la exclusión de las personas mayores de los procesos de formulación e implementación de las políticas públicas, restringiendo el pleno goce de sus derechos y desatendiendo sus necesidades y vivencias.

Derecho a la autonomía y al cuidado en los entornos digitales

Promover, proteger y garantizar el reconocimiento y ejercicio, en condiciones de igualdad, de los Derechos Humanos y libertades fundamentales de las personas mayores a través de las políticas digitales resulta esencial. Dos derechos particulares asociados a este grupo son especialmente importantes a la hora de formular marcos de política pública inclusivos: la autonomía y el cuidado.

A menudo, en las sociedades occidentales, las vejeces se ven despojadas de su capacidad para responder a las propias necesidades, expresar sus deseos, tomar decisiones y lograr sus metas, lo que limita las posibilidades de que ejerzan control sobre sus vidas o las vivan de forma autónoma. Así, la edad avanzada es relacionada con la pérdida de funcionalidad, con la dependencia física, mental, emocional y social, el cese de la vida productiva, dejándoles de tener en cuenta para tomar decisiones en ámbitos como el financiero, familiar o político. Es por esto que, según mecanismos regionales de Derechos Humanos, cualquier instrumento de política pública sobre los derechos de las personas mayores debe, en primer lugar, garantizarles la posibilidad de ser autónomas para gestionar sus proyectos vitales.

En un mundo hiperconectado, donde cada vez más actividades se realizan usando la tecnología, contar con conocimientos suficientes para comprender los procesos que se gestan en Internet, así como  las posibilidades y los riesgos que conlleva, no es sólo un asunto de ciberseguridad, sino también, y sobretodo, un tema de Derechos Humanos y autonomía para las personas mayores. Asegurar su independencia y sus posibilidades de participar e integrarse a las comunidades a través de las TIC debe ser un eje central de las políticas digitales.

Por otra parte, la creación de entornos digitales propicios y favorables para este grupo social resulta crucial para que puedan ejercer sus derechos sociales, económicos y culturales en condiciones de igualdad. Proteger su  autonomía e independencia en el espacio digital es una práctica de cuidado en consideración de sus demandas y características específicas. En la medida que las TIC sean parte de su vida cotidiana, es necesario extender las prácticas de cuidado y prevención que tradicionalmente acompañan otras esferas de la vida, también a lo que suceda en los entornos digitales.

La dimensión del cuidado acá mencionada tiene que ver con procurar el bienestar de las personas mayores sin despojarles de su agencia sino, más bien, acompañándoles en el ejercicio y mantenimiento de su autonomía al navegar y usar las tecnologías. Esta es una concepción del cuidado basada en crear condiciones para el bienestar reconociendo las diferencias y vulnerabilidades históricas de este sector etario. Por ejemplo, si se procura el cuidado y la protección de las personas mayores a través de la creación de entornos físicos, sociales y culturales que habiliten el ejercicio de sus derechos, ¿por qué no crear condiciones y desarrollar conocimientos para el disfrute de entornos digitales seguros y favorables? Esto se traduce en bienestar, en protección de la autonomía y, por tanto, en una práctica de cuidado.

Recientemente, la Corte Interamericana de Derechos Humanos reconoció el derecho autónomo al cuidado, entendiendo que constituye una necesidad básica, ineludible y universal, fundamental para una existencia digna, en especial de las personas en situación de vulnerabilidad. En relación con el derecho de las vejeces de recibir cuidados, la Corte sostuvo que los Estados deben adoptar medidas para garantizar su acceso y permanencia en servicios de cuidados de calidad, en consonancia con sus derechos a la autonomía, independencia, seguridad y a una vida libre de violencias. Esta consideración debe extenderse también al ámbito de las políticas digitales, donde este grupo etario requiere enfoques específicos y adecuados que incluyan plenamente sus necesidades, experiencias y capacidades. Las políticas públicas deben brindar mecanismos de apoyo y acompañamiento que garanticen un uso seguro, autónomo y sostenible de las TIC por parte de las personas mayores, fortaleciendo así el ejercicio de sus derechos en entornos digitales.

Sandboxes para la IA en países de América Latina y Europa

El uso de sandboxes o areneros regulatorios para inteligencia artificial se ha extendido en Europa y América Latina como espacios de prueba que prometen impulsar la innovación bajo excepciones regulatorias. Sin embargo, la evidencia muestra que su implementación varía según el contexto y no siempre garantiza entornos seguros de aprendizaje. Más preocupante aún es la ausencia de una mirada sobre los derechos humanos, que queda relegada frente a la prioridad de fomentar la innovación. Este informe analiza experiencias recientes y subraya la necesidad de mayor escrutinio, participación ciudadana y adaptación a realidades locales para que estas herramientas no reproduzcan desigualdades ni vulneren derechos fundamentales.

Infancias en línea: riesgos, regulaciones y desafíos para América Latina

En 2017, el Fondo de las Naciones Unidas para la Infancia (UNICEF) publicó la estimación de que 1 de cada 3 usuarios de internet en todo el mundo era niño, niña o adolescente. A pesar de que aún existen muchos jóvenes que no tienen un acceso significativo a internet – y de que esto constituye un problema de orden primario -, es posible que hoy, casi una década después, la proporción de personas con menos de 18 años en entornos digitales sea aún mayor. En la realidad latinoamericana, estadísticas de países como Brasil, Argentina y México muestran que niños, niñas y adolescentes no solo pasan cada vez más tiempo conectados, sino que también comienzan a acceder a internet a edades cada vez más tempranas.

El punto sobre el cual UNICEF venía alertando al menos desde 2017 es que la infraestructura y las aplicaciones de internet, en esencia, no fueron diseñadas para este público, ni evolucionaron considerando la etapa de desarrollo físico, cognitivo y psicosocial que atraviesan niños, niñas y adolescentes. A esto se suma la lógica de explotación comercial sobre la cual opera internet desde hace años, muy distante de aquella idea inicial de un espacio libre, abierto y creativo. Estos factores exponen a los más jóvenes a una serie de riesgos online, considerablemente más graves que para los usuarios adultos.

En los últimos meses, la discusión sobre estos temas se intensificó. En el Reino Unido entró en vigor un paquete de medidas regulatorias que coloca en el centro la protección infantil en línea. En Brasil, el debate ganó aún más visibilidad tras una denuncia sobre la “adultización” e hipersexualización de niños y adolescentes en entornos digitales. Ambos episodios muestran cómo la agenda de protección en internet se consolidó como un tema urgente en todo el mundo. Sin embargo, es importante reflexionarlo desde una perspectiva localizada desde el contexto latinoamericano.

Niños y adolescentes están, de hecho, en riesgo en internet

La OCDE clasifica los riesgos a los que están expuestos niños, niñas y adolescentes en internet en cuatro categorías – las “4 C’s”. La primera son los riesgos de exposición a contenido inadecuado, como materiales nocivos, discursos de odio, desinformación u otros contenidos ilegales. Aquí entra, por ejemplo, la exposición a la pornografía, con consecuencias que van desde la erotización precoz hasta el estímulo a la violencia y la reproducción de estigmas de género. También entra el acceso a juegos de azar, un problema creciente en América Latina.

La segunda categoría son los riesgos de conducta, que abarcan aquellos creados por las propias interacciones de los niños en entornos digitales. Pueden manifestarse en comportamientos odiosos o nocivos, como el ciberacoso o la automutilación, muchas veces incentivados por el diseño de las plataformas y la viralización de ciertos contenidos. A comienzos de 2025, por ejemplo, una niña de 8 años murió en Brasil tras inhalar desodorante en aerosol en un reto de TikTok.

El tercer grupo son los riesgos de contacto, cuando niños y adolescentes son expuestos a interacciones dañinas o criminales con terceros adultos. Estos encuentros pueden ir desde situaciones de acoso hasta casos de explotación sexual infantil. Recientemente, en Estados Unidos, la fiscalía de Lousiana demandó a la plataforma de juegos Roblox, muy popular entre el público infantil, por no implementar mecanismos básicos de seguridad, lo que habría permitido que pedófilos se hicieran pasar por niños y entablaran interacciones malintencionadas a través del chat.

La cuarta dimensión son los riesgos de consumo, ligados al perfilado comercial y la inducción de gastos, parte estructural del modelo de negocio de las grandes plataformas digitales. Niños y adolescentes, en proceso de desarrollo, carecen hasta cierta edad de herramientas para distinguir publicidad de contenido orgánico. Incluso siendo ya un poco más viejos, no cuentan con recursos suficientes para lidiar con las presiones comerciales. Las prácticas de perfilamiento, como ya denunciaron distintos whistleblowers, han sido utilizadas por plataformas para aprovechar la vulnerabilidad emocional de adolescentes (sobre todo niñas). Entre sus prácticas está la promoción de contenidos que estimulan distorsiones corporales para mantenerlas enganchadas, aun con pleno conocimiento de sus efectos nocivos en la salud mental.

La OCDE señala, además, que existen riesgos transversales, como la pérdida de privacidad, la salud física y mental y los derivados de tecnologías digitales avanzadas o biométricas. Temas como el sharenting, los sesgos de los sistemas de inteligencia artificial y los impactos del uso excesivo de redes sociales en el sedentarismo juvenil entran en esta categoría. Casos recientes publicados en la prensa, como la denuncia de las ganancias de YouTube con contenidos abusivos sobre niños, muestran cómo estas dimensiones se combinan y retroalimentan.

Es esencial reconocer estos riesgos, así como el hecho de que pueden afectar de manera trágica el desarrollo de una persona en formación. También es importante destacar que no recaen de forma homogénea: estudios comparativos señalan que las plataformas aplican reglas más laxas en países del Sur Global. En América Latina, niños indígenas y afrodescendientes tienen menos acceso tanto a internet como a educación formal, incluida la educación digital. Además, en un contexto en el que las plataformas digitales lucran con la vulneración de derechos, la carga del cuidado recae de forma desproporcionada en las familias y, especialmente, en las madres. En una región con altas tasas de maternidad en solitario y bajos niveles de alfabetización digital, muchas mujeres no cuentan con el tiempo ni con las herramientas necesarias para acompañar la navegación segura de sus hijos, lo que los vuelve aún más vulnerables.

 La respuesta regulatoria

No es en vano que, sobre todo en los últimos cinco años, este tema comenzó a recibir creciente atención de reguladores en todo el mundo. En 2020, el Comité de los Derechos del Niño de la ONU redactó la versión final de su Observación General 25 relativa a los derechos de los niños en relación con el entorno digital, aprobándola a comienzos de 2021. El documento representó un hito en el derecho internacional de los derechos humanos, al interpretar la Convención sobre los Derechos del Niño de 1989 a la luz de los avances tecnológicos, reafirmando que todos los derechos de niños, niñas y adolescentes se extienden también al entorno digital. Conviene recordar que la Convención de 1989 es el tratado internacional más ratificado del mundo, y que instauró la doctrina de la protección integral, reconociendo a todas las personas con menos de 18 años como sujetos de derechos, con autonomía progresiva para su ejercicio, y, por lo tanto, debiendo ser promovidos y protegidos en todos los espacios.

2021 también marcó la aprobación del Age Appropriate Design Code por el ICO del Reino Unido, que estableció estándares de diseño para productos y servicios digitales destinados o con alta probabilidad de ser utilizados por niños y adolescentes. La iniciativa inspiró en los años siguientes diversas medidas por parte de autoridades de protección de datos, especialmente en Europa, como en Suecia e Irlanda. El Digital Services Act (DSA), aprobado en 2023 en la Unión Europea, también tiene reglas específicas para el grupo, señalando el principio de su mejor interés para el desarrollo de servicios digitales y reglas diferenciadas para el tratamiento de sus datos.

En 2024, Australia aprobó una ley inédita que prohíbe el acceso de personas con menos de 16 años a redes sociales y la Unión Africana adoptó directrices para la protección en línea de niños, niñas y adolescentes. La discusión también ganó fuerza en los Estados Unidos, donde ya recibió media sanción el Kids Online Safety Act (KOSA), aunque bajo apoyo desde argumentos problemáticos de políticos conservadores, como la protección de niños a “contenidos LGBT”. En 2025, nuevamente el Reino Unido, esta vez a través de la Ofcom, publicó una serie de directrices condensadas en los ya mencionados Protection of Children Codes and Guidance.

Estas iniciativas también resonaron en América Latina. En julio de 2025, Colombia aprobó la Ley 2489, “por medio de la cual se establecen disposiciones para el desarrollo de entornos digitales sanos y seguros para los niños, niñas y adolescentes del país”. En Brasil, desde 2022 se debate en el Congreso Nacional el Proyecto de Ley nº 2628,  que también establece reglas específicas para la protección de los más jóvenes en internet. El texto fue aprobado en el Senado a finales de 2024 y recién aprobado también en la Cámara de los Diputados, en agosto de 2025. Ahora vuelve al Senado para aprobación final, incluyendo dispositivos como la prohibición del uso de datos de personas con menos de 18 años para publicidad comportamental, además de previsiones sobre supervisión parental, vedación de acceso a contenidos dañinos y rendición de cuentas por parte de las aplicaciones digitales. Su tramitación recobró fuerza en agosto de este año, tras la referida denuncia del influencer Felca digital sobre la adultización e hipersexualización de niños y adolescentes en internet.

Un punto común de estas iniciativas regulatorias es establecer reglas diferenciadas para el uso de entornos digitales por parte de niños y adolescentes, ya sea en relación con los contenidos a los que pueden (o no) acceder, o en relación con prácticas de diseño y extracción de datos. Para que esa diferenciación ocurra en la práctica, gobiernos y empresas que proveen servicios digitales señalan que es necesario poder identificar quiénes son las personas con menos de 18 años en internet. En este contexto, aun cuando no aparezcan de forma explícita en todas las normativas recientes, la implementación de mecanismos de verificación de edad ha pasado a ser considerada una puerta de entrada esencial para la defensa de la infancia.

Informes de autoridades y análisis recientes hablan de una “ola global” de sistemas de verificación de edad en toda internet, donde la protección de la infancia se presenta como justificación para extender controles de identidad a todos los usuarios, incluso en aplicaciones que no son consideradas de alto riesgo. Esta tendencia recuerda al debate de la última década que oponía la defensa de la criptografía fuerte al combate contra la circulación de material de abuso sexual infantil, dividiendo en grupos opuestos, de manera simplista, a defensores de la privacidad y defensores de la infancia.

Más allá de soluciones fáciles

Esa falsa oposición plantea trampas que empobrecen el debate y dificultan la búsqueda de soluciones. Tiene, al menos, dos problemas centrales. El primero es no reconocer que niños y adolescentes, como sujetos de derechos, también tienen derecho a la privacidad y deben poder ejercerlo en el marco de su autonomía progresiva. Si pensamos en quienes viven en contextos familiares o comunitarios represivos, buscando información sobre su sexualidad o identidad de género, por ejemplo, este derecho se vuelve aún más importante.

Extender mecanismos de verificación de edad de manera indiscriminada altera la estructura de internet y puede afectar también a las propias infancias. No se trata de sacrificar las características fundamentales de la red como el acceso abierto y el anonimato relativo en nombre de su protección, porque ellas también se benefician de estas condiciones. El desafío es matizar el debate y reconocer las tensiones en juego, incluyendo en las discusiones regulatorias también agentes técnicos que puedan apoyar a desarrollar estos matices.

El segundo problema es desconsiderar que las tecnologías operan dentro de entramados sociotécnicos complejos. Así como no son, de manera aislada, la raíz de los riesgos que enfrentan niños y adolescentes, tampoco serán, de manera aislada, la solución.

Debemos discutir seriamente temas como la cultura de la violación y la ausencia de educación sexual en las escuelas, y cómo estas problemáticas atraviesan desigualdades de género y raza. En América Latina, entre 2018 y 2022, casi 490.000 niñas con menos de 18 años fueron víctimas de delitos contra su dignidad sexual, un dato que evidencia la urgencia de ese debate. Además, es necesario debatir el modelo económico que sostiene internet: el capitalismo de vigilancia. Un sistema nocivo para todos los usuarios, pero que impacta de manera particularmente severa a niños, niñas y adolescentes.

Estamos en un potencial punto de inflexión en la forma en que se estructura la internet y circulan sus usuarios. El debate sobre la protección de las infancias es indispensable, pero no puede reducirse a fórmulas simplistas ni a la falsa oposición entre privacidad y seguridad. América Latina no debe importar soluciones regulatorias prefabricadas sin crítica, sino comprometerse en un proyecto político y social que coloque a niños, niñas y adolescentes en toda su diversidad en el centro de un futuro digital verdaderamente justo.

Contribución a la consulta abierta del Grupo de Trabajo del Consejo de la UIT sobre Internet (CWG-Internet) sobre conectividad significativa en países en desarrollo sin litoral

En el marco de los procesos de consulta abierta del Grupo de Trabajo del Consejo de la UIT sobre Internet (CWG-Internet) presentamos, junto con TEDIC, esta contribución sobre conectividad significativa en países en desarrollo sin litoral. En las Américas sólo dos países responden a tal categoría, Bolivia y Paraguay. En este documento sostenemos que la conectividad significativa habilita el ejercicio de los derechos humanos, y ofrecemos un análisis contextual evaluando los desafíos y las estrategias para avanzar hacia marcos de conectividad significativa en Bolivia y Paraguay desde una perspectiva de derechos humanos e interseccional.

Fondo de Respuesta Rápida

El Fondo de Respuesta Rápida para la protección de derechos digitales en América Latina (FRR) brinda apoyo a activistas y organizaciones de la sociedad civil que enfrentan emergencias que no pueden ser satisfechas por los ciclos de financiamiento tradicionales.

Desde su inicio en 2019, el FRR ha respondido a crecientes amenazas y abusos relacionados con la protección de los derechos humanos en entornos digitales. Este fondo es administrado por Derechos Digitales, con el apoyo de fondos internacionales. 

De la promesa tecnológica al control estatal: lo que revela el caso mexicano

En junio de 2025, México aprobó un paquete legislativo que incluyó reformas a la Ley de la Guardia Nacional, la Ley General de Población y la Ley General en Materia de Desaparición Forzada. Este conjunto de reformas legales creó una Clave Única de Registro de Población (CURP) biométrica que es obligatoria para acceder a servicios públicos y privados. Además, amplió significativamente las facultades de inteligencia de las Fuerzas Armadas y la Guardia Nacional. Esto se llevó a cabo a pesar de la movilización de organizaciones de la sociedad civil, que advirtieron sobre los graves riesgos que estas reformas representan para los derechos humanos y la democracia en el país.

Lejos de ser un caso aislado, este proceso refleja una tendencia regional cada vez más extendida en América Latina: la consolidación de infraestructuras de vigilancia y control social, legitimadas a través de reformas legales y sustentadas en el uso de tecnologías digitales y biométricas. Este fenómeno revela un panorama en que el tecnosolucionismo y la seguridad se utilizan como argumentos para erosionar libertades, reforzar el poder estatal y profundizar desigualdades estructurales.

Promesas y peligros de la identidad digital

La creación de la CURP biométrica en México implica el establecimiento de una base de datos centralizada que asocia el número único de registro de cada persona con sus datos biométricos, como huellas dactilares y fotografía. El objetivo declarado por el Gobierno es responder a la crisis generada por la creciente desaparición de personas, mediante la construcción de un sistema que permita registrar y rastrear cada interacción y movimiento de la ciudadanía en su vida cotidiana, desde el acceso a servicios públicos hasta actividades privadas, con el fin de facilitar su identificación y localización.

Al tratarse de un registro obligatorio, se elimina la posibilidad de un consentimiento informado sobre la recolección y el uso de los datos personales, lo que agrava los riesgos para la autonomía y la privacidad. Además, habría que considerar qué ocurre con quienes no logran registrarse: ¿quedarán excluidos del acceso a servicios esenciales? La obligatoriedad de la CURP biométrica como requisito para acceder a servicios públicos y privados implica que quienes no estén registrados en esta base o no puedan hacerlo quedarán fuera de derechos y prestaciones básicas.

Así, personas que no logran acercarse a los centros de registro, sobre todo las que viven en zonas remotas; aquellas que no tienen datos biométricos que puedan ser recopilados (como personas mayores con huellas dactilares deterioradas o personas con ciertas discapacidades); y personas trans cuya identidad de género y nombre social no se reflejan en su CURP -especialmente considerando que varios estados mexicanos no reconocen legalmente el nombre social- quedan aún más marginadas. Es decir, además de profundizar desigualdades estructurales ya existentes, este tipo de medidas produce nuevas formas de exclusión, reforzando barreras institucionales y sociales que afectan de manera desproporcionada a los grupos sociales históricamente excluidos.

Al mismo tiempo, este tipo de infraestructura plantea serias preocupaciones en términos de privacidad y desafía directamente el derecho al anonimato. El anonimato protege a las personas frente al rastreo constante de sus actividades y opiniones, especialmente en contextos donde disentir puede tener consecuencias.

También conlleva importantes riesgos en materia de ciberseguridad: aunque existen distintos niveles de madurez en ciberseguridad en los Estados de América Latina, se han registrado repetidos ataques y vulneraciones a bases de datos públicas en varios países. Las filtraciones de datos biométricos resultan especialmente graves, ya que se trata de información que, a diferencia de una contraseña, no puede ser modificada: forma parte intrínseca de la identidad física de cada persona. Su exposición indebida, así, puede llevar a fraudes y robo de identidad.

La creación de bases de datos centralizadas y la recopilación indiscriminada de datos biométricos no son fenómenos exclusivos de México. En 2023, Derechos Digitales ya advertía de la tendencia en un informe sobre la proliferación de sistemas de identidad digital en América Latina, señalando los riesgos asociados y la falta de controles efectivos, como la ausencia de garantías judiciales, la opacidad en el uso de los datos y el acceso por parte de múltiples entidades estatales sin supervisión.

Sin embargo, hay ejemplos que muestran decisiones orientadas a establecer límites: en Brasil, en 2022, el Supremo Tribunal Federal decidió imponer restricciones significativas al Cadastro Base do Cidadão -una base de datos también con información biométrica creada por decreto presidencial- al considerar inconstitucional el acceso irrestricto por parte de todos los órganos gubernamentales, reforzando así la necesidad de controles judiciales y criterios de proporcionalidad. Esta discusión resulta especialmente pertinente para México, donde el nuevo paquete legislativo otorga acceso a la base de datos biométrica a diversas instancias de inteligencia y a las Fuerzas Armadas sin requerir autorización judicial ni mecanismos de control democrático.

Inteligencia sin control: el poder opaco

Las reformas legales recientes en México otorgan a las Fuerzas Armadas y a la Guardia Nacional un poder sin precedentes en materia de inteligencia. Estas instituciones reciben facultades ampliadas para realizar labores de vigilancia e interceptación de comunicaciones sin necesidad de autorización judicial, eliminando cualquier contrapeso democrático. Además, se les concede acceso irrestricto a la base de datos de la CURP biométrica, lo que les permite rastrear de forma masiva e indiscriminada a la población, sin que las personas sean informadas de que sus datos están siendo consultados o utilizados.

Este escenario se ve agravado por la decisión del gobierno mexicano, aprobada en marzo de 2025 por el Congreso, de eliminar instituciones autónomas clave, como el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI). El órgano tenía entre sus competencias garantizar la protección de datos personales y el acceso a la información, y su extinción implica un grave retroceso en materia de transparencia y rendición de cuentas. En este contexto, también resulta pertinente llamar la atención sobre la recientemente aprobada Convención de Cibercrimen de la ONU, que fue incluso apoyada por México, cuyo enfoque favorece a la vigilancia y el intercambio transfronterizo de datos entre agencias sin establecer salvaguardas suficientes en materia de derechos humanos, privacidad y debido proceso.

Las nuevas leyes mexicanas legitiman la vigilancia permanente y opaca, donde el control estatal se expande sin supervisión efectiva. Se trata de una tendencia que no es exclusiva de México. En Argentina, por ejemplo, se transfirió el control de la ciberseguridad a la Secretaría de Inteligencia del Estado (SIDE), consolidando un aparato de vigilancia bajo mando directo del Poder Ejecutivo y debilitando garantías fundamentales. A esto se suma la aprobación reciente de la Ley de Inteligencia en Ecuador, que otorgó facultades amplias y ambiguas a los organismos de inteligencia, sin mecanismos claros de transparencia ni rendición de cuentas.

La tendencia regional apunta a un mismo patrón: justificar el incremento de poderes de vigilancia en nombre de la seguridad nacional, mientras se consolidan estructuras estatales cada vez más autoritarias. Estas reformas fortalecen un poder opaco, erosionan las garantías democráticas y colocan a las poblaciones en una situación de vulnerabilidad constante frente al Estado.

Tecnología como atajo político: el falso remedio

Como se mencionó, el principal argumento del gobierno mexicano para impulsar la CURP biométrica y el nuevo paquete de reformas fue responder a la crisis nacional de desapariciones. Actualmente, México enfrenta más de 129.000 personas desaparecidas, más de 5.600 fosas clandestinas y una crisis forense con más de 70.000 cuerpos sin identificar. Se trata de una situación extrema que exige respuestas urgentes, integrales y respetuosas de los Derechos Humanos.

Sin embargo, el paquete de leyes no fue acompañado de argumentos que sostengan de forma clara y verificable cómo estas reformas legales y la nueva infraestructura de vigilancia contribuirían efectivamente a resolver esta crisis. Por el contrario, las causas estructurales, como la impunidad, corrupción, falta de capacidades forenses e institucionales, no fueron enfrentadas por las reformas. Colectivos de familias buscadoras y organizaciones de derechos digitales han advertido que el paquete legislativo no sólo elude las verdaderas causas de la crisis, sino que instala un sistema de vigilancia masiva sin garantías, que expone aún más a las personas defensoras y a la población en situación de vulnerabilidad.

El tecnosolucionismo presenta la tecnología como una solución mágica a problemas sociales complejos. Pero la tecnología, por sí sola, no resuelve esos problemas ni sustituye políticas públicas integrales. Al contrario, su implementación desmedida y sin garantías puede generar nuevas capas de control social, agravando riesgos a los derechos humanos.

Este fenómeno se agrava cuando las reformas legales y la adopción de tecnologías se realizan sin participación social ni debate público, como pasó en México. En América Latina, esta tendencia es cada vez más visible. Por ejemplo, la implementación creciente de tecnologías de reconocimiento facial para supuestamente mejorar la seguridad pública se ha justificado sin evidencia alguna de su efectividad ni participación social. En cambio, hay abundante evidencia de que estas tecnologías profundizan la discriminación y la violencia contra poblaciones ya marginalizadas, especialmente personas negras y trans.

Es importante reconocer que esta problemática y la narrativa del tecnosolucionismo no se limita a contextos autoritarios. Aunque se agrave en estos casos, también se observan en países cuyos gobiernos se presentan como defensores de los Derechos Humanos. Abordar la implementación de tecnologías desde un enfoque de derechos implica cuestionar quién la diseña y cómo se implementa, con qué objetivos y bajo qué condiciones, priorizando siempre la autonomía y la dignidad de las personas. Cuando el uso de estas tecnologías se legitima a través de legislaciones que no respetan marcos de Derechos Humanos ni contemplan procesos con participación social significativa, su implementación termina consolidando estructuras de control que perpetúan la vigilancia y la exclusión, en lugar de fortalecer la democracia y garantizar derechos.

Recalculando: nuevas estrategias para enfrentar los ajustes en la cooperación internacional

Las discusiones sobre la necesidad de reforma de los mecanismos de cooperación internacional no son nuevas. Hace mucho, organizaciones de distintas regiones del mundo han identificado la tendencia colonizadora de los fondos provenientes del Norte Global y la necesidad imperante de un cambio de perspectiva en cómo se trabajan dichos financiamientos. Las organizaciones sociales vienen reclamando la flexibilización de los fondos: algunos conllevan una carga administrativa importante y complejas metodologías de rendición de cuentas, que si bien pueden ser justificables, a veces se muestran impracticables para algunos grupos. Entre los puntos de crítica se encuentran la demanda de reportes de actividades trimestrales y semestrales, además de las restricciones de presupuesto a ciertos ítems, como personal, entre otros que perjudican la sostenibilidad de organizaciones que cumplen un rol clave en la defensa y protección de derechos.

Medidas así reflejan, en lo administrativo, una disparidad de poder que, en lo sustantivo, se revela en un intento por delimitar el ámbito de actuación de tales organizaciones. En relación con el ámbito tecnológico, hemos denunciado cómo ciertas instituciones promueven el desarrollo y despliegue de tecnologías en países del Sur Global sin considerar su potencial impacto a nuestras poblaciones. La preocupación ha sido recogida por agentes de la cooperación internacional que desarrollaron principios propios en consulta con distintos actores, entre ellos Derechos Digitales.

En un momento en que las posibilidades de diálogo y reflexión crítica sobre tales iniciativas parecían generar cambios de estrategia en algunas agencias, surge otro desafío: crisis económicas, cambios de prioridad y el ascenso de la extrema derecha ponen en jaque la disponibilidad de fondos. Ya para finales de 2024 se conversaba acerca de los recortes que algunos Estados de la Unión Europea (UE) implementarían en planes de desarrollo en países de bajos ingresos. La situación se agudizó a inicios de este año con hechos que reconfiguran todo el ecosistema de cooperación internacional.

2025: Ajuste y restricciones

Sin duda, 2025 llegó con importantes retos para las organizaciones sociales. Por un lado, con el avance de múltiples intentos por restringir cada vez más la acción de la sociedad civil a través de leyes que buscan reducir y controlar los activismos. Por otro lado, con la reducción internacional de las ofertas de financiamiento tradicionales derivada de las medidas adoptadas por el nuevo gobierno de Estados Unidos.

El proceso se inició con la suspensión de la ayuda internacional a través de USAID en enero de este año y culminó en el cierre definitivo de la agencia a inicios de julio, dejando a millones de personas en riesgo de muerte en los próximos años, según señala un estudio reciente. La acción repentina dejó además sin piso (en algunos casos de forma literal) a muchas organizaciones sociales en todos los continentes. No fue un cambio gradual, como la planificación de reducción de presupuesto de los países de la UE pensando en una ejecución a tres años. Tampoco fue algo que se venía advirtiendo en una larga discusión de cómo y cuándo. La decisión del nuevo gobierno de EE. UU. de no continuar con la ayuda internacional tomó totalmente desprevenido a un sector que, ya de por sí, es muy dependiente. Como nunca, las conversaciones sobre independencia financiera y descolonización en la cooperación internacional son vitales.

Si bien uno de los temas que más ha ocupado a la cooperación internacional es la medición de impacto, ahora se suma dimensionar el impacto de esta decisión en nuestros países y en las áreas de trabajo que atiende. Lo inmediato ya lo conocemos bien: despidos, mayor precarización (de un sector muchas veces ya precarizado) y una carrera por la búsqueda de alternativas de financiación que permitan sostener la defensa de derechos en contextos cada vez más riesgosos, así como los compromisos asumidos frente a poblaciones enfrentadas a distintos grados de vulnerabilidad.

Insistimos en resistir (y existir)

No es la primera vez en los últimos años que las organizaciones de derechos humanos latinoamericanas nos vemos enfrentadas a situaciones que ponen en riesgo nuestra propia posibilidad de existencia. Desde Derechos Digitales, y en particular desde las iniciativas de entrega de pequeños fondos que sostenemos, hemos visto la fuerza y resiliencia de estas organizaciones en contextos como la pandemia y el ascenso autoritario en la región. Hemos documentado la insistencia de defensores y defensoras de derechos humanos en seguir adelante incluso frente a múltiples amenazas contra su activismo y su vida, en un continente aún manchado por los altísimos niveles de violencia en su contra.

Esos pequeños recursos que advienen de donantes privados, así como otros de distintas iniciativas presentes en la región, siguen siendo insuficientes para dar cuenta de las consecuencias de los recientes recortes a la cooperación internacional, pero están disponibles para suplir parcialmente sus impactos en actividades puntuales y subsidiar la acción urgente en protección de comunidades y derechos. Por medio del Fondo de Respuesta Rápida (FRR), en 5 años de ejecución hemos podido colaborar con más de 100 proyectos distribuidos en 18 países de nuestra región. Además, a través del recientemente creado Fondo para los Derechos Digitales en América Latina (FDD), ya son 20 iniciativas acompañadas en 11 países. Las beneficiarias son lideradas por comunidades educativas, organizaciones de defensa de las personas LGBTQIA+, grupos indígenas, y otras que difícilmente tendrían acceso directo a fondos para explorar aspectos relacionados con las tecnologías y derechos digitales. Se trata de un experimento que ya ha demostrado buenos resultados, además de abrir una oportunidad adicional para que organizaciones locales fortalezcan sus capacidades y puedan participar activamente en la discusión y construcción de políticas de tecnologías en la región.

Adaptarse para seguir en carrera

Desde Derechos Digitales queremos garantizar alguna sostenibilidad para los fondos que gestionamos, y que también están sujetos a las variaciones que impone el escenario internacional. Para eso, también nos ha tocado adaptar algunas de nuestras acciones.

Con el compromiso de seguir buscando aportes de distintos donantes a esta iniciativa que se muestra de crucial relevancia para la región, hemos implementado algunos cambios al FDD que apuntan a garantizar la posibilidad de continuar operando por al menos dos ciclos más: 2025 y 2026.

Las principales modificaciones son:

1. Ciclos de evaluación: al inicio de estos fondos, se trabajó con dos ciclos de evaluación anuales, a mediados y a fin de año. A partir de julio de 2025 será un único ciclo anual.

2. Recepción de propuestas: el FDD recibía propuestas durante todo el año, independientemente de los ciclos de evaluación. Desde julio sólo se aceptarán postulaciones cuando se haga convocatoria, hasta nuevo aviso.

Por otro lado, se mantienen los requisitos para aplicar: organizaciones sociales registradas; se adjudica sólo un FDD por organización (a quienes ya lo recibieron, no pueden volver a aplicar pero sí pueden hacerlo al FRR); ajustarse a los ítems que este fondo puede financiar. Para conocer mejor todos estos detalles se puede visitar la página web de los fondos.

Esta es una modificación importante para el FDD y sabemos que tendrá un impacto en las organizaciones. Nuestro objetivo es mantener una opción de financiamiento hecha por latinoamericanas para latinoamericanas y, al momento, es nuestra mejor apuesta. La conversación sobre acceso a fondos de cooperación internacional, la sostenibilidad de las organizaciones sociales y el apoyo a las personas activistas sigue en pie, trazando caminos y nuevas formas de hacer nuestro trabajo. El mejor recurso del activismo son sus personas y su compromiso con sociedades justas, libres e igualitarias. Confiemos en eso, y adaptemos nuestras estrategias para que los vaivenes de las etapas históricas que nos tocan vivir no pongan en pausa nuestros sueños.

Hacia una convención para regular el trabajo de plataformas: un avance frente a los desafíos del mercado laboral

Las Tecnologías de Propósitos Generales -o GPTs- han tenido impactos significativos en el mercado laboral durante el último siglo. Esta última ola, caracterizada por las innovaciones en algoritmos e Inteligencia Artificial (IA), ya comienza a mostrar sus primeras consecuencias en términos de empleo. En general, los estudios identifican evidencia suficiente para afirmar que la IA generativa ha perjudicado la generación de empleo y los ingresos del sector freelance. Sin embargo, esto pareciera darse más que nada en las ocupaciones de ingresos medios y bajos, y más aún en los rangos etarios inferiores.

El avance acelerado de tecnologías como la IA y los sistemas automatizados de gestión del trabajo está transformando profundamente las dinámicas laborales a nivel global. En este contexto, la necesidad de contar con un marco normativo robusto y con alcance internacional se vuelve urgente: regular el trabajo en plataformas digitales implica también establecer límites y obligaciones claras sobre el uso de tecnologías como la IA en el mundo del trabajo, garantizando justicia algorítmica, protección social y derechos laborales efectivos para todas las personas trabajadoras, sin importar su estatus contractual o la ubicación de la empresa.

Es por ello que resulta crucial el abordaje sobre el Trabajo Decente en Plataformas y la importancia de su instalación en la agenda regulatoria internacional. La 113ª Conferencia Internacional del Trabajo (CIT), celebrada en Ginebra en junio de 2025, marcó un hito en la agenda global del trabajo: por primera vez, se avanzó formalmente hacia la elaboración de un instrumento internacional para regular el trabajo en plataformas digitales. En un escenario laboral transformado por las tecnologías digitales, este paso no es menor. El mandato final fue claro: se acordó avanzar hacia la redacción de una convención vinculante, acompañada por una recomendación, como marco para garantizar derechos básicos a aquellas personas cuyo trabajo es intermediado por plataformas digitales.

¿Qué nos deja la CIT 2025?

Este avance implica el reconocimiento por parte de los Estados, empleadores y trabajadores -los tres pilares de la OIT- de que la economía de plataformas no puede continuar operando sin garantizar condiciones justas. Y sobre todo, que las reglas para el trabajo decente deben ser globales: las plataformas operan transnacionalmente y los vacíos legales que explotan hoy se convierten en nuevas formas de desprotección.

Uno de los aspectos centrales fue la definición del alcance del futuro instrumento. Se llegó a un consenso para que abarque tanto a quienes desempeñan tareas “basadas en la localización” -como reparto, transporte o cuidado- como a quienes realizan trabajo “remoto” a través de plataformas digitales. Esta concepción amplia resulta especialmente relevante para América Latina, donde la fuerza laboral en plataformas está conformada en buena medida por personas de ingresos medios y con escasa calificación requerida, involucradas tanto en actividades presenciales como en servicios digitales a distancia -como la traducción de textos o el procesamiento de datos-. Ambos sectores, como vimos anteriormente, enfrentan con especial énfasis los efectos de la innovación tecnológica y la falta de marcos regulatorios adecuados.

Desafíos persistentes

Sin embargo, la CIT también expuso las tensiones profundas que persisten sobre qué tipo de trabajo debe regularse y cómo. Los puntos más críticos donde no hubo avances sustantivos son los mismos que hoy generan disputas en nuestros países:

1- La presunción de laboralidad, es decir, reconocer como regla general que quienes trabajan para una plataforma lo hacen en relación de dependencia y no como “autónomos” ficticios.

2- La definición de una remuneración adecuada: la tecnologización aporta flexibilidad a muchas tareas e incluso impacta en la productividad. Sin embargo, esto implica en muchos casos la dedicación de jornadas largas debido a la acumulación de múltiples tareas no consideradas como remunerables. Asimismo, el debate instaura discusiones en torno al uso de indicadores para establecer estas remuneraciones: ¿qué consideramos como ingreso digno?

3- La determinación del tiempo de trabajo: una categoría básica en el derecho laboral, pero borrosa en un sistema que exige estar disponible sin garantizar ingresos mínimos.

4- Habiendo suficiente evidencia sobre los sesgos discriminatorios que reproducen los algoritmos más allá de su diseño u origen, un tema de especial relevancia fue la transparencia y auditabilidad algorítmica. Debido a la asimetría de información entre las personas trabajadoras y las plataformas, se discutió la necesidad de que las plataformas informen de forma clara y accesible cómo operan sus algoritmos de asignación de tareas, evaluación del rendimiento y determinación de ingresos. Sin embargo, aún resta brindar claridad sobre cómo regular las decisiones automatizadas y su impacto en las personas trabajadoras.

5- Y, finalmente, resta profundizar el debate sobre los mecanismos de control y la posibilidad de aplicar la legislación local para resolver conflictos, un punto clave para evitar que las plataformas operen en zonas grises de legalidad.

El caso latinoamericano es ilustrativo: la mayoría de los países no cuentan con legislación específica sobre plataformas, y muchas de las iniciativas que buscaron avanzar en esa dirección han quedado truncas o debilitadas. A la vez, las reglas existentes han mostrado limitaciones para garantizar protección efectiva a las personas trabajadoras, porque fueron desarrolladas sin tomar en cuenta estos escenarios,  o por una debilidad de las instituciones encargadas de su supervisión y aplicación. Mientras tanto, las personas trabajadoras enfrentan bloqueos de cuentas sin justificación, ingresos inestables y jornadas extenuantes.

CIT 2026, una oportunidad histórica

En este contexto, el proceso iniciado en la CIT representa una ventana de oportunidad única. El próximo año será decisivo: en la CIT 2026 se definirá la aprobación (o no) del instrumento. Para que esta instancia sea efectiva, será necesario un trabajo articulado y sostenido por parte de sindicatos, organizaciones de la sociedad civil, investigadores y gobiernos. La participación de América Latina -aunque presente en las delegaciones gubernamentales- fue aún limitada desde la sociedad civil. Fortalecer esa voz será clave para que las demandas del Sur Global tengan peso en la redacción final.

Las nuevas tendencias del mercado laboral ya son tangibles. Vemos una realidad teñida de nuevos esquemas de productividad, sectores con perfiles de mayor demanda y otros en estancamiento. Ahora llegó el momento de definir en qué condiciones seguirá esta transformación: que esta realidad garantice derechos fundamentales con mecanismos de protección será responsabilidad de quienes, desde distintos frentes, podamos incidir en esta etapa.