Diversidad cultural bajo asedio algorítmico: folklorización, silenciamiento y colonización de nuestros patrimonios culturales

El diseño, entrenamiento y despliegue de tecnologías está transformando nuestras sociedades en los ámbitos económico, social y político. Sin embargo, este debate suele dejar en un segundo plano cómo la IA está reconfigurando los modos en que la cultura se crea, promueve, accede y experimenta, con implicaciones profundas para el ejercicio de los derechos culturales.

Estos derechos son fundamentales en tanto protegen el desarrollo y la manifestación de las identidades culturales, y garantizan que personas y comunidades puedan expresar sus cosmovisiones y los significados que atribuyen a su existencia. Esta expresión se materializa a través de formas diversas de la experiencia humana que incluyen las artes, el patrimonio cultural, las lenguas, los sistemas de conocimiento, las convicciones, las creencias religiosas, e incluso prácticas cotidianas como la alimentación y la vestimenta.

En otras publicaciones hemos analizado las implicancias de la IA para el campo de los derechos culturales, puntualmente para la creación artística y la creatividad. En esta columna, problematizaremos a la IA como producto de hegemonías culturales y, a la vez, como infraestructura tecnológica que condiciona los marcos en los que la cultura se produce, circula y valora socialmente. Partimos de la premisa de que cuando los sistemas de IA se entrenan con información cultural del Norte Global, así como bajo lógicas coloniales y extractivistas, los resultados sesgados y discriminatorios no son accidentales, sino que reflejan las dinámicas de inclusión y exclusión presentes en los datos de entrenamiento y en los procesos de diseño. Como consecuencia, las culturas, las lenguas, los conocimientos y las formas de expresión del Sur Global están constantemente ausentes o mal representadas en los contenidos asistidos o generados por esta tecnología.

Resaltaremos la importancia de proteger, hoy más que nunca, la soberanía y la autodeterminación de las comunidades de nuestra región sobre sus datos culturales. Algo imprescindible frente a la creciente expansión de sistemas de IA que tienden a producir una visión de la cultura homogénea, estandarizada y colonial. Los argumentos presentados a continuación están basados en una contribución conjunta presentada por Derechos Digitales y Asociación para el Progreso de las Comunicaciones (APC) ante el Mecanismo de expertos sobre el Derecho al Desarrollo de Naciones Unidas.

¿Cómo nos ven los grandes modelos de IA?

Diferentes investigaciones vienen señalando que los modelos de IA de las principales compañías tecnológicas no están diseñados para narrar con precisión aspectos culturales de los países del Sur Global. En algunos casos, esto se traduce en imprecisiones que reflejan desconocimiento y, en otros, en la reproducción de estereotipos e imaginarios simplificados que desdibujan la especificidad de identidades y expresiones culturales diversas.

Un claro ejemplo se observa en un estudio de la Universidad Diego Portales, en el que se generaron más de dos mil imágenes utilizando la herramienta Dall-E para analizar la percepción de los outputs de la IA sobre Chile y América Latina. Los resultados fueron desalentadores: la IA reproducía sesgos culturales, desigualdades, prejuicios, estereotipos de género y raciales. Así, al pedirle a la IA que generara imágenes a partir del prompt de «una mujer mapuche», los resultados mostraban a mujeres de cabello castaño, nariz respingada, ojos grandes y piel clara. Además, su vestimenta mezclaba elementos de diversos pueblos originarios de Latinoamérica y, en algunos casos, incluía plumas en la cabeza, algo característico de culturas indígenas norteamericanas.

Lo anterior refleja una problemática clara de la IA frente a la diversidad cultural: la mitificación, ficción y folklorización de las formas de expresión y las comunidades de regiones del Sur Global. A saber, las principales herramientas de IA amplifican ciertas estéticas y narrativas, mientras silencian y tergiversan otras, influyendo en cómo se representan las culturas en los entornos digitales y fuera de ellos. En esa medida, aquellas narrativas culturales alineadas con las normas dominantes -a menudo del Norte Global- son priorizadas, mientras que las expresiones e identidades de regiones pertenecientes al Sur Global están infrarrepresentadas o, peor aún, mal representadas.

Las implicaciones sociales y políticas de este escenario resultan preocupantes en el contexto tecno-político que vivimos. Estos sistemas -por su diseño y escala- no solo pueden profundizar jerarquías dominantes sino también generar nuevas formas de exclusión al promover la homogeneidad cultural y estética, con impactos directos en la diversidad cultural. Esto deteriora las condiciones del acceso y la transmisión de la cultura, a la vez que obstaculiza los esfuerzos de independencia, soberanía y autorrepresentación de comunidades históricamente marginalizadas, quienes continúan excluidas de las expresiones culturales dominantes.

Colonialismo digital extractivista

Otra problemática vinculada al diseño y entrenamiento de los grandes modelos de IA son las prácticas extractivistas y coloniales sobre los datos culturales de comunidades del Sur Global. En efecto, organismos internacionales de derechos humanos ya lo están advirtiendo: las empresas tecnológicas tratan los datos derivados de los patrimonios culturales como simples insumos para sus sistemas, despojándolos de los significados que les atribuyen las comunidades y sin beneficios reales para ellas.

Desde luego, los inventarios de datos que alimentan dichos sistemas rara vez se crean de forma participativa y transparente, o se rigen por marcos de derechos humanos con el fin de promover la diversidad cultural, comprenderla y protegerla. En contraste, lo que prevalece son prácticas de recopilación de datos culturales que priorizan el beneficio económico, normalmente sin consultar a las comunidades ni solicitar su consentimiento, y sin informarles sobre los objetivos de la recopilación.

Algunos estudios nombran esta postura extractivista como colonialismo digital. Se caracteriza por la construcción de un imperio algorítmico en el que los patrimonios culturales se convierten en materia prima de los sistemas de IA dominantes, extraídos de forma selectiva, descontextualizada, y sin favorecer realmente a las comunidades. Bajo esta lógica, al igual que las potencias coloniales extraen los recursos naturales de nuestras tierras, los grandes modelos de IA extraen idiomas, historias y conocimientos de las comunidades, los separan de su contexto y significado originales, y los vuelven a ofrecer de forma tergiversada para su consumo global.

Lo anterior no solo perpetúa la ya mencionada malrepresentación de las culturas y formas de expresión del Sur Global, sino que erosiona la autodeterminación cultural de las comunidades. El derecho a determinar libremente el desarrollo y destino de sus culturas fue señalado por organismos regionales de derechos humanos como un pilar fundamental para preservar las tradiciones y los sistemas de significado y conocimiento. Por tanto, la omisión y negativa de las empresas que controlan la infraestructura global de la IA frente a la capacidad de decisión de las comunidades sobre sus formas de expresión cultural, cómo, hasta qué punto y bajo qué términos se les incluye en los conjuntos de datos de entrenamiento, influye determinantemente en el ejercicio pleno de derechos fundamentales, como los culturales.

Soberanía sobre los datos culturales y el derecho a la autodeterminación cultural

Frente a este escenario, ya emergieron múltiples iniciativas de IA impulsadas por comunidades, academia y sociedad civil del Sur Global. A través de enfoques situados, disputan las lógicas dominantes del desarrollo de la IA, priorizando la programación y el diseño participativo, así como criterios de pluralidad y liderazgo de las comunidades.

Un ejemplo destacado es “AIkuaa”, una herramienta que permite transcribir a texto grabaciones de audio en guaraní, uno de los idiomas oficiales de Paraguay y una de las lenguas indígenas más habladas en América Latina. Según sus creadores, los modelos de lenguaje de gran tamaño (LLM) ampliaron la brecha digital, ya que lenguas como el guaraní se encuentran infrarrepresentadas debido a la falta de datos en su entrenamiento. Frente a esto, el objetivo es crear un repositorio de conocimiento abierto que permita que las organizaciones, la comunidad y los medios de comunicación puedan responder mejor a las audiencias que hablan guaraní. Como metodología, desarrollan “mingas de voces abiertas” -inspiradas en los espacios tradicionales de trabajo comunitario- para seleccionar y validar las frases en guaraní que enriquecen los conjuntos de datos públicos de voz.

Otro caso relevante es “AfroféminasGPT”, una herramienta diseñada para fortalecer el pensamiento afrofeminista y decolonial, con especial foco en las mujeres negras y personas racializadas. AfroféminasGPT no tiene acceso a Internet de forma deliberada, lo que implica que no incorpora información en tiempo real desde la web sino que opera a partir de una serie de textos y materiales que fueron cuidadosamente curados. Este elemento, lejos de ser una limitación técnica, constituye una elección ético-política que busca evitar la incorporación automática de narrativas dominantes y coloniales sobre las experiencias, saberes y luchas de comunidades negras y racializadas. En ese sentido, la herramienta se nutre de fuentes originales producidas desde perspectivas afrofeministas y decoloniales, con el objetivo de contrarrestar la producción de narrativas blanqueadas, tergiversadas o desinformadas.

En un escenario mundial en el que un número reducido de actores, como OpenAI, ChatGPT, Google Gemini, Meta AI y Microsoft Copilot, concentra el desarrollo de sistemas de IA que jerarquizan y visibilizan contenidos culturales, iniciativas como las anteriormente descritas adquieren una relevancia particular y permiten el acceso a contenidos culturales guiados por principios como la participación y la diversidad.

A lo largo de esta columna, hemos problematizado algunas implicaciones de la IA para la cultura, argumentando cómo las comunidades menos representadas en los sistemas de datos suelen ser también las más perjudicadas por sus decisiones y resultados estereotipados y sesgados. Este panorama pone de relieve la importancia de la soberanía sobre los datos culturales y el derecho a la autodeterminación cultural, dos principios fundamentales de herramientas contrahegemónicas de IA que fueron impulsadas por comunidades históricamente marginalizadas. Estas alternativas desafían el dominio de los gigantes tecnológicos y demuestran la urgencia de repensar y rediseñar la tecnología desde la riqueza cultural del Sur Global, asegurando que las iniciativas se construyan desde, y en respuesta a, los conocimientos y las necesidades culturales locales.

Contribución al Consejo Asesor de Contenido de Meta sobre la expansión del programa de notas de la comunidad

En esta contribución presentamos evidencia sobre las fallas y la ineficacia, ya documentadas a partir del caso de X, del sistema de notas de la comunidad para hacer frente a la desinformación y la diseminación de contenidos engañosos en redes sociales. También, argumentamos que en países del Sur Global, como los de América Latina, donde los esfuerzos estatales para abordar la desinformación han sido insuficientes, heterogéneos y desequilibrados ante los múltiples intereses en juego; y donde en los últimos años ha persistido el silenciamiento de voces críticas y comunidades históricamente marginalizadas, un sistema como el de las notas comunitarias de Meta incrementa el riesgo de un aumento significativo del abuso, la violencia, la desinformación y la manipulación en las redes sociales.

Entre cuerpos y códigos: nuevos medios, viejas violencias

La violencia de género, que afecta principalmente a mujeres y personas LGBTIQA+, forma parte de la estructura del capitalismo. Se manifiesta a partir de diversas conductas y atraviesa distintos formatos que van mucho más allá de la violencia física. Históricamente, el control sobre los cuerpos ha sido una de sus expresiones más persistentes. Desde la reproducción forzada de mujeres esclavizadas para aumentar la mano de obra en las colonias, pasando por las altísimas tasas de violencia sexual -entre 2018 y 2022, se registraron más de 800 mil casos de mujeres víctimas de delitos sexuales en nuestra región, la mitad de ellas niñas con menos de 18 años-, hasta llegar a las leyes restrictivas en materia de aborto. De forma constante y sistemática, los cuerpos que no se amoldan a la lógica y la moral patriarcal, ven su autonomía limitada.

No solo el “cómo”, sino también el medio por el cual ocurre esa violación a la autonomía es reinventado constantemente. En las últimas décadas, ante el avance de la digitalización y la penetración de internet en América Latina y en todo el mundo, las tecnologías de información y comunicación pasaron también a ser soporte para esta vieja expresión de desigualdades y violencia de género.

Cuando las tecnologías reproducen el control

En 2016, la organización Coding Rights ya denunciaba fallas de seguridad en las aplicaciones de control del ciclo menstrual (las llamadas “menstruapps”), así como el uso indebido y opaco de los datos registrados por las usuarias para dirigir publicidad de acuerdo con los patrones de sus ciclos, como anuncios de toallitas, copas menstruales o termómetros. En 2020, Brasil presenció además el trágico episodio de una niña de 10 años que, al tener que ser trasladada a otro estado para ejercer su derecho al aborto legal por un embarazo producto de la violación de su tío, fue blanco de manifestaciones de grupos conservadores luego de la filtración de sus datos en redes sociales.

También forma parte de este conjunto de ejemplos lo sucedido en la provincia argentina de Salta, donde salió a la luz un proyecto del gobierno que utilizaba datos personales sensibles para “predecir” embarazos adolescentes. La iniciativa, cuestionada por organizaciones feministas y de derechos digitales debido a los sesgos del algoritmo, evidenció cómo las tecnologías pueden reforzar patrones de vigilancia y control sobre los cuerpos de niñas y adolescentes, especialmente aquellas provenientes de comunidades indígenas o de bajos recursos.

A ello se suman los constantes ataques digitales contra activistas feministas y defensoras de los derechos sexuales y reproductivos en distintos países de la región. En El Salvador, por ejemplo, organizaciones que acompañan a mujeres criminalizadas por emergencias obstétricas fueron objeto de campañas coordinadas de desinformación, acoso y discurso de odio en redes sociales, en un intento por desacreditar su labor y silenciar la denuncia sobre la penalización de la interrupción voluntaria del embarazo.

La desinformación, además, opera como un mecanismo de pánico moral: no solo ataca a quienes defienden derechos reproductivos, sino que instrumentaliza la propia agenda del aborto para generar confusión, miedo y resistencia social. En Paraguay, sectores conservadores difundieron narrativas falsas que vinculaban el Acuerdo de Escazú (un convenio sobre transparencia ambiental) con la supuesta imposición de agendas sobre aborto o “ideología de género”, en un uso estratégico de la desinformación que desvió el debate público y funcionó como cortina de humo, dificultando la discusión de un tratado clave para la protección de defensoras ambientales.

Junto a otras conductas como la difusión no consentida de imágenes íntimas y el stalkerware, estas prácticas son expresión de lo que llamamos violencia de género facilitada por las tecnologías (VG FT).

Del control a la resistencia digital

Pero si la tecnología es parte del problema, también puede -y debe- ser parte de la respuesta. En los últimos años, especialmente los colectivos feministas y LGBTIQA+ se han movilizado para hacer del entorno digital un espacio de resistencia y cuidado. Además de ofrecer servicios como líneas de ayuda para personas víctimas de violencia de género facilitada por las tecnologías, organizan campañas cuya pauta central es la autonomía sobre el propio cuerpo. Dos ejemplos importantes son: el movimiento Ni Una Menos, en Argentina, que desde 2015 articula protestas masivas tanto en las calles como en redes sociales contra los femicidios y las violencias machistas; y el movimiento colombiano Causa Justa, que utilizó estratégicamente plataformas digitales en la articulación del debate público que llevó a la despenalización del aborto por decisión de la Corte Constitucional en 2022.

El avance de la telemedicina para acceder a cuidados reproductivos seguros, como la interrupción voluntaria del embarazo, es otro ejemplo relevante de cómo las tecnologías pueden reforzar el ejercicio de la autonomía. En Brasil, dispositivos pioneros fueron clave para mitigar desigualdades territoriales en el acceso a servicios legales. De manera similar, en México, proyectos piloto demostraron que el aborto con medicamentos acompañado por telemedicina es seguro, eficaz y garantiza privacidad y autonomía para las usuarias. En países con sistemas de salud fragmentados o con profundas brechas territoriales -una característica común a toda América Latina-, estas iniciativas permitieron que más personas accedan a información confiable, acompañamiento profesional y atención oportuna, incluso en zonas donde los servicios presenciales son inexistentes o insuficientes.

La protección frente a las violencias de género facilitadas por las tecnologías

El 25 de noviembre es el Día Internacional para la Eliminación de la Violencia contra las Mujeres. El hito, instituido por la ONU en 1999, surge de la lucha feminista latinoamericana, en memoria del día del asesinato de las hermanas Mirabal en 1960, quienes se oponían a la dictadura en República Dominicana. En esta efeméride, es esencial recordar que eliminar la violencia de género implica también erradicar las violencias facilitadas por las tecnologías. Además, debe servir como un llamado urgente a fortalecer los marcos legales y las políticas públicas destinadas a enfrentar esta problemática.

Estos marcos deben partir de una perspectiva interseccional y basada en derechos humanos, e ir más allá de la criminalización y la punición de los agresores. Deben integrarse a otros encuadres preexistentes de prevención y protección frente a la violencia basada en género. También deben centrarse en las sobrevivientes y asegurar la capacitación de actores e instituciones para que puedan ofrecer respuestas sensibles y no revictimizantes a todas las personas que hayan sufrido violencias, tal como desarrolla el reporte Combating Technology-facilitated Gender-based Violence under the Lenses of International Human Rights Law, recientemente publicado por Derechos Digitales en alianza con el Fondo de Población de las Naciones Unidas (UNFPA). En el documento, analizamos marcos del derecho internacional de derechos humanos y legislaciones de ocho países sobre violencia de género facilitada por las tecnologías, para proponer directrices y caminos para enfrentar este fenómeno.

La lucha por la autonomía sobre el cuerpo y la lucha por la autonomía frente a las tecnologías de la información y comunicación están profundamente interconectadas. Ambas reivindican el derecho a decidir y experimentar entornos libres de acuerdo con esa decisión -ya sea respecto del propio cuerpo, de los datos personales o de la vida digital-. En una sociedad marcada por desigualdades de género persistentes, reconocer esta conexión es esencial para imaginar políticas que realmente protejan y amplíen las libertades y cuidados. Entre cuerpos y códigos, es necesario recordar que las tecnologías no crean las violencias de género, pero sí pueden reproducirlas o transformarlas. Que sigan siendo, entonces, cada vez más, herramientas de emancipación.

Combatir la violencia de género facilitada por tecnologías (VGFT) desde el enfoque del derecho internacional de los derechos humanos

Este documento, realizado con el apoyo de UNFPA, identifica vacíos comunes en distintas jurisdicciones sobre la violencia de género facilitada por tecnologías y sintetiza los principales desafíos conceptuales, estratégicos y legislativos. Elaborado con un enfoque interseccional y centrado en derechos humanos, este trabajo busca orientar futuras reformas legales y de política pública. Su propósito es apoyar a quienes diseñan políticas, investigan o defienden derechos en la construcción de marcos coherentes y garantes para prevenir, atender y reparar la VGFT.

Deepfakes: cuando las tecnologías promueven la violencia de género digital

Cada vez son más las noticias sobre casos de deepfakes en América Latina. Estas tecnologías, basadas en inteligencia artificial (IA), permiten crear imágenes falsas insertando el rostro de una persona en el cuerpo de otra, simulando situaciones que nunca ocurrieron, muchas veces de carácter sexual. En varios países de la región, se registraron casos particularmente alarmantes en colegios, donde niñas fueron víctimas de sus propios compañeros. Suelen utilizar estas herramientas para generar, compartir e incluso comercializar contenido sexual de sus compañeras. En los últimos años, los medios reportaron este tipo de hechos, principalmente en colegios privados de Perú, Ecuador, Brasil, Chile, Argentina y Guatemala, entre otros. Niños y adolescentes aprenden a explotar la tecnología para vulnerar a sus compañeras, mientras ellas quedan expuestas a una violencia para la que nadie tiene respuestas concretas.

Por su parte, la cobertura mediática sigue un patrón: los casos con mayor visibilidad provienen de colegios privados en zonas urbanas, pero eso no significa que sean los únicos. En un colegio de la Región del Maule, Chile, en una comuna fuera de los grandes centros urbanos, ocurrió un caso similar, por ejemplo. A diferencia de los anteriores, esta noticia no se encuentra fácilmente en internet y fueron las propias adolescentes quienes se vieron obligadas a denunciarlo en redes sociales.

En Latinoamérica, donde la mayoría de los colegios no pertenecen a élites, lo que llega a los medios representa solo una fracción de la realidad. Mientras algunos casos generan indignación, muchos otros quedan en el olvido, y en los contextos invisibilizados, las víctimas no reciben atención ni respuesta institucional.

En esta columna nos proponemos analizar qué rol están cumpliendo las aplicaciones de deepfake en América Latina en la proliferación de nuevas formas de violencia de género digital. A partir de estudios e investigaciones especializadas, indagamos las condiciones que las habilitan y las responsabilidades técnicas, políticas y económicas detrás de su funcionamiento, sin dejar de lado los desafíos urgentes que enfrenta la región para abordarlas.

Investigar el uso de apps de deepfake en América Latina

Los casos en colegios latinoamericanos mencionados evidencian un problema que trasciende lo técnico. La irrupción de este tipo de actos responde a un ecosistema digital que facilita su expansión sin considerar sus consecuencias. Según el informe State of Deepfakes 2023, el 98% del contenido deepfake disponible en línea tiene fines sexuales y el 99% de las personas representadas son mujeres. A esto se suma que el 48% de los hombres encuestados vio este tipo de contenido al menos una vez, y que el 74% no siente culpa por hacerlo.

Frente a esta realidad, grupos de investigación están tomando nota para poder reflejar conclusiones científicas y precisas. Junto a Situada, realicé una investigación para analizar el alcance de estas aplicaciones en la región, las condiciones que lo permiten y cómo su diseño facilita la violencia de género digital.

Para ello, se estudiaron 105 aplicaciones de deepfake publicadas en Google Play (Android), identificadas mediante una herramienta especialmente desarrollada para tal fin, la cual se conectaba a la tienda a través de una API. Gracias a esta conexión automatizada, pudimos recopilar información técnica y descriptiva de cada app, permitiendo observar patrones en su diseño y funcionalidad. El análisis de software suele centrarse en la usabilidad, pero es fundamental evaluar este tipo de tecnología más allá de lo técnico-comercial, desde una perspectiva ética, crítica y feminista.

Red flag: los hallazgos más preocupantes

La investigación de Situada detectó que el 89.5% de las aplicaciones de deepfake representan un riesgo para las mujeres, al facilitar la creación de contenido sexual no consensuado. El análisis reveló una combinación preocupante de factores sociotécnicos, lo cual se refleja en los principales hallazgos del estudio.

Uno de los primeros patrones identificados fue la falta de transparencia en el desarrollo de las apps: el 42.8% no indicaban su procedencia ni en Google Play ni en sus sitios web, dificultando la rendición de cuentas y sus motivaciones. Entre quienes sí reportaban autoría, se encontraron imágenes promocionales sexualizadas que refuerzan la objetivación de las mujeres. Además, se constató una clara brecha de género en los equipos que desarrollan estas apps, que refuerza la persistente falta de diversidad en el sector tecnológico.

Los hombres -especialmente del Norte Global- históricamente dominaron la innovación tecnológica, excluyendo las experiencias y necesidades de las mujeres. Esta dinámica fue ampliamente estudiada por autoras feministas que analizan cómo el diseño y la producción tecnológica reproducen desigualdades estructurales. Entre ellas, Judy Wajcman aportó conceptos clave en su libro “Tecnofeminismo”, donde explora cómo el desarrollo técnico está atravesado por relaciones de poder. Informes recientes de la UNESCO y Randstad confirman que menos del 30% de las personas que trabajan en IA son mujeres. Esta exclusión no responde solo a la falta de acceso o a las habilidades, sino a una cultura técnica masculinizada que condiciona lo que se diseña, para quién y con qué propósito.

Otro aspecto crítico identificado fue la clasificación que Google Play otorga a las aplicaciones. Esta tienda exige que todas las apps cuenten con una etiqueta de edad, asignada a través de un sistema gestionado por la Coalición Internacional de Clasificación por Edad (IARC por sus siglas en inglés). Para ello, los desarrolladores deben completar un formulario autodeclarativo y, en función de sus respuestas, se determina la categoría correspondiente (por ejemplo, “Mayores de 17 años”). Sin embargo, este mecanismo depende exclusivamente de la honestidad de quienes publican las apps. No hay verificación activa del contenido real de las aplicaciones. El análisis mostró que el 65.7% fueron clasificadas como “Apto para todo público”, pese a que se usan para la creación de contenido sexual no consentido. Clasificaciones que deberían proteger a las personas usuarias, terminan validando tecnologías dañinas bajo rótulos engañosos.

También se evidenció cómo estas herramientas operan bajo un modelo de negocio centrado en la rentabilidad. El 67.6% requiere un pago para desbloquear funciones principales y, aunque algunas ofrecen pruebas gratuitas, restringen la descarga hasta que se pague, incentivando la compra. Este modelo prioriza la rentabilidad por encima de cualquier principio ético, facilitando la explotación digital de los cuerpos de las mujeres. A esto se suma su facilidad de uso: el 96.2% fueron calificadas como intuitivas, incluso accesibles para personas sin experiencia técnica o dominio del idioma, lo que amplía su adopción.

Por otro lado, el análisis demostró que estos servicios en línea incorporan funciones que simulan besos o abrazos, normalizando la idea de que las mujeres pueden ser expuestas en situaciones íntimas sin su consentimiento. En los anuncios de estas aplicaciones, es común ver representaciones forzadas, casi siempre protagonizadas por un hombre, que utiliza una foto propia junto con la imagen de una mujer, reforzando dinámicas de control. Además, el uso de plantillas predefinidas contribuye a su hipersexualización: las opciones femeninas abundan en categorías como “Hot Bikini”, “Latex”, “Sexy Girl” o “Body Latino” (reforzando estereotipos fetichistas sobre las mujeres latinas), mientras que las plantillas masculinas son escasas y neutras.

Por último, las empresas detrás de estas aplicaciones eluden su responsabilidad legal a través de avisos en los que prohíben el uso de material no autorizado, pero dejan la ejecución en manos de la persona usuaria. Este hallazgo refleja que la estrategia legal no impide el daño, pero sí protege a las compañías que se benefician económicamente con estas prácticas. Al trasladar la carga moral exclusivamente a quien las utiliza, las empresas evaden su responsabilidad ética como diseñadoras de tecnología con impactos previsibles.

Una tendencia global reflejada en América Latina

Las conclusiones de esta investigación se inscriben en una tendencia global, de la cual América Latina no es ajena. Diversas organizaciones de la sociedad civil vienen advirtiendo que tecnologías como la deepfake forman parte de una creciente ola de violencia de género digital. En un informe reciente presentado a la ONU, desde Derechos Digitales, junto a otros grupos, señalamos que estas prácticas silencian voces y limitan la participación pública.

En la misma línea, Coding Rights documentó cómo ciertos servicios basados en IA imponen visiones patriarcales y coloniales sobre los cuerpos y decisiones de niñas y adolescentes en nuestra región. De forma similar, el Banco Interamericano de Desarrollo (BID) viene alertando sobre el uso de deepfake con fines de extorsión y humillación sexual, advirtiendo la ausencia de políticas regionales para enfrentar esta problemática.

En el plano legal, luego de recopilar casos de deepfake porn, activistas como Olimpia Coral insisten en que “la ley es insuficiente” y que es urgente capacitar a policías y fiscales para comprender estas tecnologías y atender adecuadamente a las víctimas. La evidencia también se manifiesta en el ámbito político. Un estudio de Fundación Karisma, en colaboración con ONU Mujeres, centrado en las elecciones legislativas de 2022, concluyó que la manipulación de información -incluyendo imágenes trucadas (deepfake) y suplantaciones- se convirtió en una forma de violencia digital contra candidatas mujeres. 

En conjunto, estos informes coinciden en lo que la investigación de Situada evidencia a nivel regional: las tecnologías de IA, cuando se desarrollan sin responsabilidad ética ni supervisión pública, reproducen violencias históricas hacia las mujeres

Neutralidad falsa: tecnologías que perpetúan la violencia de género 

Los resultados de estos análisis son alarmantes, pero no se comparan con el impacto en las mujeres afectadas. Mientras estas aplicaciones generan ganancias, las mujeres y niñas ven sus imágenes manipuladas y difundidas sin su consentimiento. Algunas temen salir de sus casas, otras sufren ansiedad y depresión, o son extorsionadas y revictimizadas por quienes minimizan el daño bajo la excusa de que “es solo IA” o “no es real”, ignorando que lo online tiene consecuencias en la vida offline.

Esta masificación no puede desvincularse de una economía de la conectividad que premia lo viral y convierte la exposición en capital. El número de descargas legitima estas prácticas como aceptables, invisibilizando sus impactos dañinos. Lo que ocurre en este mercado digital constituye una prolongación de la lógica patriarcal que trata los cuerpos de las mujeres como bienes disponibles para el deseo ajeno. Es una forma estructural de violencia donde la cosificación reduce a la mujer a objeto sexual y anula su agencia al servicio del placer masculino.

Plataformas como Google Play legitiman este ecosistema al permitir la circulación masiva de tecnologías que posibilitan agresiones simbólicas y sexuales sin consentimiento, bajo esquemas comerciales lucrativos. Responsabilizar únicamente a las personas usuarias es insuficiente. Se requiere cuestionar el sistema técnico, económico y normativo que habilita estas violencias.

El desafío no es solo denunciar, sino repensar la tecnología desde su raíz: reconocer que toda herramienta implica decisiones morales y políticas. Afrontar esta problemática requiere respuestas coordinadas: regulaciones con enfoque de género que obliguen a las plataformas a retirar contenidos no consentidos, y compromisos empresariales de transparencia que incorporen evaluaciones de impacto ético antes de publicar herramientas que puedan ser usadas para dañar. También es necesario avanzar en medidas de reparación integral para las víctimas, incluyendo apoyo psicosocial, acompañamiento jurídico y garantías de no repetición. Finalmente, promover una alfabetización digital crítica -especialmente entre jóvenes- puede prevenir estos usos violentos y construir una cultura digital basada en el respeto y el consentimiento. Avanzar hacia políticas públicas con perspectiva interseccional feminista y prácticas de desarrollo ético es una urgencia para garantizar que la innovación no se construya a costa de la dignidad de las personas.

Envejecer en un mundo hiperconectado: la ausencia de las personas mayores en las políticas digitales

La acelerada digitalización de nuestras sociedades trae consigo la incorporación de múltiples Tecnologías de la Información y la Comunicación (TIC) en la vida de las personas. Si bien el acceso a las mismas puede habilitar el ejercicio de nuestros derechos, existen marcadas diferencias en cómo se usan, apropian, entienden y experimentan entre la diversidad de personas usuarias. Esto genera capacidades y condiciones desiguales para su uso pleno, significativo, seguro y autónomo.

Uno de los grupos sociales que enfrenta mayores desafíos y desigualdades en el uso de las TIC son las personas mayores. Este grupo fue reconocido por la ONU como uno de los segmentos de la sociedad que requiere mayor atención, acompañamiento y cuidado para enfrentar los retos que plantea la creciente digitalización del mundo actual, y para reducir las barreras que les impiden aprovechar plenamente las herramientas tecnológicas en beneficio de su bienestar. Entre dichas barreras destacan la brecha digital y la alta exposición a ciberataques y amenazas en el ciberespacio.

En esta columna ahondaremos en la exclusión de las vejeces en políticas digitales, particularmente en las estrategias nacionales de ciberseguridad. Analizaremos las vulnerabilidades específicas que enfrentan en línea, reafirmando la importancia de proteger sus derechos a la autonomía, el cuidado y la no discriminación, esenciales para su integración y participación efectiva en la era digital.

América Latina, envejecimiento poblacional y desafíos de inclusión digital

Como hemos señalado anteriormente, desde una perspectiva interseccional la edad constituye una categoría fundamental a la hora de formular políticas sobre el diseño, despliegue y uso de las TIC. En esa línea, organismos regionales e internacionales ya reconocieron que los derechos humanos y las libertades fundamentales de las personas mayores deben ser garantizados a través de las políticas, planes, estrategias y legislaciones de los Estados. Además, de acuerdo con estudios sociales sobre esta temática, la inclusión de las personas mayores en el ámbito de las políticas públicas es tanto una cuestión demográfica como social.

Por un lado, la región atraviesa un proceso sostenido de envejecimiento poblacional desde inicios del siglo XXI. Se estima que para el año 2050, el 25% de la población en América Latina y el Caribe tendrá 65 años o más. Considerando la persistente brecha digital que enfrentan en la región, esta proyección debe ser tomada como una motivación crucial para impulsar políticas de inclusión digital que reconozcan la existencia de las vejeces como parte de la sociedad y respondan a sus propias necesidades, garantizando su participación en el mundo hiperconectado que habitamos.

Por otro lado, encontramos que los problemas asociados al envejecimiento fueron históricamente considerados como asuntos a resolver en el ámbito individual y privado. Sin embargo, se envejece en un contexto social y cultural específico que habilita u obstaculiza que se haga con plenitud, inclusión y en condiciones de equidad en el ejercicio de derechos. Se envejece siendo parte de un colectivo, por lo cual incorporar  a las personas mayores en las políticas públicas digitales implica reconocer su especificidad como grupo social.

Lejos de ser espectadoras pasivas de la transformación tecnológica, las vejeces merecen ejercer plenamente sus capacidades en la era digital, con autonomía y sin obstáculos técnicos e informativos que limiten su participación. Sin embargo, la calidad, la información y los conocimientos técnicos necesarios para ello siguen siendo escasos y poco adaptados a sus realidades, situándolas en una posición de desventaja para hacer un uso seguro de las tecnologías.

Estrategias nacionales de ciberseguridad: ¿alguien quiere pensar en las personas mayores?

De forma reiterada, vemos noticas que evidencian la frecuencia y gravedad de los ciberataques en la región, dirigidos tanto a personas como a instituciones. Hace una semana, por ejemplo, la información de 20 millones de personas pensionadas del Instituto Mexicano del Seguro Social fue divulgada y puesta a la venta en foros clandestinos, dejando a una gran cantidad de personas mayores expuestas a múltiples riesgos y métodos de estafa como el phishing. Este caso ilustra  no solo  la fragilidad de los sistemas estatales de almacenamiento de datos, sino también la vulnerabilidad en cascada de las vejeces allí registradas, denotando la imperiosa tarea de reforzar marcos de Derechos Humanos en el tratamiento de la ciberseguridad.

La visión clásica de la ciberseguridad enfocó sus esfuerzos principalmente en la protección del Estado y sus infraestructuras. Sin embargo, perspectivas de género e interseccionales en esta materia sugieren un cambio sistémico urgente en su abordaje, que centre las políticas y  estrategias en las personas, e integre las diversas realidades y necesidades de  sectores sociales que enfrentan amenazas y riesgos diferenciales en el espacio digital. Este giro en el enfoque es clave para garantizar el ejercicio efectivo de los  derechos en los entornos digitales; en particular de grupos históricamente excluidos como las mujeres, las personas de la comunidad LGBTQIA+ y las personas mayores.

A la fecha, de los 21 países de América Latina, 13 ya adoptaron estrategias nacionales de ciberseguridad. Pero sólo 3 (Brasil, Chile y Uruguay) tienen menciones explícitas en sus líneas de acción a las vejeces, y sólo 1 (la reciente estrategia del Paraguay) reconoce  la edad como una de las intersecciones a considerar a la hora de ejecutar políticas de protección para la ciudadanía en el ciberespacio. Ahora bien, ¿la mera referencia a las personas mayores es suficiente para hablar de inclusión? Como buena práctica, la estrategia de Chile contempla la alfabetización básica en ciberseguridad para este sector etario. De hecho, en su plan de acción, este sector es transversal a la mayoría de medidas a implementar, lo que permite concretar objetivos y responsables para cumplir lo que se plasmó en el documento de la estrategia. No obstante, en las demás políticas públicas mencionadas se habla de forma general sobre campañas de concientización en ciberseguridad que incluyen a las personas mayores, sin contar aún con medidas específicas o preferentes que respondan a sus necesidades particulares.

La exclusión que transita la vejez en la mayoría de estos marcos normativos refleja una preocupación señalada por organismos regionales de Derechos Humanos: el edadismo. Esta  forma de discriminación por razón de edad permanece enraizada cultural y jurídicamente en América Latina, exponiendo a este grupo social a diferentes formas de violencia, incluida la que ocurre en línea.

La creciente dependencia de nuestras sociedades en las TIC, así como la digitalización de servicios básicos y fundamentales, incrementa inevitablemente la exposición a riesgos y amenazas. En el caso de las vejeces, la brecha de conocimientos frente a la naturaleza y la sofisticación de los ciberataques las deja altamente desprotegidas, convirtiéndolas en el objetivo de ataques, estafas en su mayoría, caracterizados por la suplantación de identidad para robar información personal y financiera a través de emails, páginas web falsas, llamadas telefónicas, mensajes de texto, entre otros.

Podría afirmarse que, considerando el carácter socio-técnico de las tecnologías, y ante la evolución constante tanto de éstas, como de las violencias que amplifican, el envejecimiento conlleva una condición de vulnerabilidad desde la cual las personas mayores encuentran barreras para participar del cambio tecnológico y usar plena, autónoma y efectivamente las TIC. Debe quedar claro, sin embargo, que el problema no es envejecer; no es la vejez la que dificulta el ejercicio de los Derechos Humanos en los entornos digitales, es la concepción social, cultural y jurídica que los Estados de nuestra región mantienen frente a ella. Estas concepciones se traducen en la exclusión de las personas mayores de los procesos de formulación e implementación de las políticas públicas, restringiendo el pleno goce de sus derechos y desatendiendo sus necesidades y vivencias.

Derecho a la autonomía y al cuidado en los entornos digitales

Promover, proteger y garantizar el reconocimiento y ejercicio, en condiciones de igualdad, de los Derechos Humanos y libertades fundamentales de las personas mayores a través de las políticas digitales resulta esencial. Dos derechos particulares asociados a este grupo son especialmente importantes a la hora de formular marcos de política pública inclusivos: la autonomía y el cuidado.

A menudo, en las sociedades occidentales, las vejeces se ven despojadas de su capacidad para responder a las propias necesidades, expresar sus deseos, tomar decisiones y lograr sus metas, lo que limita las posibilidades de que ejerzan control sobre sus vidas o las vivan de forma autónoma. Así, la edad avanzada es relacionada con la pérdida de funcionalidad, con la dependencia física, mental, emocional y social, el cese de la vida productiva, dejándoles de tener en cuenta para tomar decisiones en ámbitos como el financiero, familiar o político. Es por esto que, según mecanismos regionales de Derechos Humanos, cualquier instrumento de política pública sobre los derechos de las personas mayores debe, en primer lugar, garantizarles la posibilidad de ser autónomas para gestionar sus proyectos vitales.

En un mundo hiperconectado, donde cada vez más actividades se realizan usando la tecnología, contar con conocimientos suficientes para comprender los procesos que se gestan en Internet, así como  las posibilidades y los riesgos que conlleva, no es sólo un asunto de ciberseguridad, sino también, y sobretodo, un tema de Derechos Humanos y autonomía para las personas mayores. Asegurar su independencia y sus posibilidades de participar e integrarse a las comunidades a través de las TIC debe ser un eje central de las políticas digitales.

Por otra parte, la creación de entornos digitales propicios y favorables para este grupo social resulta crucial para que puedan ejercer sus derechos sociales, económicos y culturales en condiciones de igualdad. Proteger su  autonomía e independencia en el espacio digital es una práctica de cuidado en consideración de sus demandas y características específicas. En la medida que las TIC sean parte de su vida cotidiana, es necesario extender las prácticas de cuidado y prevención que tradicionalmente acompañan otras esferas de la vida, también a lo que suceda en los entornos digitales.

La dimensión del cuidado acá mencionada tiene que ver con procurar el bienestar de las personas mayores sin despojarles de su agencia sino, más bien, acompañándoles en el ejercicio y mantenimiento de su autonomía al navegar y usar las tecnologías. Esta es una concepción del cuidado basada en crear condiciones para el bienestar reconociendo las diferencias y vulnerabilidades históricas de este sector etario. Por ejemplo, si se procura el cuidado y la protección de las personas mayores a través de la creación de entornos físicos, sociales y culturales que habiliten el ejercicio de sus derechos, ¿por qué no crear condiciones y desarrollar conocimientos para el disfrute de entornos digitales seguros y favorables? Esto se traduce en bienestar, en protección de la autonomía y, por tanto, en una práctica de cuidado.

Recientemente, la Corte Interamericana de Derechos Humanos reconoció el derecho autónomo al cuidado, entendiendo que constituye una necesidad básica, ineludible y universal, fundamental para una existencia digna, en especial de las personas en situación de vulnerabilidad. En relación con el derecho de las vejeces de recibir cuidados, la Corte sostuvo que los Estados deben adoptar medidas para garantizar su acceso y permanencia en servicios de cuidados de calidad, en consonancia con sus derechos a la autonomía, independencia, seguridad y a una vida libre de violencias. Esta consideración debe extenderse también al ámbito de las políticas digitales, donde este grupo etario requiere enfoques específicos y adecuados que incluyan plenamente sus necesidades, experiencias y capacidades. Las políticas públicas deben brindar mecanismos de apoyo y acompañamiento que garanticen un uso seguro, autónomo y sostenible de las TIC por parte de las personas mayores, fortaleciendo así el ejercicio de sus derechos en entornos digitales.

Sandboxes para la IA en países de América Latina y Europa

El uso de sandboxes o areneros regulatorios para inteligencia artificial se ha extendido en Europa y América Latina como espacios de prueba que prometen impulsar la innovación bajo excepciones regulatorias. Sin embargo, la evidencia muestra que su implementación varía según el contexto y no siempre garantiza entornos seguros de aprendizaje. Más preocupante aún es la ausencia de una mirada sobre los derechos humanos, que queda relegada frente a la prioridad de fomentar la innovación. Este informe analiza experiencias recientes y subraya la necesidad de mayor escrutinio, participación ciudadana y adaptación a realidades locales para que estas herramientas no reproduzcan desigualdades ni vulneren derechos fundamentales.

Infancias en línea: riesgos, regulaciones y desafíos para América Latina

En 2017, el Fondo de las Naciones Unidas para la Infancia (UNICEF) publicó la estimación de que 1 de cada 3 usuarios de internet en todo el mundo era niño, niña o adolescente. A pesar de que aún existen muchos jóvenes que no tienen un acceso significativo a internet – y de que esto constituye un problema de orden primario -, es posible que hoy, casi una década después, la proporción de personas con menos de 18 años en entornos digitales sea aún mayor. En la realidad latinoamericana, estadísticas de países como Brasil, Argentina y México muestran que niños, niñas y adolescentes no solo pasan cada vez más tiempo conectados, sino que también comienzan a acceder a internet a edades cada vez más tempranas.

El punto sobre el cual UNICEF venía alertando al menos desde 2017 es que la infraestructura y las aplicaciones de internet, en esencia, no fueron diseñadas para este público, ni evolucionaron considerando la etapa de desarrollo físico, cognitivo y psicosocial que atraviesan niños, niñas y adolescentes. A esto se suma la lógica de explotación comercial sobre la cual opera internet desde hace años, muy distante de aquella idea inicial de un espacio libre, abierto y creativo. Estos factores exponen a los más jóvenes a una serie de riesgos online, considerablemente más graves que para los usuarios adultos.

En los últimos meses, la discusión sobre estos temas se intensificó. En el Reino Unido entró en vigor un paquete de medidas regulatorias que coloca en el centro la protección infantil en línea. En Brasil, el debate ganó aún más visibilidad tras una denuncia sobre la “adultización” e hipersexualización de niños y adolescentes en entornos digitales. Ambos episodios muestran cómo la agenda de protección en internet se consolidó como un tema urgente en todo el mundo. Sin embargo, es importante reflexionarlo desde una perspectiva localizada desde el contexto latinoamericano.

Niños y adolescentes están, de hecho, en riesgo en internet

La OCDE clasifica los riesgos a los que están expuestos niños, niñas y adolescentes en internet en cuatro categorías – las “4 C’s”. La primera son los riesgos de exposición a contenido inadecuado, como materiales nocivos, discursos de odio, desinformación u otros contenidos ilegales. Aquí entra, por ejemplo, la exposición a la pornografía, con consecuencias que van desde la erotización precoz hasta el estímulo a la violencia y la reproducción de estigmas de género. También entra el acceso a juegos de azar, un problema creciente en América Latina.

La segunda categoría son los riesgos de conducta, que abarcan aquellos creados por las propias interacciones de los niños en entornos digitales. Pueden manifestarse en comportamientos odiosos o nocivos, como el ciberacoso o la automutilación, muchas veces incentivados por el diseño de las plataformas y la viralización de ciertos contenidos. A comienzos de 2025, por ejemplo, una niña de 8 años murió en Brasil tras inhalar desodorante en aerosol en un reto de TikTok.

El tercer grupo son los riesgos de contacto, cuando niños y adolescentes son expuestos a interacciones dañinas o criminales con terceros adultos. Estos encuentros pueden ir desde situaciones de acoso hasta casos de explotación sexual infantil. Recientemente, en Estados Unidos, la fiscalía de Lousiana demandó a la plataforma de juegos Roblox, muy popular entre el público infantil, por no implementar mecanismos básicos de seguridad, lo que habría permitido que pedófilos se hicieran pasar por niños y entablaran interacciones malintencionadas a través del chat.

La cuarta dimensión son los riesgos de consumo, ligados al perfilado comercial y la inducción de gastos, parte estructural del modelo de negocio de las grandes plataformas digitales. Niños y adolescentes, en proceso de desarrollo, carecen hasta cierta edad de herramientas para distinguir publicidad de contenido orgánico. Incluso siendo ya un poco más viejos, no cuentan con recursos suficientes para lidiar con las presiones comerciales. Las prácticas de perfilamiento, como ya denunciaron distintos whistleblowers, han sido utilizadas por plataformas para aprovechar la vulnerabilidad emocional de adolescentes (sobre todo niñas). Entre sus prácticas está la promoción de contenidos que estimulan distorsiones corporales para mantenerlas enganchadas, aun con pleno conocimiento de sus efectos nocivos en la salud mental.

La OCDE señala, además, que existen riesgos transversales, como la pérdida de privacidad, la salud física y mental y los derivados de tecnologías digitales avanzadas o biométricas. Temas como el sharenting, los sesgos de los sistemas de inteligencia artificial y los impactos del uso excesivo de redes sociales en el sedentarismo juvenil entran en esta categoría. Casos recientes publicados en la prensa, como la denuncia de las ganancias de YouTube con contenidos abusivos sobre niños, muestran cómo estas dimensiones se combinan y retroalimentan.

Es esencial reconocer estos riesgos, así como el hecho de que pueden afectar de manera trágica el desarrollo de una persona en formación. También es importante destacar que no recaen de forma homogénea: estudios comparativos señalan que las plataformas aplican reglas más laxas en países del Sur Global. En América Latina, niños indígenas y afrodescendientes tienen menos acceso tanto a internet como a educación formal, incluida la educación digital. Además, en un contexto en el que las plataformas digitales lucran con la vulneración de derechos, la carga del cuidado recae de forma desproporcionada en las familias y, especialmente, en las madres. En una región con altas tasas de maternidad en solitario y bajos niveles de alfabetización digital, muchas mujeres no cuentan con el tiempo ni con las herramientas necesarias para acompañar la navegación segura de sus hijos, lo que los vuelve aún más vulnerables.

 La respuesta regulatoria

No es en vano que, sobre todo en los últimos cinco años, este tema comenzó a recibir creciente atención de reguladores en todo el mundo. En 2020, el Comité de los Derechos del Niño de la ONU redactó la versión final de su Observación General 25 relativa a los derechos de los niños en relación con el entorno digital, aprobándola a comienzos de 2021. El documento representó un hito en el derecho internacional de los derechos humanos, al interpretar la Convención sobre los Derechos del Niño de 1989 a la luz de los avances tecnológicos, reafirmando que todos los derechos de niños, niñas y adolescentes se extienden también al entorno digital. Conviene recordar que la Convención de 1989 es el tratado internacional más ratificado del mundo, y que instauró la doctrina de la protección integral, reconociendo a todas las personas con menos de 18 años como sujetos de derechos, con autonomía progresiva para su ejercicio, y, por lo tanto, debiendo ser promovidos y protegidos en todos los espacios.

2021 también marcó la aprobación del Age Appropriate Design Code por el ICO del Reino Unido, que estableció estándares de diseño para productos y servicios digitales destinados o con alta probabilidad de ser utilizados por niños y adolescentes. La iniciativa inspiró en los años siguientes diversas medidas por parte de autoridades de protección de datos, especialmente en Europa, como en Suecia e Irlanda. El Digital Services Act (DSA), aprobado en 2023 en la Unión Europea, también tiene reglas específicas para el grupo, señalando el principio de su mejor interés para el desarrollo de servicios digitales y reglas diferenciadas para el tratamiento de sus datos.

En 2024, Australia aprobó una ley inédita que prohíbe el acceso de personas con menos de 16 años a redes sociales y la Unión Africana adoptó directrices para la protección en línea de niños, niñas y adolescentes. La discusión también ganó fuerza en los Estados Unidos, donde ya recibió media sanción el Kids Online Safety Act (KOSA), aunque bajo apoyo desde argumentos problemáticos de políticos conservadores, como la protección de niños a “contenidos LGBT”. En 2025, nuevamente el Reino Unido, esta vez a través de la Ofcom, publicó una serie de directrices condensadas en los ya mencionados Protection of Children Codes and Guidance.

Estas iniciativas también resonaron en América Latina. En julio de 2025, Colombia aprobó la Ley 2489, “por medio de la cual se establecen disposiciones para el desarrollo de entornos digitales sanos y seguros para los niños, niñas y adolescentes del país”. En Brasil, desde 2022 se debate en el Congreso Nacional el Proyecto de Ley nº 2628,  que también establece reglas específicas para la protección de los más jóvenes en internet. El texto fue aprobado en el Senado a finales de 2024 y recién aprobado también en la Cámara de los Diputados, en agosto de 2025. Ahora vuelve al Senado para aprobación final, incluyendo dispositivos como la prohibición del uso de datos de personas con menos de 18 años para publicidad comportamental, además de previsiones sobre supervisión parental, vedación de acceso a contenidos dañinos y rendición de cuentas por parte de las aplicaciones digitales. Su tramitación recobró fuerza en agosto de este año, tras la referida denuncia del influencer Felca digital sobre la adultización e hipersexualización de niños y adolescentes en internet.

Un punto común de estas iniciativas regulatorias es establecer reglas diferenciadas para el uso de entornos digitales por parte de niños y adolescentes, ya sea en relación con los contenidos a los que pueden (o no) acceder, o en relación con prácticas de diseño y extracción de datos. Para que esa diferenciación ocurra en la práctica, gobiernos y empresas que proveen servicios digitales señalan que es necesario poder identificar quiénes son las personas con menos de 18 años en internet. En este contexto, aun cuando no aparezcan de forma explícita en todas las normativas recientes, la implementación de mecanismos de verificación de edad ha pasado a ser considerada una puerta de entrada esencial para la defensa de la infancia.

Informes de autoridades y análisis recientes hablan de una “ola global” de sistemas de verificación de edad en toda internet, donde la protección de la infancia se presenta como justificación para extender controles de identidad a todos los usuarios, incluso en aplicaciones que no son consideradas de alto riesgo. Esta tendencia recuerda al debate de la última década que oponía la defensa de la criptografía fuerte al combate contra la circulación de material de abuso sexual infantil, dividiendo en grupos opuestos, de manera simplista, a defensores de la privacidad y defensores de la infancia.

Más allá de soluciones fáciles

Esa falsa oposición plantea trampas que empobrecen el debate y dificultan la búsqueda de soluciones. Tiene, al menos, dos problemas centrales. El primero es no reconocer que niños y adolescentes, como sujetos de derechos, también tienen derecho a la privacidad y deben poder ejercerlo en el marco de su autonomía progresiva. Si pensamos en quienes viven en contextos familiares o comunitarios represivos, buscando información sobre su sexualidad o identidad de género, por ejemplo, este derecho se vuelve aún más importante.

Extender mecanismos de verificación de edad de manera indiscriminada altera la estructura de internet y puede afectar también a las propias infancias. No se trata de sacrificar las características fundamentales de la red como el acceso abierto y el anonimato relativo en nombre de su protección, porque ellas también se benefician de estas condiciones. El desafío es matizar el debate y reconocer las tensiones en juego, incluyendo en las discusiones regulatorias también agentes técnicos que puedan apoyar a desarrollar estos matices.

El segundo problema es desconsiderar que las tecnologías operan dentro de entramados sociotécnicos complejos. Así como no son, de manera aislada, la raíz de los riesgos que enfrentan niños y adolescentes, tampoco serán, de manera aislada, la solución.

Debemos discutir seriamente temas como la cultura de la violación y la ausencia de educación sexual en las escuelas, y cómo estas problemáticas atraviesan desigualdades de género y raza. En América Latina, entre 2018 y 2022, casi 490.000 niñas con menos de 18 años fueron víctimas de delitos contra su dignidad sexual, un dato que evidencia la urgencia de ese debate. Además, es necesario debatir el modelo económico que sostiene internet: el capitalismo de vigilancia. Un sistema nocivo para todos los usuarios, pero que impacta de manera particularmente severa a niños, niñas y adolescentes.

Estamos en un potencial punto de inflexión en la forma en que se estructura la internet y circulan sus usuarios. El debate sobre la protección de las infancias es indispensable, pero no puede reducirse a fórmulas simplistas ni a la falsa oposición entre privacidad y seguridad. América Latina no debe importar soluciones regulatorias prefabricadas sin crítica, sino comprometerse en un proyecto político y social que coloque a niños, niñas y adolescentes en toda su diversidad en el centro de un futuro digital verdaderamente justo.

Contribución a la consulta abierta del Grupo de Trabajo del Consejo de la UIT sobre Internet (CWG-Internet) sobre conectividad significativa en países en desarrollo sin litoral

En el marco de los procesos de consulta abierta del Grupo de Trabajo del Consejo de la UIT sobre Internet (CWG-Internet) presentamos, junto con TEDIC, esta contribución sobre conectividad significativa en países en desarrollo sin litoral. En las Américas sólo dos países responden a tal categoría, Bolivia y Paraguay. En este documento sostenemos que la conectividad significativa habilita el ejercicio de los derechos humanos, y ofrecemos un análisis contextual evaluando los desafíos y las estrategias para avanzar hacia marcos de conectividad significativa en Bolivia y Paraguay desde una perspectiva de derechos humanos e interseccional.