La militarización de la inteligencia artificial: violencia de género en contextos de guerra y conflicto armado

Esta columna fue publicada originalmente en Volcánicas

En un contexto marcado por una acelerada escalada de tensiones geopolíticas, el debilitamiento del sistema multilateral y un creciente desprecio por las normas internacionales, el mundo presencia la expansión de guerras, conflictos armados e intervenciones militares ilegales de enorme impacto para las poblaciones civiles. Al mismo tiempo, la IA se ha convertido en uno de los ejes centrales del discurso político y corporativo global.

La competencia por su desarrollo y control no solo enfrenta a gobiernos y grandes empresas tecnológicas, sino que también revela tensiones más profundas vinculadas al poder global, la seguridad y el futuro del ejercicio de los derechos humanos.

Entre las consecuencias más urgentes -y menos reguladas- del despliegue acelerado de estos sistemas se encuentra el aumento de formas de violencia de género facilitadas por tecnologías (VG FT). Observamos la aparición y expansión de prácticas como el acoso automatizado, la creación de imágenes íntimas falsas mediante modelos generativos, campañas de desinformación con sesgo de género, y formas cada vez más invasivas de vigilancia digital. A la vez, la gobernanza de estas tecnologías sigue estando profundamente fragmentada: mientras los marcos regulatorios sobre IA rara vez incorporan los riesgos específicos asociados a la violencia de género, las políticas dirigidas a abordar la VG FT todavía no integran plenamente los impactos de estos sistemas.

En este escenario, el desarrollo y despliegue de IA se entrelaza cada vez más con dinámicas de militarización y guerra. Este 8 de marzo nos obliga, por tanto, a mirar de frente una dimensión todavía insuficientemente abordada: la VG FT en contextos de guerra y conflictos armados.

Una aplicación incompatible con los derechos humanos

El despliegue de tecnologías basadas en IA en contextos de guerra y de conflicto armado no solo ya es un hecho, sino que continúa expandiéndose. Se utilizan, por ejemplo, para vigilancia masiva, análisis predictivo de amenazas, sistemas de armas autónomos y localización de “objetivos”.

Como han advertido numerosas expertas y organizaciones, los sistemas de IA no pueden evaluar adecuadamente principios fundamentales del derecho internacional humanitario, como la distinción entre combatientes y civiles o la proporcionalidad de un ataque. A esto se suman las implicancias para los mecanismos de responsabilidad y rendición de cuentas, ya de por sí difíciles de ejercer en estos contextos.

Como ocurre con muchas aplicaciones de IA, su incorporación suele justificarse en términos de eficacia. Pero: ¿qué significa “eficacia” en este contexto? ¿Puede hablarse de eficacia cuando se trata de sistemas utilizados para identificar, vigilar y atacar a personas? ¿Qué tipo de acción se considera eficaz en un escenario donde el resultado final es la expansión de la violencia? Si se parte de la premisa de que la eficacia depende del objetivo que se busca alcanzar, estudios señalan que estos sistemas están muy lejos de ser eficaces respecto a los objetivos que se les asignan.

Cuando sesgos y errores incorporados en el diseño de la IA se traducen en fallas al identificar objetivos, el costo recae literalmente sobre vidas humanas. La preocupación no se limita a fallos técnicos. En completa ausencia de reglas y límites, esos sistemas a veces son diseñados para identificar y atacar a personas que presenten determinados “marcadores”.

En cualquiera de estos escenarios, la noción misma de eficacia queda profundamente cuestionada. Si los sistemas fallan, el resultado es la muerte de personas que nunca debieron ser consideradas objetivos. Si funcionan como fueron diseñados, identifican y atacan a personas en función de su identidad. En ambos casos, lo que está en juego es la legitimidad misma de estos sistemas y su compatibilidad con el derecho internacional.

También se suele afirmar que estas tecnologías permitirían reducir las bajas civiles gracias a ataques supuestamente más “precisos”. El genocidio en Gaza ofrece un contraste brutal con ese argumento. A pocos meses del inicio del ataque militar por parte de Israel, expertas y expertos de Naciones Unidas advertían que se había destruido “un porcentaje mayor de viviendas e infraestructura civil que en cualquier otro conflicto que se recuerde”. En ese mismo contexto, señalaron el presunto uso de sistemas de IA para identificar objetivos y atacar viviendas familiares, con escasa consideración por la presencia de civiles en su interior o en sus alrededores.

Investigaciones periodísticas posteriores confirmaron el uso de IA por parte del ejército israelí en Gaza. Entre ellos destacan, por su carácter particularmente perverso, los sistemas conocidos como Lavender, Gospel y Where’s Daddy? (¿Dónde está papi?). Según reportes del Instituto de Estudios Palestinos, estos sistemas procesan enormes volúmenes de datos obtenidos a partir de años de vigilancia masiva sobre la población palestina que es utilizada para generar listas de personas y estructuras consideradas objetivos.

Mientras el sistema conocido como Gospel “recomienda” edificios e infraestructuras para ser bombardeadas, Lavender identifica personas como objetivos potenciales. Un sistema adicional, Where’s Daddy?, se utiliza específicamente para rastrear a las personas señaladas y ejecutar bombardeos cuando estas ingresan a su destino, el cual muchas veces es su vivienda familiar.

Según testimonios de agentes de inteligencia israelíes, la validación previa a autorizar un ataque podía durar alrededor de veinte segundos. Ese breve intervalo se utilizaba principalmente para comprobar si la persona señalada por el sistema era un hombre, usando al género como indicador de posible “combatiente”. No está claro si se trata de un procedimiento formalizado o de una práctica extendida dentro de las unidades involucradas.

Las consecuencias de este tipo de prácticas han sido devastadoras, siendo la mayoría de las personas asesinadas mujeres y niños. Lejos de proteger a la población civil, estos sistemas amplían la capacidad de identificar y atacar personas y aceleran el uso de la fuerza.

El uso de IA con fines militares se extiende a otros contextos y regiones del mundo. Según reportes periodísticos, Claude habría sido utilizado como apoyo en la invasión militar ilegal liderada por Estados Unidos en Venezuela en enero de este año, poniendo en evidencia que las implicaciones de estas tecnologías también alcanzan a América Latina.

La combinación de IA, vigilancia persistente y procesamiento masivo de datos en tiempo real configura nuevas formas de intervención basadas en la asimetría tecnológica y la superioridad informacional. Comprender esta lógica resulta crucial para América Latina y el Caribe, donde en los últimos años se han intensificado acuerdos militares, despliegues “temporarios” de tropas y sistemas de monitoreo vinculados a Estados Unidos en distintos países de la región.

La geopolítica detrás de la inteligencia artificial

El desarrollo y uso militar de la IA tiene como trasfondo una carrera tecnológica que asocia su desarrollo con la “dominación global” en una versión de la carrera armamentista en la Guerra Fría. Central a tal proceso es el desmantelamiento de legislaciones orientadas a generar protecciones. En el caso estadounidense, los documentos oficiales son explícitos al afirmar que quien controle el ecosistema de IA podrá fijar las reglas globales y obtener ventajas económicas y militares.

Los procesos multilaterales capaces de poner límites a tal lógica han fallado, como fue el caso del Pacto para el Futuro, adoptado en 2024 y presentado como una iniciativa para fortalecer el sistema internacional frente a los desafíos del siglo XXI. A pesar de que las bases normativas ya existen dentro del propio sistema internacional de derechos humanos, incluyendo la Resolución 48/4 del Consejo de Derechos Humanos y el informe del Alto Comisionado de las Naciones Unidas para los Derechos Humanos, que recomiendan establecer moratorias o incluso prohibiciones para sistemas de IA que no puedan utilizarse en conformidad con el derecho internacional.

No resulta sorprendente -aunque no por ello deja de ser indignante- que las iniciativas derivadas de este proceso se inscriban en esa misma falta de voluntad política para establecer límites efectivos. El Panel Científico Internacional Independiente sobre Inteligencia Artificial, creado a partir del Pacto para el Futuro para evaluar los impactos y riesgos de estas tecnologías, establece explícitamente que su mandato se limitará al ámbito no militar, asegurando así que una de las discusiones más urgentes sobre estas tecnologías quede deliberadamente fuera del análisis.

Las grandes empresas tecnológicas desempeñan un papel central en esta estructura. A través de crecientes alianzas público-privadas, contribuyen a consolidar dinámicas de poder cada vez más autoritarias y asociadas a prácticas abusivas de derechos humanos. Este poder se sustenta no solo en la enorme concentración económica e informacional que acumulan -facilitada en gran medida por la desregulación del sector-, sino también en la creciente convergencia entre intereses corporativos y estatales, que se proyecta de forma cada vez más evidente en la arena militar.

En un reciente informe, la Relatora Especial de Naciones Unidas sobre la situación de los derechos humanos en los territorios palestinos ocupados identificó 48 compañías globales que apoyarían directa o indirectamente el genocidio en Gaza. Según Albanese, la continuidad de esta violencia no puede comprenderse sin considerar también los incentivos económicos que la sostienen: el genocidio, advierte, también es rentable.

Perspectivas feministas frente a la militarización de la IA

La incorporación de IA en actividades militares está transformando las formas en que se produce y se ejerce la violencia de género en contextos de conflicto armado y crisis humanitarias. Sin embargo, el análisis de los conflictos y de los procesos de paz continúa estando dominado por perspectivas patriarcales que invisibilizan las afectaciones diferenciadas que enfrentan las mujeres, así como las contribuciones que los movimientos de mujeres han realizado en la construcción de la paz.

Abordar estas dinámicas desde una perspectiva de género implica reconocer dos dimensiones interrelacionadas. Por un lado, la militarización tecnológica profundiza violencias ya presentes en contextos de guerra, donde las desigualdades estructurales se intensifican y las violaciones de derechos humanos contra mujeres y niñas adquieren formas particularmente graves. Por otro, la incorporación de sistemas basados en IA está dando lugar a nuevas formas de violencia, lo que vuelve urgente ampliar los marcos desde los cuales se las analizan.

Para entender la violencia de género facilitada por tecnologías es recomendable incorporar factores contextuales desde una perspectiva interseccional que permita comprender estas violencias de manera situada. Las formas que adoptan tales violencias no son universales ni se experimentan de la misma manera en todos los territorios; están atravesadas por desigualdades sociales, culturales y políticas que configuran tanto las dinámicas de violencia como las posibilidades de respuesta.

Los ejemplos son múltiples. Entre ellos se encuentran campañas de desinformación generadas o amplificadas mediante IA, ataques dirigidos contra mujeres a través de contenidos como deepfakes -utilizados para desacreditar o silenciar a figuras públicas y activistas-, y el despliegue de tecnologías biométricas y de reconocimiento facial que permiten rastrear e identificar poblaciones enteras sin salvaguardias adecuadas. Estas herramientas, a menudo presentadas como neutrales o necesarias para la seguridad o la gestión humanitaria, pueden exponer especialmente a mujeres activistas y a otras comunidades en situación de vulnerabilidad.

Como evidencia el caso de Gaza, estos sistemas también interactúan con categorías simplificadas de género. Programas utilizados para identificar y rastrear objetivos han operado en gran medida a partir de marcadores binarios de género (hombre es igual a “combatiente”), aunque contribuyendo en la práctica a ataques que terminan afectando de manera desproporcionada a mujeres y niños. Este patrón se inserta, además, en un contexto más amplio de violencia basada en género documentado por organismos internacionales, incluyendo la destrucción de servicios de salud reproductiva y otras prácticas que diversas expertas han descrito como parte de un proceso de femigenocidio.

Organizaciones humanitarias han advertido que el uso de sistemas digitales en contextos militares puede acelerar el ritmo de la guerra, reduciendo los tiempos de deliberación y debilitando los mecanismos de control humano sobre el uso de la fuerza. En escenarios ya marcados por altos niveles de violencia y deshumanización, esta aceleración incrementa los daños para la población civil y amplifica patrones preexistentes de discriminación, exclusión y violencia de género.

Frente a este panorama, resulta urgente ampliar los marcos desde los cuales comprendemos la violencia de género facilitada por tecnologías, incorporando las dinámicas de militarización, colonialismo y desigualdad global que atraviesan el desarrollo y despliegue de estas tecnologías. Al mismo tiempo, la evidencia acumulada refuerza la necesidad de establecer límites claros al uso de IA con fines militares. Sistemas que no pueden operar en conformidad con el derecho internacional humanitario y el derecho internacional de los derechos humanos deberían ser prohibidos.

Este 8 de marzo nos recuerda que las luchas feministas han sido fundamentales para cuestionar las lógicas de violencia, militarización y dominación que atraviesan nuestras sociedades. Frente a la expansión de la militarización de la IA, incorporar perspectivas feministas no es opcional: es una condición fundamental para comprender sus impactos reales y para imaginar alternativas que pongan a la vida -y no a la violencia- en el centro.

La erosión de la libertad de expresión en Costa Rica

Durante décadas, Costa Rica se presentó como una excepción democrática en Centroamérica, un país donde los derechos humanos se consolidaron frente a escenarios de inestabilidad en la región. Sin embargo, en los últimos años ese relato se ha tensionado en torno a la libertad de expresión. El país no está viviendo una ruptura autoritaria abrupta, sino una erosión progresiva que combina hostilidad política, vacíos legales y normalización social del silenciamiento.

La Clasificación Mundial de Libertad de Expresión de Reporteros Sin Fronteras muestra una caída progresiva: del 8° lugar en 2022, al 23° en 2023, 26° en 2024 y 36° en 2025, lo que representa el mayor retroceso en su trayectoria reciente. Este descenso no ocurre en abstracto: diversas coberturas periodísticas y análisis indican que durante el gobierno del presidente saliente Rodrigo Chaves Robles se impulsó una línea de confrontación con medios y periodistas, manifestada en ataques verbales, estigmatización de la prensa, presiones económicas y restricciones al acceso a la información pública que alimentan un clima de hostilidad, poco común en la historia del país.

Señales persistentes de presión sobre el ecosistema informativo y digital

En los años recientes, se vienen dando episodios que configuran un patrón reconocible de presión a la prensa. Uno de ellos fue la subasta de frecuencias de radio y televisión que generó fuertes cuestionamientos por su posible impacto en el pluralismo informativo y el acceso equitativo al espectro radioeléctrico. A esto se suman incidentes donde periodistas de medios digitales, especializados en verificación de datos, fueron objeto de restricciones o tratos diferenciados durante conferencias de prensa del Ejecutivo. En estos casos, la Sala Constitucional reconoció que estas prácticas vulneraban el ejercicio libre del periodismo.

Otro suceso fue el retiro de pauta estatal a un medio de comunicación luego de la publicación de contenidos satíricos sobre el gobierno. Según el Informe Nacional sobre Prácticas de Derechos Humanos 2024 del Departamento de Estado de EE. UU., se indica que la acción configuró una forma indirecta de sanción económica.

Esta rotura está teniendo repercusiones concretas en la percepción social y en las prácticas comunicativas de la ciudadanía. Los datos de la III Encuesta sobre Libertad de Expresión (Proledi-UCR 2025) revelan que más de la mitad de la población percibe un deterioro en su libertad de expresión y declara haber evitado expresar opiniones en redes sociales por temor a represalias o consecuencias. La percepción de censura y autocensura está en los niveles máximos de los últimos tres años, marcando el pulso de un entorno en el que internet y las plataformas digitales se convierten tanto en espacios esenciales de discusión como en territorios de riesgo para quienes discrepamos o criticamos al poder.

Costa Rica atrapada en la ola autoritaria

Las recientes elecciones del 1 de febrero marcaron un punto de inflexión en la política costarricense. La candidata oficialista Laura Fernández (aliada política y exministra de Chaves) logró una victoria en primera vuelta con alrededor del 51% de los sufragios, superando al principal contendiente de la oposición y evitando la segunda ronda.

Más allá del resultado de la votación, lo que preocupa es la consolidación de un clima político que debilita los contrapesos democráticos. La normalización del ataque a la prensa, la deslegitimación sistemática de voces críticas y la construcción de enemigos internos son rasgos ampliamente documentados en procesos de autoritarismo en la región. Que estas prácticas encuentren respaldo electoral en Costa Rica marca un quiebre en el país.

Sin equipararse aún a los escenarios más extremos, el gobierno costarricense comienza a reproducir patrones conocidos en los países centroamericanos. Desde Derechos Digitales lo hemos alertado. En el caso de El Salvador, por ejemplo, se dieron exilios masivos de periodistas y organizaciones de la sociedad civil en 2025, una situación que resuena más allá de sus fronteras y evidencia la fragilidad de la libertad de expresión cuando se normalizan narrativas de control por encima del debate crítico. En Honduras o Nicaragua, los medios enfrentan no solo presiones económicas y legales sino amenazas directas, lo que pone en perspectiva la preocupación costarricense como parte de un denominador común más amplio en la región.

El informe de la Fundación Heinrich Böll sobre libertad de expresión en Centroamérica evidencia que Guatemala, Honduras, El Salvador y Nicaragua ocupan posiciones muy bajas en los índices internacionales, reflejando contextos donde censura, criminalización del periodismo y violencia contra comunicadores son fenómenos recurrentes, y donde muchas veces no queda medio independiente alguno.

El escenario electoral de 2026 consolidó prácticas y narrativas que proyectan sus efectos más allá del ciclo electoral.

Derechos reconocidos, protecciones insuficientes

En términos generales, la libertad de expresión y de prensa en Costa Rica cuenta con una protección normativa robusta. La Constitución Política reconoce el derecho a la libre comunicación del pensamiento sin censura previa y prohíbe cualquier forma de restricción indirecta. A ello se suma la adhesión del país a instrumentos internacionales como la Convención Americana sobre Derechos Humanos y la Declaración de Principios sobre Libertad de Expresión, que obligan al Estado no solo a abstenerse de censurar, sino a garantizar condiciones efectivas para su ejercicio libre y seguro.

Sin embargo, esta solidez no se traduce en un desarrollo legislativo integral que permita enfrentar los desafíos contemporáneos. Como se evidenció en los casos registrados anteriormente, el rol de la Sala Constitucional fue clave para contener algunas de las amenazas más evidentes. Estos fallos funcionaron como un contrapeso institucional frente a decisiones administrativas y prácticas gubernamentales que, de otro modo, habrían consolidado restricciones indirectas al ejercicio periodístico. Pero el rol de la Sala Constitucional como principal barrera de protección también evidencia que se depende cada vez más de la judicialización posterior, y no de políticas públicas preventivas.

A las alertas señaladas, se suma la evaluación de la Sociedad Interamericana de Prensa (SIP), que en 2025 señaló la existencia de un “ambiente de creciente deterioro de la libertad de expresión” en Costa Rica, marcado por el hostigamiento en redes sociales a personas críticas del gobierno y por el uso discrecional de recursos públicos como la pauta oficial. Estas prácticas, aun cuando no constituyen censura directa, generan un efecto inhibidor para la autoexpresión.

Diversas organizaciones de la sociedad civil vienen planteando una advertencia: el marco legal costarricense resulta insuficiente para abordar la violencia digital. Informes como Freedom on the Net 2024 subrayan que, las referencias a internet se resuelven caso por caso a partir de derechos tradicionales, sin una tipificación clara ni mecanismos procesales adecuados para enfrentar violencias en plataformas digitales, lo que deja amplios márgenes de impunidad y desprotección.

Esta brecha entre el reconocimiento normativo y la protección efectiva fue documentada también por otras organizaciones especializadas. El informe Libertad de Expresión en Costa Rica 2024 de la Universidad para la Paz advierte que las agresiones al ejercicio periodístico se reproducen y amplifican en entornos digitales, donde se organizan campañas de descrédito, se normaliza la intimidación y no se dan las condiciones para un debate público libre. En una línea complementaria, el Informe Alternativo del Examen Periódico Universal (EPU), elaborado por Sulá Batsú y CEJIL, señala un aumento sostenido de violencia digital de género y ataques de odio en línea dirigidos particularmente a mujeres periodistas y defensoras.

Sobre este tema, el trabajo de Derechos Digitales refuerza que estas dinámicas afectan de manera diferenciada a mujeres y personas LGBTIQA+, ya que restringe la participación pública y reproduce desigualdades estructurales en el entorno digital. Recientemente, junto al Fondo de Población de las Naciones Unidas (UNFPA), se propusieron principios orientadores para reformas legislativas y políticas públicas, que apuntan a transformar no solo el reconocimiento normativo, sino también las capacidades estatales y sociales necesarias para proteger y garantizar la libertad de expresión en espacios digitales de forma efectiva y con perspectiva de derechos humanos.

Fortalecer la libertad de expresión en medio de la erosión democrática

En América Latina, el debilitamiento de la libertad de expresión se convirtió en una de las primeras señales de tendencia autoritaria, la experiencia en nuestros territorios demuestra que su desgaste rara vez comienza con censura directa. Costa Rica todavía cuenta con instituciones, estándares y capacidades para revertirlo, pero esa ventana no es indefinida.

Asumir que la libertad de expresión está garantizada por inercia es uno de los riesgos más altos del momento actual. Para fortalecerla no basta con invocar la tradición democrática ni confiar exclusivamente en la fortaleza institucional heredada.

Implica asumir responsabilidades concretas: actualizar el marco legal para enfrentar violencias digitales sin criminalizar la expresión, establecer reglas claras y transparentes para la comunicación estatal, garantizar mecanismos efectivos de protección a periodistas y personas comunicadoras, y reconocer que las plataformas digitales son hoy infraestructuras políticas que requieren regulación con enfoque de derechos humanos.

Diversidad cultural bajo asedio algorítmico: folklorización, silenciamiento y colonización de nuestros patrimonios culturales

El diseño, entrenamiento y despliegue de tecnologías está transformando nuestras sociedades en los ámbitos económico, social y político. Sin embargo, este debate suele dejar en un segundo plano cómo la IA está reconfigurando los modos en que la cultura se crea, promueve, accede y experimenta, con implicaciones profundas para el ejercicio de los derechos culturales.

Estos derechos son fundamentales en tanto protegen el desarrollo y la manifestación de las identidades culturales, y garantizan que personas y comunidades puedan expresar sus cosmovisiones y los significados que atribuyen a su existencia. Esta expresión se materializa a través de formas diversas de la experiencia humana que incluyen las artes, el patrimonio cultural, las lenguas, los sistemas de conocimiento, las convicciones, las creencias religiosas, e incluso prácticas cotidianas como la alimentación y la vestimenta.

En otras publicaciones hemos analizado las implicancias de la IA para el campo de los derechos culturales, puntualmente para la creación artística y la creatividad. En esta columna, problematizaremos a la IA como producto de hegemonías culturales y, a la vez, como infraestructura tecnológica que condiciona los marcos en los que la cultura se produce, circula y valora socialmente. Partimos de la premisa de que cuando los sistemas de IA se entrenan con información cultural del Norte Global, así como bajo lógicas coloniales y extractivistas, los resultados sesgados y discriminatorios no son accidentales, sino que reflejan las dinámicas de inclusión y exclusión presentes en los datos de entrenamiento y en los procesos de diseño. Como consecuencia, las culturas, las lenguas, los conocimientos y las formas de expresión del Sur Global están constantemente ausentes o mal representadas en los contenidos asistidos o generados por esta tecnología.

Resaltaremos la importancia de proteger, hoy más que nunca, la soberanía y la autodeterminación de las comunidades de nuestra región sobre sus datos culturales. Algo imprescindible frente a la creciente expansión de sistemas de IA que tienden a producir una visión de la cultura homogénea, estandarizada y colonial. Los argumentos presentados a continuación están basados en una contribución conjunta presentada por Derechos Digitales y Asociación para el Progreso de las Comunicaciones (APC) ante el Mecanismo de expertos sobre el Derecho al Desarrollo de Naciones Unidas.

¿Cómo nos ven los grandes modelos de IA?

Diferentes investigaciones vienen señalando que los modelos de IA de las principales compañías tecnológicas no están diseñados para narrar con precisión aspectos culturales de los países del Sur Global. En algunos casos, esto se traduce en imprecisiones que reflejan desconocimiento y, en otros, en la reproducción de estereotipos e imaginarios simplificados que desdibujan la especificidad de identidades y expresiones culturales diversas.

Un claro ejemplo se observa en un estudio de la Universidad Diego Portales, en el que se generaron más de dos mil imágenes utilizando la herramienta Dall-E para analizar la percepción de los outputs de la IA sobre Chile y América Latina. Los resultados fueron desalentadores: la IA reproducía sesgos culturales, desigualdades, prejuicios, estereotipos de género y raciales. Así, al pedirle a la IA que generara imágenes a partir del prompt de «una mujer mapuche», los resultados mostraban a mujeres de cabello castaño, nariz respingada, ojos grandes y piel clara. Además, su vestimenta mezclaba elementos de diversos pueblos originarios de Latinoamérica y, en algunos casos, incluía plumas en la cabeza, algo característico de culturas indígenas norteamericanas.

Lo anterior refleja una problemática clara de la IA frente a la diversidad cultural: la mitificación, ficción y folklorización de las formas de expresión y las comunidades de regiones del Sur Global. A saber, las principales herramientas de IA amplifican ciertas estéticas y narrativas, mientras silencian y tergiversan otras, influyendo en cómo se representan las culturas en los entornos digitales y fuera de ellos. En esa medida, aquellas narrativas culturales alineadas con las normas dominantes -a menudo del Norte Global- son priorizadas, mientras que las expresiones e identidades de regiones pertenecientes al Sur Global están infrarrepresentadas o, peor aún, mal representadas.

Las implicaciones sociales y políticas de este escenario resultan preocupantes en el contexto tecno-político que vivimos. Estos sistemas -por su diseño y escala- no solo pueden profundizar jerarquías dominantes sino también generar nuevas formas de exclusión al promover la homogeneidad cultural y estética, con impactos directos en la diversidad cultural. Esto deteriora las condiciones del acceso y la transmisión de la cultura, a la vez que obstaculiza los esfuerzos de independencia, soberanía y autorrepresentación de comunidades históricamente marginalizadas, quienes continúan excluidas de las expresiones culturales dominantes.

Colonialismo digital extractivista

Otra problemática vinculada al diseño y entrenamiento de los grandes modelos de IA son las prácticas extractivistas y coloniales sobre los datos culturales de comunidades del Sur Global. En efecto, organismos internacionales de derechos humanos ya lo están advirtiendo: las empresas tecnológicas tratan los datos derivados de los patrimonios culturales como simples insumos para sus sistemas, despojándolos de los significados que les atribuyen las comunidades y sin beneficios reales para ellas.

Desde luego, los inventarios de datos que alimentan dichos sistemas rara vez se crean de forma participativa y transparente, o se rigen por marcos de derechos humanos con el fin de promover la diversidad cultural, comprenderla y protegerla. En contraste, lo que prevalece son prácticas de recopilación de datos culturales que priorizan el beneficio económico, normalmente sin consultar a las comunidades ni solicitar su consentimiento, y sin informarles sobre los objetivos de la recopilación.

Algunos estudios nombran esta postura extractivista como colonialismo digital. Se caracteriza por la construcción de un imperio algorítmico en el que los patrimonios culturales se convierten en materia prima de los sistemas de IA dominantes, extraídos de forma selectiva, descontextualizada, y sin favorecer realmente a las comunidades. Bajo esta lógica, al igual que las potencias coloniales extraen los recursos naturales de nuestras tierras, los grandes modelos de IA extraen idiomas, historias y conocimientos de las comunidades, los separan de su contexto y significado originales, y los vuelven a ofrecer de forma tergiversada para su consumo global.

Lo anterior no solo perpetúa la ya mencionada malrepresentación de las culturas y formas de expresión del Sur Global, sino que erosiona la autodeterminación cultural de las comunidades. El derecho a determinar libremente el desarrollo y destino de sus culturas fue señalado por organismos regionales de derechos humanos como un pilar fundamental para preservar las tradiciones y los sistemas de significado y conocimiento. Por tanto, la omisión y negativa de las empresas que controlan la infraestructura global de la IA frente a la capacidad de decisión de las comunidades sobre sus formas de expresión cultural, cómo, hasta qué punto y bajo qué términos se les incluye en los conjuntos de datos de entrenamiento, influye determinantemente en el ejercicio pleno de derechos fundamentales, como los culturales.

Soberanía sobre los datos culturales y el derecho a la autodeterminación cultural

Frente a este escenario, ya emergieron múltiples iniciativas de IA impulsadas por comunidades, academia y sociedad civil del Sur Global. A través de enfoques situados, disputan las lógicas dominantes del desarrollo de la IA, priorizando la programación y el diseño participativo, así como criterios de pluralidad y liderazgo de las comunidades.

Un ejemplo destacado es “AIkuaa”, una herramienta que permite transcribir a texto grabaciones de audio en guaraní, uno de los idiomas oficiales de Paraguay y una de las lenguas indígenas más habladas en América Latina. Según sus creadores, los modelos de lenguaje de gran tamaño (LLM) ampliaron la brecha digital, ya que lenguas como el guaraní se encuentran infrarrepresentadas debido a la falta de datos en su entrenamiento. Frente a esto, el objetivo es crear un repositorio de conocimiento abierto que permita que las organizaciones, la comunidad y los medios de comunicación puedan responder mejor a las audiencias que hablan guaraní. Como metodología, desarrollan “mingas de voces abiertas” -inspiradas en los espacios tradicionales de trabajo comunitario- para seleccionar y validar las frases en guaraní que enriquecen los conjuntos de datos públicos de voz.

Otro caso relevante es “AfroféminasGPT”, una herramienta diseñada para fortalecer el pensamiento afrofeminista y decolonial, con especial foco en las mujeres negras y personas racializadas. AfroféminasGPT no tiene acceso a Internet de forma deliberada, lo que implica que no incorpora información en tiempo real desde la web sino que opera a partir de una serie de textos y materiales que fueron cuidadosamente curados. Este elemento, lejos de ser una limitación técnica, constituye una elección ético-política que busca evitar la incorporación automática de narrativas dominantes y coloniales sobre las experiencias, saberes y luchas de comunidades negras y racializadas. En ese sentido, la herramienta se nutre de fuentes originales producidas desde perspectivas afrofeministas y decoloniales, con el objetivo de contrarrestar la producción de narrativas blanqueadas, tergiversadas o desinformadas.

En un escenario mundial en el que un número reducido de actores, como OpenAI, ChatGPT, Google Gemini, Meta AI y Microsoft Copilot, concentra el desarrollo de sistemas de IA que jerarquizan y visibilizan contenidos culturales, iniciativas como las anteriormente descritas adquieren una relevancia particular y permiten el acceso a contenidos culturales guiados por principios como la participación y la diversidad.

A lo largo de esta columna, hemos problematizado algunas implicaciones de la IA para la cultura, argumentando cómo las comunidades menos representadas en los sistemas de datos suelen ser también las más perjudicadas por sus decisiones y resultados estereotipados y sesgados. Este panorama pone de relieve la importancia de la soberanía sobre los datos culturales y el derecho a la autodeterminación cultural, dos principios fundamentales de herramientas contrahegemónicas de IA que fueron impulsadas por comunidades históricamente marginalizadas. Estas alternativas desafían el dominio de los gigantes tecnológicos y demuestran la urgencia de repensar y rediseñar la tecnología desde la riqueza cultural del Sur Global, asegurando que las iniciativas se construyan desde, y en respuesta a, los conocimientos y las necesidades culturales locales.

Contribución al Consejo Asesor de Contenido de Meta sobre la expansión del programa de notas de la comunidad

En esta contribución presentamos evidencia sobre las fallas y la ineficacia, ya documentadas a partir del caso de X, del sistema de notas de la comunidad para hacer frente a la desinformación y la diseminación de contenidos engañosos en redes sociales. También, argumentamos que en países del Sur Global, como los de América Latina, donde los esfuerzos estatales para abordar la desinformación han sido insuficientes, heterogéneos y desequilibrados ante los múltiples intereses en juego; y donde en los últimos años ha persistido el silenciamiento de voces críticas y comunidades históricamente marginalizadas, un sistema como el de las notas comunitarias de Meta incrementa el riesgo de un aumento significativo del abuso, la violencia, la desinformación y la manipulación en las redes sociales.

Entre cuerpos y códigos: nuevos medios, viejas violencias

La violencia de género, que afecta principalmente a mujeres y personas LGBTIQA+, forma parte de la estructura del capitalismo. Se manifiesta a partir de diversas conductas y atraviesa distintos formatos que van mucho más allá de la violencia física. Históricamente, el control sobre los cuerpos ha sido una de sus expresiones más persistentes. Desde la reproducción forzada de mujeres esclavizadas para aumentar la mano de obra en las colonias, pasando por las altísimas tasas de violencia sexual -entre 2018 y 2022, se registraron más de 800 mil casos de mujeres víctimas de delitos sexuales en nuestra región, la mitad de ellas niñas con menos de 18 años-, hasta llegar a las leyes restrictivas en materia de aborto. De forma constante y sistemática, los cuerpos que no se amoldan a la lógica y la moral patriarcal, ven su autonomía limitada.

No solo el “cómo”, sino también el medio por el cual ocurre esa violación a la autonomía es reinventado constantemente. En las últimas décadas, ante el avance de la digitalización y la penetración de internet en América Latina y en todo el mundo, las tecnologías de información y comunicación pasaron también a ser soporte para esta vieja expresión de desigualdades y violencia de género.

Cuando las tecnologías reproducen el control

En 2016, la organización Coding Rights ya denunciaba fallas de seguridad en las aplicaciones de control del ciclo menstrual (las llamadas “menstruapps”), así como el uso indebido y opaco de los datos registrados por las usuarias para dirigir publicidad de acuerdo con los patrones de sus ciclos, como anuncios de toallitas, copas menstruales o termómetros. En 2020, Brasil presenció además el trágico episodio de una niña de 10 años que, al tener que ser trasladada a otro estado para ejercer su derecho al aborto legal por un embarazo producto de la violación de su tío, fue blanco de manifestaciones de grupos conservadores luego de la filtración de sus datos en redes sociales.

También forma parte de este conjunto de ejemplos lo sucedido en la provincia argentina de Salta, donde salió a la luz un proyecto del gobierno que utilizaba datos personales sensibles para “predecir” embarazos adolescentes. La iniciativa, cuestionada por organizaciones feministas y de derechos digitales debido a los sesgos del algoritmo, evidenció cómo las tecnologías pueden reforzar patrones de vigilancia y control sobre los cuerpos de niñas y adolescentes, especialmente aquellas provenientes de comunidades indígenas o de bajos recursos.

A ello se suman los constantes ataques digitales contra activistas feministas y defensoras de los derechos sexuales y reproductivos en distintos países de la región. En El Salvador, por ejemplo, organizaciones que acompañan a mujeres criminalizadas por emergencias obstétricas fueron objeto de campañas coordinadas de desinformación, acoso y discurso de odio en redes sociales, en un intento por desacreditar su labor y silenciar la denuncia sobre la penalización de la interrupción voluntaria del embarazo.

La desinformación, además, opera como un mecanismo de pánico moral: no solo ataca a quienes defienden derechos reproductivos, sino que instrumentaliza la propia agenda del aborto para generar confusión, miedo y resistencia social. En Paraguay, sectores conservadores difundieron narrativas falsas que vinculaban el Acuerdo de Escazú (un convenio sobre transparencia ambiental) con la supuesta imposición de agendas sobre aborto o “ideología de género”, en un uso estratégico de la desinformación que desvió el debate público y funcionó como cortina de humo, dificultando la discusión de un tratado clave para la protección de defensoras ambientales.

Junto a otras conductas como la difusión no consentida de imágenes íntimas y el stalkerware, estas prácticas son expresión de lo que llamamos violencia de género facilitada por las tecnologías (VG FT).

Del control a la resistencia digital

Pero si la tecnología es parte del problema, también puede -y debe- ser parte de la respuesta. En los últimos años, especialmente los colectivos feministas y LGBTIQA+ se han movilizado para hacer del entorno digital un espacio de resistencia y cuidado. Además de ofrecer servicios como líneas de ayuda para personas víctimas de violencia de género facilitada por las tecnologías, organizan campañas cuya pauta central es la autonomía sobre el propio cuerpo. Dos ejemplos importantes son: el movimiento Ni Una Menos, en Argentina, que desde 2015 articula protestas masivas tanto en las calles como en redes sociales contra los femicidios y las violencias machistas; y el movimiento colombiano Causa Justa, que utilizó estratégicamente plataformas digitales en la articulación del debate público que llevó a la despenalización del aborto por decisión de la Corte Constitucional en 2022.

El avance de la telemedicina para acceder a cuidados reproductivos seguros, como la interrupción voluntaria del embarazo, es otro ejemplo relevante de cómo las tecnologías pueden reforzar el ejercicio de la autonomía. En Brasil, dispositivos pioneros fueron clave para mitigar desigualdades territoriales en el acceso a servicios legales. De manera similar, en México, proyectos piloto demostraron que el aborto con medicamentos acompañado por telemedicina es seguro, eficaz y garantiza privacidad y autonomía para las usuarias. En países con sistemas de salud fragmentados o con profundas brechas territoriales -una característica común a toda América Latina-, estas iniciativas permitieron que más personas accedan a información confiable, acompañamiento profesional y atención oportuna, incluso en zonas donde los servicios presenciales son inexistentes o insuficientes.

La protección frente a las violencias de género facilitadas por las tecnologías

El 25 de noviembre es el Día Internacional para la Eliminación de la Violencia contra las Mujeres. El hito, instituido por la ONU en 1999, surge de la lucha feminista latinoamericana, en memoria del día del asesinato de las hermanas Mirabal en 1960, quienes se oponían a la dictadura en República Dominicana. En esta efeméride, es esencial recordar que eliminar la violencia de género implica también erradicar las violencias facilitadas por las tecnologías. Además, debe servir como un llamado urgente a fortalecer los marcos legales y las políticas públicas destinadas a enfrentar esta problemática.

Estos marcos deben partir de una perspectiva interseccional y basada en derechos humanos, e ir más allá de la criminalización y la punición de los agresores. Deben integrarse a otros encuadres preexistentes de prevención y protección frente a la violencia basada en género. También deben centrarse en las sobrevivientes y asegurar la capacitación de actores e instituciones para que puedan ofrecer respuestas sensibles y no revictimizantes a todas las personas que hayan sufrido violencias, tal como desarrolla el reporte Combating Technology-facilitated Gender-based Violence under the Lenses of International Human Rights Law, recientemente publicado por Derechos Digitales en alianza con el Fondo de Población de las Naciones Unidas (UNFPA). En el documento, analizamos marcos del derecho internacional de derechos humanos y legislaciones de ocho países sobre violencia de género facilitada por las tecnologías, para proponer directrices y caminos para enfrentar este fenómeno.

La lucha por la autonomía sobre el cuerpo y la lucha por la autonomía frente a las tecnologías de la información y comunicación están profundamente interconectadas. Ambas reivindican el derecho a decidir y experimentar entornos libres de acuerdo con esa decisión -ya sea respecto del propio cuerpo, de los datos personales o de la vida digital-. En una sociedad marcada por desigualdades de género persistentes, reconocer esta conexión es esencial para imaginar políticas que realmente protejan y amplíen las libertades y cuidados. Entre cuerpos y códigos, es necesario recordar que las tecnologías no crean las violencias de género, pero sí pueden reproducirlas o transformarlas. Que sigan siendo, entonces, cada vez más, herramientas de emancipación.

Combatir la violencia de género facilitada por tecnologías (VGFT) desde el enfoque del derecho internacional de los derechos humanos

Este documento, realizado con el apoyo de UNFPA, identifica vacíos comunes en distintas jurisdicciones sobre la violencia de género facilitada por tecnologías y sintetiza los principales desafíos conceptuales, estratégicos y legislativos. Elaborado con un enfoque interseccional y centrado en derechos humanos, este trabajo busca orientar futuras reformas legales y de política pública. Su propósito es apoyar a quienes diseñan políticas, investigan o defienden derechos en la construcción de marcos coherentes y garantes para prevenir, atender y reparar la VGFT.

Deepfakes: cuando las tecnologías promueven la violencia de género digital

Cada vez son más las noticias sobre casos de deepfakes en América Latina. Estas tecnologías, basadas en inteligencia artificial (IA), permiten crear imágenes falsas insertando el rostro de una persona en el cuerpo de otra, simulando situaciones que nunca ocurrieron, muchas veces de carácter sexual. En varios países de la región, se registraron casos particularmente alarmantes en colegios, donde niñas fueron víctimas de sus propios compañeros. Suelen utilizar estas herramientas para generar, compartir e incluso comercializar contenido sexual de sus compañeras. En los últimos años, los medios reportaron este tipo de hechos, principalmente en colegios privados de Perú, Ecuador, Brasil, Chile, Argentina y Guatemala, entre otros. Niños y adolescentes aprenden a explotar la tecnología para vulnerar a sus compañeras, mientras ellas quedan expuestas a una violencia para la que nadie tiene respuestas concretas.

Por su parte, la cobertura mediática sigue un patrón: los casos con mayor visibilidad provienen de colegios privados en zonas urbanas, pero eso no significa que sean los únicos. En un colegio de la Región del Maule, Chile, en una comuna fuera de los grandes centros urbanos, ocurrió un caso similar, por ejemplo. A diferencia de los anteriores, esta noticia no se encuentra fácilmente en internet y fueron las propias adolescentes quienes se vieron obligadas a denunciarlo en redes sociales.

En Latinoamérica, donde la mayoría de los colegios no pertenecen a élites, lo que llega a los medios representa solo una fracción de la realidad. Mientras algunos casos generan indignación, muchos otros quedan en el olvido, y en los contextos invisibilizados, las víctimas no reciben atención ni respuesta institucional.

En esta columna nos proponemos analizar qué rol están cumpliendo las aplicaciones de deepfake en América Latina en la proliferación de nuevas formas de violencia de género digital. A partir de estudios e investigaciones especializadas, indagamos las condiciones que las habilitan y las responsabilidades técnicas, políticas y económicas detrás de su funcionamiento, sin dejar de lado los desafíos urgentes que enfrenta la región para abordarlas.

Investigar el uso de apps de deepfake en América Latina

Los casos en colegios latinoamericanos mencionados evidencian un problema que trasciende lo técnico. La irrupción de este tipo de actos responde a un ecosistema digital que facilita su expansión sin considerar sus consecuencias. Según el informe State of Deepfakes 2023, el 98% del contenido deepfake disponible en línea tiene fines sexuales y el 99% de las personas representadas son mujeres. A esto se suma que el 48% de los hombres encuestados vio este tipo de contenido al menos una vez, y que el 74% no siente culpa por hacerlo.

Frente a esta realidad, grupos de investigación están tomando nota para poder reflejar conclusiones científicas y precisas. Junto a Situada, realicé una investigación para analizar el alcance de estas aplicaciones en la región, las condiciones que lo permiten y cómo su diseño facilita la violencia de género digital.

Para ello, se estudiaron 105 aplicaciones de deepfake publicadas en Google Play (Android), identificadas mediante una herramienta especialmente desarrollada para tal fin, la cual se conectaba a la tienda a través de una API. Gracias a esta conexión automatizada, pudimos recopilar información técnica y descriptiva de cada app, permitiendo observar patrones en su diseño y funcionalidad. El análisis de software suele centrarse en la usabilidad, pero es fundamental evaluar este tipo de tecnología más allá de lo técnico-comercial, desde una perspectiva ética, crítica y feminista.

Red flag: los hallazgos más preocupantes

La investigación de Situada detectó que el 89.5% de las aplicaciones de deepfake representan un riesgo para las mujeres, al facilitar la creación de contenido sexual no consensuado. El análisis reveló una combinación preocupante de factores sociotécnicos, lo cual se refleja en los principales hallazgos del estudio.

Uno de los primeros patrones identificados fue la falta de transparencia en el desarrollo de las apps: el 42.8% no indicaban su procedencia ni en Google Play ni en sus sitios web, dificultando la rendición de cuentas y sus motivaciones. Entre quienes sí reportaban autoría, se encontraron imágenes promocionales sexualizadas que refuerzan la objetivación de las mujeres. Además, se constató una clara brecha de género en los equipos que desarrollan estas apps, que refuerza la persistente falta de diversidad en el sector tecnológico.

Los hombres -especialmente del Norte Global- históricamente dominaron la innovación tecnológica, excluyendo las experiencias y necesidades de las mujeres. Esta dinámica fue ampliamente estudiada por autoras feministas que analizan cómo el diseño y la producción tecnológica reproducen desigualdades estructurales. Entre ellas, Judy Wajcman aportó conceptos clave en su libro “Tecnofeminismo”, donde explora cómo el desarrollo técnico está atravesado por relaciones de poder. Informes recientes de la UNESCO y Randstad confirman que menos del 30% de las personas que trabajan en IA son mujeres. Esta exclusión no responde solo a la falta de acceso o a las habilidades, sino a una cultura técnica masculinizada que condiciona lo que se diseña, para quién y con qué propósito.

Otro aspecto crítico identificado fue la clasificación que Google Play otorga a las aplicaciones. Esta tienda exige que todas las apps cuenten con una etiqueta de edad, asignada a través de un sistema gestionado por la Coalición Internacional de Clasificación por Edad (IARC por sus siglas en inglés). Para ello, los desarrolladores deben completar un formulario autodeclarativo y, en función de sus respuestas, se determina la categoría correspondiente (por ejemplo, “Mayores de 17 años”). Sin embargo, este mecanismo depende exclusivamente de la honestidad de quienes publican las apps. No hay verificación activa del contenido real de las aplicaciones. El análisis mostró que el 65.7% fueron clasificadas como “Apto para todo público”, pese a que se usan para la creación de contenido sexual no consentido. Clasificaciones que deberían proteger a las personas usuarias, terminan validando tecnologías dañinas bajo rótulos engañosos.

También se evidenció cómo estas herramientas operan bajo un modelo de negocio centrado en la rentabilidad. El 67.6% requiere un pago para desbloquear funciones principales y, aunque algunas ofrecen pruebas gratuitas, restringen la descarga hasta que se pague, incentivando la compra. Este modelo prioriza la rentabilidad por encima de cualquier principio ético, facilitando la explotación digital de los cuerpos de las mujeres. A esto se suma su facilidad de uso: el 96.2% fueron calificadas como intuitivas, incluso accesibles para personas sin experiencia técnica o dominio del idioma, lo que amplía su adopción.

Por otro lado, el análisis demostró que estos servicios en línea incorporan funciones que simulan besos o abrazos, normalizando la idea de que las mujeres pueden ser expuestas en situaciones íntimas sin su consentimiento. En los anuncios de estas aplicaciones, es común ver representaciones forzadas, casi siempre protagonizadas por un hombre, que utiliza una foto propia junto con la imagen de una mujer, reforzando dinámicas de control. Además, el uso de plantillas predefinidas contribuye a su hipersexualización: las opciones femeninas abundan en categorías como “Hot Bikini”, “Latex”, “Sexy Girl” o “Body Latino” (reforzando estereotipos fetichistas sobre las mujeres latinas), mientras que las plantillas masculinas son escasas y neutras.

Por último, las empresas detrás de estas aplicaciones eluden su responsabilidad legal a través de avisos en los que prohíben el uso de material no autorizado, pero dejan la ejecución en manos de la persona usuaria. Este hallazgo refleja que la estrategia legal no impide el daño, pero sí protege a las compañías que se benefician económicamente con estas prácticas. Al trasladar la carga moral exclusivamente a quien las utiliza, las empresas evaden su responsabilidad ética como diseñadoras de tecnología con impactos previsibles.

Una tendencia global reflejada en América Latina

Las conclusiones de esta investigación se inscriben en una tendencia global, de la cual América Latina no es ajena. Diversas organizaciones de la sociedad civil vienen advirtiendo que tecnologías como la deepfake forman parte de una creciente ola de violencia de género digital. En un informe reciente presentado a la ONU, desde Derechos Digitales, junto a otros grupos, señalamos que estas prácticas silencian voces y limitan la participación pública.

En la misma línea, Coding Rights documentó cómo ciertos servicios basados en IA imponen visiones patriarcales y coloniales sobre los cuerpos y decisiones de niñas y adolescentes en nuestra región. De forma similar, el Banco Interamericano de Desarrollo (BID) viene alertando sobre el uso de deepfake con fines de extorsión y humillación sexual, advirtiendo la ausencia de políticas regionales para enfrentar esta problemática.

En el plano legal, luego de recopilar casos de deepfake porn, activistas como Olimpia Coral insisten en que “la ley es insuficiente” y que es urgente capacitar a policías y fiscales para comprender estas tecnologías y atender adecuadamente a las víctimas. La evidencia también se manifiesta en el ámbito político. Un estudio de Fundación Karisma, en colaboración con ONU Mujeres, centrado en las elecciones legislativas de 2022, concluyó que la manipulación de información -incluyendo imágenes trucadas (deepfake) y suplantaciones- se convirtió en una forma de violencia digital contra candidatas mujeres. 

En conjunto, estos informes coinciden en lo que la investigación de Situada evidencia a nivel regional: las tecnologías de IA, cuando se desarrollan sin responsabilidad ética ni supervisión pública, reproducen violencias históricas hacia las mujeres

Neutralidad falsa: tecnologías que perpetúan la violencia de género 

Los resultados de estos análisis son alarmantes, pero no se comparan con el impacto en las mujeres afectadas. Mientras estas aplicaciones generan ganancias, las mujeres y niñas ven sus imágenes manipuladas y difundidas sin su consentimiento. Algunas temen salir de sus casas, otras sufren ansiedad y depresión, o son extorsionadas y revictimizadas por quienes minimizan el daño bajo la excusa de que “es solo IA” o “no es real”, ignorando que lo online tiene consecuencias en la vida offline.

Esta masificación no puede desvincularse de una economía de la conectividad que premia lo viral y convierte la exposición en capital. El número de descargas legitima estas prácticas como aceptables, invisibilizando sus impactos dañinos. Lo que ocurre en este mercado digital constituye una prolongación de la lógica patriarcal que trata los cuerpos de las mujeres como bienes disponibles para el deseo ajeno. Es una forma estructural de violencia donde la cosificación reduce a la mujer a objeto sexual y anula su agencia al servicio del placer masculino.

Plataformas como Google Play legitiman este ecosistema al permitir la circulación masiva de tecnologías que posibilitan agresiones simbólicas y sexuales sin consentimiento, bajo esquemas comerciales lucrativos. Responsabilizar únicamente a las personas usuarias es insuficiente. Se requiere cuestionar el sistema técnico, económico y normativo que habilita estas violencias.

El desafío no es solo denunciar, sino repensar la tecnología desde su raíz: reconocer que toda herramienta implica decisiones morales y políticas. Afrontar esta problemática requiere respuestas coordinadas: regulaciones con enfoque de género que obliguen a las plataformas a retirar contenidos no consentidos, y compromisos empresariales de transparencia que incorporen evaluaciones de impacto ético antes de publicar herramientas que puedan ser usadas para dañar. También es necesario avanzar en medidas de reparación integral para las víctimas, incluyendo apoyo psicosocial, acompañamiento jurídico y garantías de no repetición. Finalmente, promover una alfabetización digital crítica -especialmente entre jóvenes- puede prevenir estos usos violentos y construir una cultura digital basada en el respeto y el consentimiento. Avanzar hacia políticas públicas con perspectiva interseccional feminista y prácticas de desarrollo ético es una urgencia para garantizar que la innovación no se construya a costa de la dignidad de las personas.

Envejecer en un mundo hiperconectado: la ausencia de las personas mayores en las políticas digitales

La acelerada digitalización de nuestras sociedades trae consigo la incorporación de múltiples Tecnologías de la Información y la Comunicación (TIC) en la vida de las personas. Si bien el acceso a las mismas puede habilitar el ejercicio de nuestros derechos, existen marcadas diferencias en cómo se usan, apropian, entienden y experimentan entre la diversidad de personas usuarias. Esto genera capacidades y condiciones desiguales para su uso pleno, significativo, seguro y autónomo.

Uno de los grupos sociales que enfrenta mayores desafíos y desigualdades en el uso de las TIC son las personas mayores. Este grupo fue reconocido por la ONU como uno de los segmentos de la sociedad que requiere mayor atención, acompañamiento y cuidado para enfrentar los retos que plantea la creciente digitalización del mundo actual, y para reducir las barreras que les impiden aprovechar plenamente las herramientas tecnológicas en beneficio de su bienestar. Entre dichas barreras destacan la brecha digital y la alta exposición a ciberataques y amenazas en el ciberespacio.

En esta columna ahondaremos en la exclusión de las vejeces en políticas digitales, particularmente en las estrategias nacionales de ciberseguridad. Analizaremos las vulnerabilidades específicas que enfrentan en línea, reafirmando la importancia de proteger sus derechos a la autonomía, el cuidado y la no discriminación, esenciales para su integración y participación efectiva en la era digital.

América Latina, envejecimiento poblacional y desafíos de inclusión digital

Como hemos señalado anteriormente, desde una perspectiva interseccional la edad constituye una categoría fundamental a la hora de formular políticas sobre el diseño, despliegue y uso de las TIC. En esa línea, organismos regionales e internacionales ya reconocieron que los derechos humanos y las libertades fundamentales de las personas mayores deben ser garantizados a través de las políticas, planes, estrategias y legislaciones de los Estados. Además, de acuerdo con estudios sociales sobre esta temática, la inclusión de las personas mayores en el ámbito de las políticas públicas es tanto una cuestión demográfica como social.

Por un lado, la región atraviesa un proceso sostenido de envejecimiento poblacional desde inicios del siglo XXI. Se estima que para el año 2050, el 25% de la población en América Latina y el Caribe tendrá 65 años o más. Considerando la persistente brecha digital que enfrentan en la región, esta proyección debe ser tomada como una motivación crucial para impulsar políticas de inclusión digital que reconozcan la existencia de las vejeces como parte de la sociedad y respondan a sus propias necesidades, garantizando su participación en el mundo hiperconectado que habitamos.

Por otro lado, encontramos que los problemas asociados al envejecimiento fueron históricamente considerados como asuntos a resolver en el ámbito individual y privado. Sin embargo, se envejece en un contexto social y cultural específico que habilita u obstaculiza que se haga con plenitud, inclusión y en condiciones de equidad en el ejercicio de derechos. Se envejece siendo parte de un colectivo, por lo cual incorporar  a las personas mayores en las políticas públicas digitales implica reconocer su especificidad como grupo social.

Lejos de ser espectadoras pasivas de la transformación tecnológica, las vejeces merecen ejercer plenamente sus capacidades en la era digital, con autonomía y sin obstáculos técnicos e informativos que limiten su participación. Sin embargo, la calidad, la información y los conocimientos técnicos necesarios para ello siguen siendo escasos y poco adaptados a sus realidades, situándolas en una posición de desventaja para hacer un uso seguro de las tecnologías.

Estrategias nacionales de ciberseguridad: ¿alguien quiere pensar en las personas mayores?

De forma reiterada, vemos noticas que evidencian la frecuencia y gravedad de los ciberataques en la región, dirigidos tanto a personas como a instituciones. Hace una semana, por ejemplo, la información de 20 millones de personas pensionadas del Instituto Mexicano del Seguro Social fue divulgada y puesta a la venta en foros clandestinos, dejando a una gran cantidad de personas mayores expuestas a múltiples riesgos y métodos de estafa como el phishing. Este caso ilustra  no solo  la fragilidad de los sistemas estatales de almacenamiento de datos, sino también la vulnerabilidad en cascada de las vejeces allí registradas, denotando la imperiosa tarea de reforzar marcos de Derechos Humanos en el tratamiento de la ciberseguridad.

La visión clásica de la ciberseguridad enfocó sus esfuerzos principalmente en la protección del Estado y sus infraestructuras. Sin embargo, perspectivas de género e interseccionales en esta materia sugieren un cambio sistémico urgente en su abordaje, que centre las políticas y  estrategias en las personas, e integre las diversas realidades y necesidades de  sectores sociales que enfrentan amenazas y riesgos diferenciales en el espacio digital. Este giro en el enfoque es clave para garantizar el ejercicio efectivo de los  derechos en los entornos digitales; en particular de grupos históricamente excluidos como las mujeres, las personas de la comunidad LGBTQIA+ y las personas mayores.

A la fecha, de los 21 países de América Latina, 13 ya adoptaron estrategias nacionales de ciberseguridad. Pero sólo 3 (Brasil, Chile y Uruguay) tienen menciones explícitas en sus líneas de acción a las vejeces, y sólo 1 (la reciente estrategia del Paraguay) reconoce  la edad como una de las intersecciones a considerar a la hora de ejecutar políticas de protección para la ciudadanía en el ciberespacio. Ahora bien, ¿la mera referencia a las personas mayores es suficiente para hablar de inclusión? Como buena práctica, la estrategia de Chile contempla la alfabetización básica en ciberseguridad para este sector etario. De hecho, en su plan de acción, este sector es transversal a la mayoría de medidas a implementar, lo que permite concretar objetivos y responsables para cumplir lo que se plasmó en el documento de la estrategia. No obstante, en las demás políticas públicas mencionadas se habla de forma general sobre campañas de concientización en ciberseguridad que incluyen a las personas mayores, sin contar aún con medidas específicas o preferentes que respondan a sus necesidades particulares.

La exclusión que transita la vejez en la mayoría de estos marcos normativos refleja una preocupación señalada por organismos regionales de Derechos Humanos: el edadismo. Esta  forma de discriminación por razón de edad permanece enraizada cultural y jurídicamente en América Latina, exponiendo a este grupo social a diferentes formas de violencia, incluida la que ocurre en línea.

La creciente dependencia de nuestras sociedades en las TIC, así como la digitalización de servicios básicos y fundamentales, incrementa inevitablemente la exposición a riesgos y amenazas. En el caso de las vejeces, la brecha de conocimientos frente a la naturaleza y la sofisticación de los ciberataques las deja altamente desprotegidas, convirtiéndolas en el objetivo de ataques, estafas en su mayoría, caracterizados por la suplantación de identidad para robar información personal y financiera a través de emails, páginas web falsas, llamadas telefónicas, mensajes de texto, entre otros.

Podría afirmarse que, considerando el carácter socio-técnico de las tecnologías, y ante la evolución constante tanto de éstas, como de las violencias que amplifican, el envejecimiento conlleva una condición de vulnerabilidad desde la cual las personas mayores encuentran barreras para participar del cambio tecnológico y usar plena, autónoma y efectivamente las TIC. Debe quedar claro, sin embargo, que el problema no es envejecer; no es la vejez la que dificulta el ejercicio de los Derechos Humanos en los entornos digitales, es la concepción social, cultural y jurídica que los Estados de nuestra región mantienen frente a ella. Estas concepciones se traducen en la exclusión de las personas mayores de los procesos de formulación e implementación de las políticas públicas, restringiendo el pleno goce de sus derechos y desatendiendo sus necesidades y vivencias.

Derecho a la autonomía y al cuidado en los entornos digitales

Promover, proteger y garantizar el reconocimiento y ejercicio, en condiciones de igualdad, de los Derechos Humanos y libertades fundamentales de las personas mayores a través de las políticas digitales resulta esencial. Dos derechos particulares asociados a este grupo son especialmente importantes a la hora de formular marcos de política pública inclusivos: la autonomía y el cuidado.

A menudo, en las sociedades occidentales, las vejeces se ven despojadas de su capacidad para responder a las propias necesidades, expresar sus deseos, tomar decisiones y lograr sus metas, lo que limita las posibilidades de que ejerzan control sobre sus vidas o las vivan de forma autónoma. Así, la edad avanzada es relacionada con la pérdida de funcionalidad, con la dependencia física, mental, emocional y social, el cese de la vida productiva, dejándoles de tener en cuenta para tomar decisiones en ámbitos como el financiero, familiar o político. Es por esto que, según mecanismos regionales de Derechos Humanos, cualquier instrumento de política pública sobre los derechos de las personas mayores debe, en primer lugar, garantizarles la posibilidad de ser autónomas para gestionar sus proyectos vitales.

En un mundo hiperconectado, donde cada vez más actividades se realizan usando la tecnología, contar con conocimientos suficientes para comprender los procesos que se gestan en Internet, así como  las posibilidades y los riesgos que conlleva, no es sólo un asunto de ciberseguridad, sino también, y sobretodo, un tema de Derechos Humanos y autonomía para las personas mayores. Asegurar su independencia y sus posibilidades de participar e integrarse a las comunidades a través de las TIC debe ser un eje central de las políticas digitales.

Por otra parte, la creación de entornos digitales propicios y favorables para este grupo social resulta crucial para que puedan ejercer sus derechos sociales, económicos y culturales en condiciones de igualdad. Proteger su  autonomía e independencia en el espacio digital es una práctica de cuidado en consideración de sus demandas y características específicas. En la medida que las TIC sean parte de su vida cotidiana, es necesario extender las prácticas de cuidado y prevención que tradicionalmente acompañan otras esferas de la vida, también a lo que suceda en los entornos digitales.

La dimensión del cuidado acá mencionada tiene que ver con procurar el bienestar de las personas mayores sin despojarles de su agencia sino, más bien, acompañándoles en el ejercicio y mantenimiento de su autonomía al navegar y usar las tecnologías. Esta es una concepción del cuidado basada en crear condiciones para el bienestar reconociendo las diferencias y vulnerabilidades históricas de este sector etario. Por ejemplo, si se procura el cuidado y la protección de las personas mayores a través de la creación de entornos físicos, sociales y culturales que habiliten el ejercicio de sus derechos, ¿por qué no crear condiciones y desarrollar conocimientos para el disfrute de entornos digitales seguros y favorables? Esto se traduce en bienestar, en protección de la autonomía y, por tanto, en una práctica de cuidado.

Recientemente, la Corte Interamericana de Derechos Humanos reconoció el derecho autónomo al cuidado, entendiendo que constituye una necesidad básica, ineludible y universal, fundamental para una existencia digna, en especial de las personas en situación de vulnerabilidad. En relación con el derecho de las vejeces de recibir cuidados, la Corte sostuvo que los Estados deben adoptar medidas para garantizar su acceso y permanencia en servicios de cuidados de calidad, en consonancia con sus derechos a la autonomía, independencia, seguridad y a una vida libre de violencias. Esta consideración debe extenderse también al ámbito de las políticas digitales, donde este grupo etario requiere enfoques específicos y adecuados que incluyan plenamente sus necesidades, experiencias y capacidades. Las políticas públicas deben brindar mecanismos de apoyo y acompañamiento que garanticen un uso seguro, autónomo y sostenible de las TIC por parte de las personas mayores, fortaleciendo así el ejercicio de sus derechos en entornos digitales.

Sandboxes para la IA en países de América Latina y Europa

El uso de sandboxes o areneros regulatorios para inteligencia artificial se ha extendido en Europa y América Latina como espacios de prueba que prometen impulsar la innovación bajo excepciones regulatorias. Sin embargo, la evidencia muestra que su implementación varía según el contexto y no siempre garantiza entornos seguros de aprendizaje. Más preocupante aún es la ausencia de una mirada sobre los derechos humanos, que queda relegada frente a la prioridad de fomentar la innovación. Este informe analiza experiencias recientes y subraya la necesidad de mayor escrutinio, participación ciudadana y adaptación a realidades locales para que estas herramientas no reproduzcan desigualdades ni vulneren derechos fundamentales.