Historias de trabajo sexual en plataformas digitales: entre la autonomía prometida y las violencias históricas agravadas

Esta columna fue publicada originalmente en LatFem

Violetta lleva seis años creando y subiendo contenido sexual y erótico en una plataforma digital de alcance mundial que aloja miles de suscriptores. Decidió ingresar motivada por las historias de éxito económico de amigas, sumadas a las promesas de independencia, consentimiento, autonomía y seguridad de la intermediación tecnológica del trabajo sexual. Invirtió unos 1800 USD en computadora, cámara profesional, internet cableado, adecuación de una habitación para grabar, entre otros. La plataforma digital que aloja y amplifica su contenido se queda con cerca del 30% de sus ingresos. Violetta trabaja entre 4 y 6 horas al día y sube contenido diario para aumentar las posibilidades de tener suscriptores pagos.   

Iris es una trabajadora sexual y el sostén económico de su familia y su hija. Durante la pandemia por COVID-19, ante dificultades para pagar sus estudios universitarios, ingresó a la industria webcam. Frente a la falta de un dispositivo tecnológico y conectividad a internet en su casa, se vinculó a un “estudio” que le proporcionaba el espacio y las herramientas tecnológicas necesarias. Allí, Iris cumple turnos y horas de trabajo a cambio de una remuneración y una supuesta flexibilidad, autonomía y libertad en sus actividades. La plataforma digital de alcance mundial que transmite sus sesiones se queda entre el 40% y el 65% de los ingresos generados, y el estudio el 60%. Para garantizar las visitas a su contenido, Iris llegó a trabajar hasta 10 horas seguidas sin descanso. 

Acuarela es una trabajadora sexual que vende contenido erótico en plataformas digitales como un ingreso extra. Inició en la pandemia promocionando sus servicios digitales en redes sociales y enfrentando la censura de los algoritmos. Aunque al principio fue lucrativo, la inversión de tiempo en crear contenido y la exposición para promocionarlo no se veían del todo retribuidas. Luego de un tiempo, decidió no seguir siendo visible en espacios digitales ni exponer más su imagen, por lo que cerró sus perfiles públicos, cambió su nombre de usuario y evitó mostrar el rostro en fotos de perfil para cuidarse. Sin embargo, ha encontrado su contenido en otra plataforma bajo historias y perfiles falsos, y aunque hizo la denuncia, la plataforma nunca bajó las publicaciones.

Tanto las empresas de plataformas digitales como los estudios webcam requieren una revisión y transformación urgente de sus políticas de operación y de sus interfaces tecnológicas para abarcar el impacto y las violencias que están amplificando.

Las historias de Violetta, Iris y Acuarela representan modalidades distintas de trabajo sexual intermediado por plataformas digitales, y resuenan con la experiencia de miles de personas en América Latina y el mundo que tienen esta actividad como fuente de sustento económico.El trabajo sexual a través de plataformas se popularizó de la mano de discursos supuestamenteprotectores y emancipadores que prometen la eliminación de intermediarios, el respeto a los propios límites y el consentimiento de las personas trabajadoras sexuales, así como la posibilidad de ganar dinero desde la seguridad del hogar.   

Sin embargo, como lo vienen señalando algunos estudios, ese lenguaje funciona en gran medida como una estrategia persuasiva. De esta manera, las plataformas digitales apelan a las violencias que históricamente han vivido las personas trabajadoras sexuales; se nutren de las dificultades socioeconómicas, la informalidad y el desempleo, y financian su modelo de negocio con el contenido que ellas crean, sin ofrecer garantías reales para sus derechos ni para su seguridad, tanto en línea como fuera de ella.  

Organismos internacionales de derechos humanos reconocen que la decisión de ejercer trabajo sexual, la cual movimientos y activistas en América Latina y el mundo defienden como legítima y reivindican como parte de la capacidad de agencia y la autonomía corporal, enfrenta, al mismo tiempo, contextos de alto riesgo, violencia estructural y desigualdad que pueden verse amplificados por las tecnologías. Por ello, dicha actividad requiere la protección social, institucional y política debida para que, frente a esos riesgos, las personas que la ejercen tengan plenamente garantizados sus derechos humanos y laborales, como la salud, la privacidad y la protección de datos personales

Violencias de género facilitadas por las tecnologías en el trabajo sexual

El trabajo sexual a través de plataformas, en sus diferentes manifestaciones, se sitúa en la intersección entre el trabajo feminizado, el estigma y la economía informal de plataformas. Esta combinación lo convierte en una actividad susceptible a situaciones riesgosas, donde ocurren con facilidad múltiples violencias de género facilitadas por las tecnologías (VGFT).   

Un estudio realizado junto a 42 personas trabajadoras sexuales que utilizan plataformas en Uruguay, evidenció que las tecnologías perpetúan y agravan la VGFT.Por ejemplo, denunciaron la circulación no consentida de imágenes íntimas; la creación de perfiles falsos en redes sociales y otras plataformas que usaban el contenido erótico para ganar seguidores; acoso digital manifestado en recibir material explícito no solicitado en chats personales; y chantaje y violencia psicológica por parte de suscriptores que presionan con difundir el contenido sexual si la persona trabajadora no accede a requerimientos específicos. Las personas entrevistadas dijeron tener poco o nulo control sobre su contenido en la medida que la duplicidad de imágenes es una estrategia empresarial común entre las plataformas digitales. 

Cuando las trabajadoras piden que eliminen los perfiles y el contenido, algunas aplicaciones no responden, mientras otras guardan las imágenes y, tras un tiempo, vuelven a publicarlas. Acuarela, por ejemplo, sabe que el contenido erótico en entornos digitales es difícil  de controlar y que puede filtrarse, por lo que se protege evitando mostrar su rostro. Ante la inacción de las plataformas frente a la divulgación no consentida de imágenes íntimas, Acuarela ha recurrido a la acción colectiva y a estrategias de solidaridad con compañeras para denunciar los contenidos de forma masiva.

La plataforma digital de alcance mundial que transmite sus sesiones se queda entre el 40% y el 65% de los ingresos generados, y el estudio el 60%. Para garantizar las visitas a su contenido, Iris llegó a trabajar hasta 10 horas seguidas sin descanso. 

Estas experiencias, evidencian las tensiones en torno al control sobre la propia visibilidad y el consentimiento respecto del uso, circulación y permanencia en plataformas que median contenido sexual, donde los modelos de negocios evitan incorporar al consentimiento como un principio operativo, lo que se traduce en la ausencia de mecanismos efectivos de reporte, respuesta y reparación. 

Situaciones como estas, que afectan de forma desproporcionada a grupos como las trabajadoras sexuales trans, no binarias, indígenas o migrantes, se agravan en modalidades de trabajo como la de Iris, el webcam, una industria que se despliega de la mano de una jerarquía de roles adicionales al de la persona trabajadora sexual, desempeñados en su mayoría por hombres, que potencian los escenarios de violencia y posible explotación laboral. Por ejemplo, el rol de los llamados “monitores” quienes, entre muchas funciones, responden los chats de las transmisiones en nombre de las trabajadoras.

“Cuentas recicladas” en la industria webcam como medio de coacción 

En otro informe, 55 personas trabajadoras sexuales de la industria webcam en Colombia evidenciaron una dinámica de gran preocupación por sus impactos en los derechos y libertades fundamentales: las cuentas recicladas por parte de los estudios. Cuando Iris entró al estudio que facilitaría el espacio y la conectividad para sus transmisiones le fue asignada una cuenta “reciclada” de una trabajadora antigua. De esta forma, trabajaba con el nombre de usuario de esa trabajadora, utilizando su perfil y bajo las condiciones que este anunciaba.   

Ante esta dinámica y estrategia comercial de los estudios, muchas trabajadoras sexuales de la industria webcam se ven ante el escenario de comprar sus cuentas al irse de los estudios, lo que se traduciría en pagar “por el uso de su propia identidad”. Si no pueden costear el precio de su cuenta, se encuentran con que los estudios las bloquean a través de disposiciones sobre fraude de identidad en las plataformas digitales que transmiten el contenido. El alquiler de cuentas genera una gran dependencia con el estudio, e impide a muchas de las personas trabajadoras buscar condiciones más seguras y autónomas, pues el costo de construir una audiencia de cero suele ser muy elevado.  

Opacidad de las plataformas y el costo del descanso en el trabajo sexual

Según un estudio de RedTraSex, en el trabajo sexual en modalidades digitales surge con frecuencia la pregunta sobre qué tan automatizados están los procesos de recomendación de contenido o de perfiles (en el caso de Violetta y Acuarela), así como los mecanismos que determinan las visitas o el tráfico de clientes según la presencia en pantalla (en el caso de Iris). Iris, por ejemplo, duda si tomarse descansos durante sus jornadas, ya que en el estudio webcam le advirtieron que, si desaparece de la pantalla, la plataforma digital interrumpe la transmisión y las visitas de clientes se detienen, lo que significa empezar de cero.  

Violetta y Acuarela, por su parte, no tienen claridad sobre hasta qué punto las calificaciones de los clientes inciden en la visibilidad de su perfil o si existen algoritmos de recomendación detrás. Por ejemplo, sospechan que si un suscriptor las califica mal por no acceder a alguna de sus peticiones, el alcance de sus perfiles se vea comprometido.  

Los derechos a la desconexión y el descanso laboral deben ser plenamente garantizados a las personas trabajadoras sexuales en las plataformas digitales. Estas últimas, necesitan informar de manera suficiente sobre el grado de automatización de sus interfaces y cómo afecta el ejercicio de esos derechos, así como la autonomía corporal y capacidad de acción de las trabajadoras. En concreto, se debe asegurar que las trabajadoras cuenten con condiciones justas que permitan cubrir necesidades básicas como disponer de tiempos efectivos para comer, hidratarse e ir al baño (en el caso de los estudios), así como la capacidad  de poder rechazar pedidos de los suscriptores (en el caso de las plataformas), sin que ello repercuta negativamente en su acceso al trabajo o en sus ingresos.

El rol y la responsabilidad de las plataformas digitales

Prácticas como las anteriormente descritas han sido abordadas en jurisprudencia previa en la región, exigiendo a las plataformas y a los estudios protecciones laborales específicas que permitan a las personas trabajadoras sexuales acceder a derechos básicos, así como mecanismos de remediación y reparación frente a la VGFT.  

En las investigaciones consultadas, las trabajadoras manifestaron que, por diseño, las interfaces tecnológicas de las plataformas deberían prohibir las capturas de pantalla o la grabación de las mismas. En el caso puntual de las trabajadoras webcam, estas recalcaron la importancia de ponerse en contacto con un representante humano de las plataformas para denunciar abusos que se produjeran en los estudios. Asimismo, explicaron que el control absoluto que los estudios ejercen sobre todo lo que ocurre en la pantalla limita sus posibilidades de denunciar abusos ante las plataformas. Además, para hacerlo, necesitan tener control sobre sus cuentas y sobre los datos con los que fueron creadas.  

Es por esto que se hace urgente abordar el trabajo sexual a través de plataformas digitales mediante políticas comprensivas, con enfoque de género e interseccional que reconozcan esta actividad como un trabajo ampliamente reivindicado y legítimo, cuyas situaciones de riesgo se profundizan con la intermediación tecnológica. Tanto las empresas de plataformas digitales como los estudios webcam requieren una revisión y transformación urgente de sus políticas de operación y de sus interfaces tecnológicas para abarcar el impacto y las violencias que están amplificando. Dicha revisión ha de hacerse garantizando la participación de personas trabajadoras sexuales en todo momento.   

Las plataformas digitales apelan a las violencias que históricamente han vivido las personas trabajadoras sexuales; se nutren de las dificultades socioeconómicas, la informalidad y el desempleo, y financian su modelo de negocio con el contenido que ellas crean.

Personas como Iris, Violetta y Acuarela necesitan con urgencia: protocolos y políticas estrictas sobre salud y seguridad en el trabajo, descansos y desconexión; condiciones de trabajo públicas, en formatos y lenguajes de fácil comprensión; transparencia sobre el papel de la automatización y las calificaciones de los clientes en la visibilidad de su contenido; canales de denuncia confidenciales con representantes humanos, a través de los cuales puedan reportar abusos relacionados con salud, saneamiento, consentimiento, derechos de imagen y abuso; información clara y suficiente sobre si sus datos y videos serán almacenados, protegidos o revendidos, y de qué manera; protección sobre sus derechos de asociación colectiva.

Es necesario garantizar a las personas que realizan trabajo sexual a través de plataformas el pleno disfrute de los derechos humanos y laborales, así como la igualdad de acceso al conjunto de derechos sociales, económicos, culturales y sanitarios. También, debe asegurarse su derecho a  la vida privada, a no sufrir discriminación y a decidir sobre su imagen y su cuerpo. El trabajo sexual requiere que, tanto a nivel social, institucional y corporativo, se cuestionen y desmantelen  los discursos y las prácticas patriarcales y paternalismas que históricamente han limitado el reconocimiento y ejercicio de derechos para las persoans trabajadores sexuales. Dichas prácticas no sólo obstaculizan la construcción de marcos integrales de derechos, sino que también facilitan prácticas empresariales que restringen su autonomía. Frente a ello, es crucial  reconocer el valor de la movilización social de este sector, que ha situado en el centro de su lucha la exigencia de protección, dignidad y respeto.

*Las historias presentadas en esta nota fueron reconstruidas (usando nombres diferentes) con la finalidad de narrar situaciones comunes del trabajo sexual, identificadas en las investigaciones recabadas durante la elaboración de la misma y en conversación con compañeras de la Asociación de Mujeres Meretrices de Argentina (AMMAR).

La militarización de la inteligencia artificial: violencia de género en contextos de guerra y conflicto armado

Esta columna fue publicada originalmente en Volcánicas

En un contexto marcado por una acelerada escalada de tensiones geopolíticas, el debilitamiento del sistema multilateral y un creciente desprecio por las normas internacionales, el mundo presencia la expansión de guerras, conflictos armados e intervenciones militares ilegales de enorme impacto para las poblaciones civiles. Al mismo tiempo, la IA se ha convertido en uno de los ejes centrales del discurso político y corporativo global.

La competencia por su desarrollo y control no solo enfrenta a gobiernos y grandes empresas tecnológicas, sino que también revela tensiones más profundas vinculadas al poder global, la seguridad y el futuro del ejercicio de los derechos humanos.

Entre las consecuencias más urgentes -y menos reguladas- del despliegue acelerado de estos sistemas se encuentra el aumento de formas de violencia de género facilitadas por tecnologías (VG FT). Observamos la aparición y expansión de prácticas como el acoso automatizado, la creación de imágenes íntimas falsas mediante modelos generativos, campañas de desinformación con sesgo de género, y formas cada vez más invasivas de vigilancia digital. A la vez, la gobernanza de estas tecnologías sigue estando profundamente fragmentada: mientras los marcos regulatorios sobre IA rara vez incorporan los riesgos específicos asociados a la violencia de género, las políticas dirigidas a abordar la VG FT todavía no integran plenamente los impactos de estos sistemas.

En este escenario, el desarrollo y despliegue de IA se entrelaza cada vez más con dinámicas de militarización y guerra. Este 8 de marzo nos obliga, por tanto, a mirar de frente una dimensión todavía insuficientemente abordada: la VG FT en contextos de guerra y conflictos armados.

Una aplicación incompatible con los derechos humanos

El despliegue de tecnologías basadas en IA en contextos de guerra y de conflicto armado no solo ya es un hecho, sino que continúa expandiéndose. Se utilizan, por ejemplo, para vigilancia masiva, análisis predictivo de amenazas, sistemas de armas autónomos y localización de “objetivos”.

Como han advertido numerosas expertas y organizaciones, los sistemas de IA no pueden evaluar adecuadamente principios fundamentales del derecho internacional humanitario, como la distinción entre combatientes y civiles o la proporcionalidad de un ataque. A esto se suman las implicancias para los mecanismos de responsabilidad y rendición de cuentas, ya de por sí difíciles de ejercer en estos contextos.

Como ocurre con muchas aplicaciones de IA, su incorporación suele justificarse en términos de eficacia. Pero: ¿qué significa “eficacia” en este contexto? ¿Puede hablarse de eficacia cuando se trata de sistemas utilizados para identificar, vigilar y atacar a personas? ¿Qué tipo de acción se considera eficaz en un escenario donde el resultado final es la expansión de la violencia? Si se parte de la premisa de que la eficacia depende del objetivo que se busca alcanzar, estudios señalan que estos sistemas están muy lejos de ser eficaces respecto a los objetivos que se les asignan.

Cuando sesgos y errores incorporados en el diseño de la IA se traducen en fallas al identificar objetivos, el costo recae literalmente sobre vidas humanas. La preocupación no se limita a fallos técnicos. En completa ausencia de reglas y límites, esos sistemas a veces son diseñados para identificar y atacar a personas que presenten determinados “marcadores”.

En cualquiera de estos escenarios, la noción misma de eficacia queda profundamente cuestionada. Si los sistemas fallan, el resultado es la muerte de personas que nunca debieron ser consideradas objetivos. Si funcionan como fueron diseñados, identifican y atacan a personas en función de su identidad. En ambos casos, lo que está en juego es la legitimidad misma de estos sistemas y su compatibilidad con el derecho internacional.

También se suele afirmar que estas tecnologías permitirían reducir las bajas civiles gracias a ataques supuestamente más “precisos”. El genocidio en Gaza ofrece un contraste brutal con ese argumento. A pocos meses del inicio del ataque militar por parte de Israel, expertas y expertos de Naciones Unidas advertían que se había destruido “un porcentaje mayor de viviendas e infraestructura civil que en cualquier otro conflicto que se recuerde”. En ese mismo contexto, señalaron el presunto uso de sistemas de IA para identificar objetivos y atacar viviendas familiares, con escasa consideración por la presencia de civiles en su interior o en sus alrededores.

Investigaciones periodísticas posteriores confirmaron el uso de IA por parte del ejército israelí en Gaza. Entre ellos destacan, por su carácter particularmente perverso, los sistemas conocidos como Lavender, Gospel y Where’s Daddy? (¿Dónde está papi?). Según reportes del Instituto de Estudios Palestinos, estos sistemas procesan enormes volúmenes de datos obtenidos a partir de años de vigilancia masiva sobre la población palestina que es utilizada para generar listas de personas y estructuras consideradas objetivos.

Mientras el sistema conocido como Gospel “recomienda” edificios e infraestructuras para ser bombardeadas, Lavender identifica personas como objetivos potenciales. Un sistema adicional, Where’s Daddy?, se utiliza específicamente para rastrear a las personas señaladas y ejecutar bombardeos cuando estas ingresan a su destino, el cual muchas veces es su vivienda familiar.

Según testimonios de agentes de inteligencia israelíes, la validación previa a autorizar un ataque podía durar alrededor de veinte segundos. Ese breve intervalo se utilizaba principalmente para comprobar si la persona señalada por el sistema era un hombre, usando al género como indicador de posible “combatiente”. No está claro si se trata de un procedimiento formalizado o de una práctica extendida dentro de las unidades involucradas.

Las consecuencias de este tipo de prácticas han sido devastadoras, siendo la mayoría de las personas asesinadas mujeres y niños. Lejos de proteger a la población civil, estos sistemas amplían la capacidad de identificar y atacar personas y aceleran el uso de la fuerza.

El uso de IA con fines militares se extiende a otros contextos y regiones del mundo. Según reportes periodísticos, Claude habría sido utilizado como apoyo en la invasión militar ilegal liderada por Estados Unidos en Venezuela en enero de este año, poniendo en evidencia que las implicaciones de estas tecnologías también alcanzan a América Latina.

La combinación de IA, vigilancia persistente y procesamiento masivo de datos en tiempo real configura nuevas formas de intervención basadas en la asimetría tecnológica y la superioridad informacional. Comprender esta lógica resulta crucial para América Latina y el Caribe, donde en los últimos años se han intensificado acuerdos militares, despliegues “temporarios” de tropas y sistemas de monitoreo vinculados a Estados Unidos en distintos países de la región.

La geopolítica detrás de la inteligencia artificial

El desarrollo y uso militar de la IA tiene como trasfondo una carrera tecnológica que asocia su desarrollo con la “dominación global” en una versión de la carrera armamentista en la Guerra Fría. Central a tal proceso es el desmantelamiento de legislaciones orientadas a generar protecciones. En el caso estadounidense, los documentos oficiales son explícitos al afirmar que quien controle el ecosistema de IA podrá fijar las reglas globales y obtener ventajas económicas y militares.

Los procesos multilaterales capaces de poner límites a tal lógica han fallado, como fue el caso del Pacto para el Futuro, adoptado en 2024 y presentado como una iniciativa para fortalecer el sistema internacional frente a los desafíos del siglo XXI. A pesar de que las bases normativas ya existen dentro del propio sistema internacional de derechos humanos, incluyendo la Resolución 48/4 del Consejo de Derechos Humanos y el informe del Alto Comisionado de las Naciones Unidas para los Derechos Humanos, que recomiendan establecer moratorias o incluso prohibiciones para sistemas de IA que no puedan utilizarse en conformidad con el derecho internacional.

No resulta sorprendente -aunque no por ello deja de ser indignante- que las iniciativas derivadas de este proceso se inscriban en esa misma falta de voluntad política para establecer límites efectivos. El Panel Científico Internacional Independiente sobre Inteligencia Artificial, creado a partir del Pacto para el Futuro para evaluar los impactos y riesgos de estas tecnologías, establece explícitamente que su mandato se limitará al ámbito no militar, asegurando así que una de las discusiones más urgentes sobre estas tecnologías quede deliberadamente fuera del análisis.

Las grandes empresas tecnológicas desempeñan un papel central en esta estructura. A través de crecientes alianzas público-privadas, contribuyen a consolidar dinámicas de poder cada vez más autoritarias y asociadas a prácticas abusivas de derechos humanos. Este poder se sustenta no solo en la enorme concentración económica e informacional que acumulan -facilitada en gran medida por la desregulación del sector-, sino también en la creciente convergencia entre intereses corporativos y estatales, que se proyecta de forma cada vez más evidente en la arena militar.

En un reciente informe, la Relatora Especial de Naciones Unidas sobre la situación de los derechos humanos en los territorios palestinos ocupados identificó 48 compañías globales que apoyarían directa o indirectamente el genocidio en Gaza. Según Albanese, la continuidad de esta violencia no puede comprenderse sin considerar también los incentivos económicos que la sostienen: el genocidio, advierte, también es rentable.

Perspectivas feministas frente a la militarización de la IA

La incorporación de IA en actividades militares está transformando las formas en que se produce y se ejerce la violencia de género en contextos de conflicto armado y crisis humanitarias. Sin embargo, el análisis de los conflictos y de los procesos de paz continúa estando dominado por perspectivas patriarcales que invisibilizan las afectaciones diferenciadas que enfrentan las mujeres, así como las contribuciones que los movimientos de mujeres han realizado en la construcción de la paz.

Abordar estas dinámicas desde una perspectiva de género implica reconocer dos dimensiones interrelacionadas. Por un lado, la militarización tecnológica profundiza violencias ya presentes en contextos de guerra, donde las desigualdades estructurales se intensifican y las violaciones de derechos humanos contra mujeres y niñas adquieren formas particularmente graves. Por otro, la incorporación de sistemas basados en IA está dando lugar a nuevas formas de violencia, lo que vuelve urgente ampliar los marcos desde los cuales se las analizan.

Para entender la violencia de género facilitada por tecnologías es recomendable incorporar factores contextuales desde una perspectiva interseccional que permita comprender estas violencias de manera situada. Las formas que adoptan tales violencias no son universales ni se experimentan de la misma manera en todos los territorios; están atravesadas por desigualdades sociales, culturales y políticas que configuran tanto las dinámicas de violencia como las posibilidades de respuesta.

Los ejemplos son múltiples. Entre ellos se encuentran campañas de desinformación generadas o amplificadas mediante IA, ataques dirigidos contra mujeres a través de contenidos como deepfakes -utilizados para desacreditar o silenciar a figuras públicas y activistas-, y el despliegue de tecnologías biométricas y de reconocimiento facial que permiten rastrear e identificar poblaciones enteras sin salvaguardias adecuadas. Estas herramientas, a menudo presentadas como neutrales o necesarias para la seguridad o la gestión humanitaria, pueden exponer especialmente a mujeres activistas y a otras comunidades en situación de vulnerabilidad.

Como evidencia el caso de Gaza, estos sistemas también interactúan con categorías simplificadas de género. Programas utilizados para identificar y rastrear objetivos han operado en gran medida a partir de marcadores binarios de género (hombre es igual a “combatiente”), aunque contribuyendo en la práctica a ataques que terminan afectando de manera desproporcionada a mujeres y niños. Este patrón se inserta, además, en un contexto más amplio de violencia basada en género documentado por organismos internacionales, incluyendo la destrucción de servicios de salud reproductiva y otras prácticas que diversas expertas han descrito como parte de un proceso de femigenocidio.

Organizaciones humanitarias han advertido que el uso de sistemas digitales en contextos militares puede acelerar el ritmo de la guerra, reduciendo los tiempos de deliberación y debilitando los mecanismos de control humano sobre el uso de la fuerza. En escenarios ya marcados por altos niveles de violencia y deshumanización, esta aceleración incrementa los daños para la población civil y amplifica patrones preexistentes de discriminación, exclusión y violencia de género.

Frente a este panorama, resulta urgente ampliar los marcos desde los cuales comprendemos la violencia de género facilitada por tecnologías, incorporando las dinámicas de militarización, colonialismo y desigualdad global que atraviesan el desarrollo y despliegue de estas tecnologías. Al mismo tiempo, la evidencia acumulada refuerza la necesidad de establecer límites claros al uso de IA con fines militares. Sistemas que no pueden operar en conformidad con el derecho internacional humanitario y el derecho internacional de los derechos humanos deberían ser prohibidos.

Este 8 de marzo nos recuerda que las luchas feministas han sido fundamentales para cuestionar las lógicas de violencia, militarización y dominación que atraviesan nuestras sociedades. Frente a la expansión de la militarización de la IA, incorporar perspectivas feministas no es opcional: es una condición fundamental para comprender sus impactos reales y para imaginar alternativas que pongan a la vida -y no a la violencia- en el centro.

Principios orientadores para una reforma legislativa y de políticas públicas frente a la violencia de género facilitada por la tecnología: hacia un sistema de responsabilidad

Junto a UNFPA y Derechos Digitales, lanzamos este documento que propone un marco integral para avanzar hacia leyes y políticas que protejan, reparen y garanticen los derechos de las sobrevivientes de la violencia de género en entornos digitales.

La guía ofrece enfoques transversales y seis principios esenciales para transformar los marcos normativos. Está dirigida a quienes trabajan en género, tecnología, justicia, políticas públicas y activismo, y busca aportar claridad, estándares y rutas concretas para reformas sensibles, participativas y con enfoque de derechos.

Intervención en la Audiencia Pública sobre el Proyecto de Ley No. 359 de 2025 Cámara – 247 de 2024 Senado, de Colombia

Este proyecto de ley propone adoptar medidas de sensibilización, prevención, protección, reparación y sanción frente a la difusión no consentida de material íntimo de carácter sexual, junto con otras disposiciones complementarias. Nuestra intervención subraya la importancia de integrar una perspectiva amplia de género y de garantizar un enfoque proporcional que fortalezca la protección de derechos sin generar impactos adversos.

Entre cuerpos y códigos: nuevos medios, viejas violencias

La violencia de género, que afecta principalmente a mujeres y personas LGBTIQA+, forma parte de la estructura del capitalismo. Se manifiesta a partir de diversas conductas y atraviesa distintos formatos que van mucho más allá de la violencia física. Históricamente, el control sobre los cuerpos ha sido una de sus expresiones más persistentes. Desde la reproducción forzada de mujeres esclavizadas para aumentar la mano de obra en las colonias, pasando por las altísimas tasas de violencia sexual -entre 2018 y 2022, se registraron más de 800 mil casos de mujeres víctimas de delitos sexuales en nuestra región, la mitad de ellas niñas con menos de 18 años-, hasta llegar a las leyes restrictivas en materia de aborto. De forma constante y sistemática, los cuerpos que no se amoldan a la lógica y la moral patriarcal, ven su autonomía limitada.

No solo el “cómo”, sino también el medio por el cual ocurre esa violación a la autonomía es reinventado constantemente. En las últimas décadas, ante el avance de la digitalización y la penetración de internet en América Latina y en todo el mundo, las tecnologías de información y comunicación pasaron también a ser soporte para esta vieja expresión de desigualdades y violencia de género.

Cuando las tecnologías reproducen el control

En 2016, la organización Coding Rights ya denunciaba fallas de seguridad en las aplicaciones de control del ciclo menstrual (las llamadas “menstruapps”), así como el uso indebido y opaco de los datos registrados por las usuarias para dirigir publicidad de acuerdo con los patrones de sus ciclos, como anuncios de toallitas, copas menstruales o termómetros. En 2020, Brasil presenció además el trágico episodio de una niña de 10 años que, al tener que ser trasladada a otro estado para ejercer su derecho al aborto legal por un embarazo producto de la violación de su tío, fue blanco de manifestaciones de grupos conservadores luego de la filtración de sus datos en redes sociales.

También forma parte de este conjunto de ejemplos lo sucedido en la provincia argentina de Salta, donde salió a la luz un proyecto del gobierno que utilizaba datos personales sensibles para “predecir” embarazos adolescentes. La iniciativa, cuestionada por organizaciones feministas y de derechos digitales debido a los sesgos del algoritmo, evidenció cómo las tecnologías pueden reforzar patrones de vigilancia y control sobre los cuerpos de niñas y adolescentes, especialmente aquellas provenientes de comunidades indígenas o de bajos recursos.

A ello se suman los constantes ataques digitales contra activistas feministas y defensoras de los derechos sexuales y reproductivos en distintos países de la región. En El Salvador, por ejemplo, organizaciones que acompañan a mujeres criminalizadas por emergencias obstétricas fueron objeto de campañas coordinadas de desinformación, acoso y discurso de odio en redes sociales, en un intento por desacreditar su labor y silenciar la denuncia sobre la penalización de la interrupción voluntaria del embarazo.

La desinformación, además, opera como un mecanismo de pánico moral: no solo ataca a quienes defienden derechos reproductivos, sino que instrumentaliza la propia agenda del aborto para generar confusión, miedo y resistencia social. En Paraguay, sectores conservadores difundieron narrativas falsas que vinculaban el Acuerdo de Escazú (un convenio sobre transparencia ambiental) con la supuesta imposición de agendas sobre aborto o “ideología de género”, en un uso estratégico de la desinformación que desvió el debate público y funcionó como cortina de humo, dificultando la discusión de un tratado clave para la protección de defensoras ambientales.

Junto a otras conductas como la difusión no consentida de imágenes íntimas y el stalkerware, estas prácticas son expresión de lo que llamamos violencia de género facilitada por las tecnologías (VG FT).

Del control a la resistencia digital

Pero si la tecnología es parte del problema, también puede -y debe- ser parte de la respuesta. En los últimos años, especialmente los colectivos feministas y LGBTIQA+ se han movilizado para hacer del entorno digital un espacio de resistencia y cuidado. Además de ofrecer servicios como líneas de ayuda para personas víctimas de violencia de género facilitada por las tecnologías, organizan campañas cuya pauta central es la autonomía sobre el propio cuerpo. Dos ejemplos importantes son: el movimiento Ni Una Menos, en Argentina, que desde 2015 articula protestas masivas tanto en las calles como en redes sociales contra los femicidios y las violencias machistas; y el movimiento colombiano Causa Justa, que utilizó estratégicamente plataformas digitales en la articulación del debate público que llevó a la despenalización del aborto por decisión de la Corte Constitucional en 2022.

El avance de la telemedicina para acceder a cuidados reproductivos seguros, como la interrupción voluntaria del embarazo, es otro ejemplo relevante de cómo las tecnologías pueden reforzar el ejercicio de la autonomía. En Brasil, dispositivos pioneros fueron clave para mitigar desigualdades territoriales en el acceso a servicios legales. De manera similar, en México, proyectos piloto demostraron que el aborto con medicamentos acompañado por telemedicina es seguro, eficaz y garantiza privacidad y autonomía para las usuarias. En países con sistemas de salud fragmentados o con profundas brechas territoriales -una característica común a toda América Latina-, estas iniciativas permitieron que más personas accedan a información confiable, acompañamiento profesional y atención oportuna, incluso en zonas donde los servicios presenciales son inexistentes o insuficientes.

La protección frente a las violencias de género facilitadas por las tecnologías

El 25 de noviembre es el Día Internacional para la Eliminación de la Violencia contra las Mujeres. El hito, instituido por la ONU en 1999, surge de la lucha feminista latinoamericana, en memoria del día del asesinato de las hermanas Mirabal en 1960, quienes se oponían a la dictadura en República Dominicana. En esta efeméride, es esencial recordar que eliminar la violencia de género implica también erradicar las violencias facilitadas por las tecnologías. Además, debe servir como un llamado urgente a fortalecer los marcos legales y las políticas públicas destinadas a enfrentar esta problemática.

Estos marcos deben partir de una perspectiva interseccional y basada en derechos humanos, e ir más allá de la criminalización y la punición de los agresores. Deben integrarse a otros encuadres preexistentes de prevención y protección frente a la violencia basada en género. También deben centrarse en las sobrevivientes y asegurar la capacitación de actores e instituciones para que puedan ofrecer respuestas sensibles y no revictimizantes a todas las personas que hayan sufrido violencias, tal como desarrolla el reporte Combating Technology-facilitated Gender-based Violence under the Lenses of International Human Rights Law, recientemente publicado por Derechos Digitales en alianza con el Fondo de Población de las Naciones Unidas (UNFPA). En el documento, analizamos marcos del derecho internacional de derechos humanos y legislaciones de ocho países sobre violencia de género facilitada por las tecnologías, para proponer directrices y caminos para enfrentar este fenómeno.

La lucha por la autonomía sobre el cuerpo y la lucha por la autonomía frente a las tecnologías de la información y comunicación están profundamente interconectadas. Ambas reivindican el derecho a decidir y experimentar entornos libres de acuerdo con esa decisión -ya sea respecto del propio cuerpo, de los datos personales o de la vida digital-. En una sociedad marcada por desigualdades de género persistentes, reconocer esta conexión es esencial para imaginar políticas que realmente protejan y amplíen las libertades y cuidados. Entre cuerpos y códigos, es necesario recordar que las tecnologías no crean las violencias de género, pero sí pueden reproducirlas o transformarlas. Que sigan siendo, entonces, cada vez más, herramientas de emancipación.

Combatir la violencia de género facilitada por tecnologías (VGFT) desde el enfoque del derecho internacional de los derechos humanos

Este documento, realizado con el apoyo de UNFPA, identifica vacíos comunes en distintas jurisdicciones sobre la violencia de género facilitada por tecnologías y sintetiza los principales desafíos conceptuales, estratégicos y legislativos. Elaborado con un enfoque interseccional y centrado en derechos humanos, este trabajo busca orientar futuras reformas legales y de política pública. Su propósito es apoyar a quienes diseñan políticas, investigan o defienden derechos en la construcción de marcos coherentes y garantes para prevenir, atender y reparar la VGFT.

Deepfakes: cuando las tecnologías promueven la violencia de género digital

Cada vez son más las noticias sobre casos de deepfakes en América Latina. Estas tecnologías, basadas en inteligencia artificial (IA), permiten crear imágenes falsas insertando el rostro de una persona en el cuerpo de otra, simulando situaciones que nunca ocurrieron, muchas veces de carácter sexual. En varios países de la región, se registraron casos particularmente alarmantes en colegios, donde niñas fueron víctimas de sus propios compañeros. Suelen utilizar estas herramientas para generar, compartir e incluso comercializar contenido sexual de sus compañeras. En los últimos años, los medios reportaron este tipo de hechos, principalmente en colegios privados de Perú, Ecuador, Brasil, Chile, Argentina y Guatemala, entre otros. Niños y adolescentes aprenden a explotar la tecnología para vulnerar a sus compañeras, mientras ellas quedan expuestas a una violencia para la que nadie tiene respuestas concretas.

Por su parte, la cobertura mediática sigue un patrón: los casos con mayor visibilidad provienen de colegios privados en zonas urbanas, pero eso no significa que sean los únicos. En un colegio de la Región del Maule, Chile, en una comuna fuera de los grandes centros urbanos, ocurrió un caso similar, por ejemplo. A diferencia de los anteriores, esta noticia no se encuentra fácilmente en internet y fueron las propias adolescentes quienes se vieron obligadas a denunciarlo en redes sociales.

En Latinoamérica, donde la mayoría de los colegios no pertenecen a élites, lo que llega a los medios representa solo una fracción de la realidad. Mientras algunos casos generan indignación, muchos otros quedan en el olvido, y en los contextos invisibilizados, las víctimas no reciben atención ni respuesta institucional.

En esta columna nos proponemos analizar qué rol están cumpliendo las aplicaciones de deepfake en América Latina en la proliferación de nuevas formas de violencia de género digital. A partir de estudios e investigaciones especializadas, indagamos las condiciones que las habilitan y las responsabilidades técnicas, políticas y económicas detrás de su funcionamiento, sin dejar de lado los desafíos urgentes que enfrenta la región para abordarlas.

Investigar el uso de apps de deepfake en América Latina

Los casos en colegios latinoamericanos mencionados evidencian un problema que trasciende lo técnico. La irrupción de este tipo de actos responde a un ecosistema digital que facilita su expansión sin considerar sus consecuencias. Según el informe State of Deepfakes 2023, el 98% del contenido deepfake disponible en línea tiene fines sexuales y el 99% de las personas representadas son mujeres. A esto se suma que el 48% de los hombres encuestados vio este tipo de contenido al menos una vez, y que el 74% no siente culpa por hacerlo.

Frente a esta realidad, grupos de investigación están tomando nota para poder reflejar conclusiones científicas y precisas. Junto a Situada, realicé una investigación para analizar el alcance de estas aplicaciones en la región, las condiciones que lo permiten y cómo su diseño facilita la violencia de género digital.

Para ello, se estudiaron 105 aplicaciones de deepfake publicadas en Google Play (Android), identificadas mediante una herramienta especialmente desarrollada para tal fin, la cual se conectaba a la tienda a través de una API. Gracias a esta conexión automatizada, pudimos recopilar información técnica y descriptiva de cada app, permitiendo observar patrones en su diseño y funcionalidad. El análisis de software suele centrarse en la usabilidad, pero es fundamental evaluar este tipo de tecnología más allá de lo técnico-comercial, desde una perspectiva ética, crítica y feminista.

Red flag: los hallazgos más preocupantes

La investigación de Situada detectó que el 89.5% de las aplicaciones de deepfake representan un riesgo para las mujeres, al facilitar la creación de contenido sexual no consensuado. El análisis reveló una combinación preocupante de factores sociotécnicos, lo cual se refleja en los principales hallazgos del estudio.

Uno de los primeros patrones identificados fue la falta de transparencia en el desarrollo de las apps: el 42.8% no indicaban su procedencia ni en Google Play ni en sus sitios web, dificultando la rendición de cuentas y sus motivaciones. Entre quienes sí reportaban autoría, se encontraron imágenes promocionales sexualizadas que refuerzan la objetivación de las mujeres. Además, se constató una clara brecha de género en los equipos que desarrollan estas apps, que refuerza la persistente falta de diversidad en el sector tecnológico.

Los hombres -especialmente del Norte Global- históricamente dominaron la innovación tecnológica, excluyendo las experiencias y necesidades de las mujeres. Esta dinámica fue ampliamente estudiada por autoras feministas que analizan cómo el diseño y la producción tecnológica reproducen desigualdades estructurales. Entre ellas, Judy Wajcman aportó conceptos clave en su libro “Tecnofeminismo”, donde explora cómo el desarrollo técnico está atravesado por relaciones de poder. Informes recientes de la UNESCO y Randstad confirman que menos del 30% de las personas que trabajan en IA son mujeres. Esta exclusión no responde solo a la falta de acceso o a las habilidades, sino a una cultura técnica masculinizada que condiciona lo que se diseña, para quién y con qué propósito.

Otro aspecto crítico identificado fue la clasificación que Google Play otorga a las aplicaciones. Esta tienda exige que todas las apps cuenten con una etiqueta de edad, asignada a través de un sistema gestionado por la Coalición Internacional de Clasificación por Edad (IARC por sus siglas en inglés). Para ello, los desarrolladores deben completar un formulario autodeclarativo y, en función de sus respuestas, se determina la categoría correspondiente (por ejemplo, “Mayores de 17 años”). Sin embargo, este mecanismo depende exclusivamente de la honestidad de quienes publican las apps. No hay verificación activa del contenido real de las aplicaciones. El análisis mostró que el 65.7% fueron clasificadas como “Apto para todo público”, pese a que se usan para la creación de contenido sexual no consentido. Clasificaciones que deberían proteger a las personas usuarias, terminan validando tecnologías dañinas bajo rótulos engañosos.

También se evidenció cómo estas herramientas operan bajo un modelo de negocio centrado en la rentabilidad. El 67.6% requiere un pago para desbloquear funciones principales y, aunque algunas ofrecen pruebas gratuitas, restringen la descarga hasta que se pague, incentivando la compra. Este modelo prioriza la rentabilidad por encima de cualquier principio ético, facilitando la explotación digital de los cuerpos de las mujeres. A esto se suma su facilidad de uso: el 96.2% fueron calificadas como intuitivas, incluso accesibles para personas sin experiencia técnica o dominio del idioma, lo que amplía su adopción.

Por otro lado, el análisis demostró que estos servicios en línea incorporan funciones que simulan besos o abrazos, normalizando la idea de que las mujeres pueden ser expuestas en situaciones íntimas sin su consentimiento. En los anuncios de estas aplicaciones, es común ver representaciones forzadas, casi siempre protagonizadas por un hombre, que utiliza una foto propia junto con la imagen de una mujer, reforzando dinámicas de control. Además, el uso de plantillas predefinidas contribuye a su hipersexualización: las opciones femeninas abundan en categorías como “Hot Bikini”, “Latex”, “Sexy Girl” o “Body Latino” (reforzando estereotipos fetichistas sobre las mujeres latinas), mientras que las plantillas masculinas son escasas y neutras.

Por último, las empresas detrás de estas aplicaciones eluden su responsabilidad legal a través de avisos en los que prohíben el uso de material no autorizado, pero dejan la ejecución en manos de la persona usuaria. Este hallazgo refleja que la estrategia legal no impide el daño, pero sí protege a las compañías que se benefician económicamente con estas prácticas. Al trasladar la carga moral exclusivamente a quien las utiliza, las empresas evaden su responsabilidad ética como diseñadoras de tecnología con impactos previsibles.

Una tendencia global reflejada en América Latina

Las conclusiones de esta investigación se inscriben en una tendencia global, de la cual América Latina no es ajena. Diversas organizaciones de la sociedad civil vienen advirtiendo que tecnologías como la deepfake forman parte de una creciente ola de violencia de género digital. En un informe reciente presentado a la ONU, desde Derechos Digitales, junto a otros grupos, señalamos que estas prácticas silencian voces y limitan la participación pública.

En la misma línea, Coding Rights documentó cómo ciertos servicios basados en IA imponen visiones patriarcales y coloniales sobre los cuerpos y decisiones de niñas y adolescentes en nuestra región. De forma similar, el Banco Interamericano de Desarrollo (BID) viene alertando sobre el uso de deepfake con fines de extorsión y humillación sexual, advirtiendo la ausencia de políticas regionales para enfrentar esta problemática.

En el plano legal, luego de recopilar casos de deepfake porn, activistas como Olimpia Coral insisten en que “la ley es insuficiente” y que es urgente capacitar a policías y fiscales para comprender estas tecnologías y atender adecuadamente a las víctimas. La evidencia también se manifiesta en el ámbito político. Un estudio de Fundación Karisma, en colaboración con ONU Mujeres, centrado en las elecciones legislativas de 2022, concluyó que la manipulación de información -incluyendo imágenes trucadas (deepfake) y suplantaciones- se convirtió en una forma de violencia digital contra candidatas mujeres. 

En conjunto, estos informes coinciden en lo que la investigación de Situada evidencia a nivel regional: las tecnologías de IA, cuando se desarrollan sin responsabilidad ética ni supervisión pública, reproducen violencias históricas hacia las mujeres

Neutralidad falsa: tecnologías que perpetúan la violencia de género 

Los resultados de estos análisis son alarmantes, pero no se comparan con el impacto en las mujeres afectadas. Mientras estas aplicaciones generan ganancias, las mujeres y niñas ven sus imágenes manipuladas y difundidas sin su consentimiento. Algunas temen salir de sus casas, otras sufren ansiedad y depresión, o son extorsionadas y revictimizadas por quienes minimizan el daño bajo la excusa de que “es solo IA” o “no es real”, ignorando que lo online tiene consecuencias en la vida offline.

Esta masificación no puede desvincularse de una economía de la conectividad que premia lo viral y convierte la exposición en capital. El número de descargas legitima estas prácticas como aceptables, invisibilizando sus impactos dañinos. Lo que ocurre en este mercado digital constituye una prolongación de la lógica patriarcal que trata los cuerpos de las mujeres como bienes disponibles para el deseo ajeno. Es una forma estructural de violencia donde la cosificación reduce a la mujer a objeto sexual y anula su agencia al servicio del placer masculino.

Plataformas como Google Play legitiman este ecosistema al permitir la circulación masiva de tecnologías que posibilitan agresiones simbólicas y sexuales sin consentimiento, bajo esquemas comerciales lucrativos. Responsabilizar únicamente a las personas usuarias es insuficiente. Se requiere cuestionar el sistema técnico, económico y normativo que habilita estas violencias.

El desafío no es solo denunciar, sino repensar la tecnología desde su raíz: reconocer que toda herramienta implica decisiones morales y políticas. Afrontar esta problemática requiere respuestas coordinadas: regulaciones con enfoque de género que obliguen a las plataformas a retirar contenidos no consentidos, y compromisos empresariales de transparencia que incorporen evaluaciones de impacto ético antes de publicar herramientas que puedan ser usadas para dañar. También es necesario avanzar en medidas de reparación integral para las víctimas, incluyendo apoyo psicosocial, acompañamiento jurídico y garantías de no repetición. Finalmente, promover una alfabetización digital crítica -especialmente entre jóvenes- puede prevenir estos usos violentos y construir una cultura digital basada en el respeto y el consentimiento. Avanzar hacia políticas públicas con perspectiva interseccional feminista y prácticas de desarrollo ético es una urgencia para garantizar que la innovación no se construya a costa de la dignidad de las personas.

La resiliencia digital del arcoiris

En medio de un mundo convulsionado por la irrupción de la IA, las personas intentan aprovechar los beneficios que estos avances tecnológicos pueden brindar pero, a la vez, buscan lidiar con aquellas consecuencias negativas que ese mismo uso puede traer, y que en ocasiones aún ni podemos identificar. Entre ellos, uno de los problemas que se ha profundizado y mutado es el de la Violencia de Género Facilitada por las Tecnologías (VGFT). Estudios de la ONU, y de personas especialistas en el tema, ya demuestran el impacto diferencial de ciertos procesos tecnológicos sobre determinados sectores sociales, grupos en situación de vulnerabilidad que pagan mucho más caro las amenazas del ámbito digital, entre los que se encuentran las mujeres y las personas de la comunidad LGBTIQA+.

Si bien las tecnologías históricamente han servido como espacio de refugio y red para los colectivos de la diversidad, hoy observamos un estrepitoso auge de los discursos de odio, hipervigilancia, persecución, acoso y violencia digital que sufren a diario estas poblaciones. ¿Cuáles son los desafíos que enfrentan ante este nuevo terreno digital hostil? ¿Qué estrategias construyen las organizaciones latinoamericanas para resguardar al colectivo LGBTIQA+ y aprovechar las tecnologías en su favor?

Resurgimiento de los discursos antiderechos

Antes de poner la lupa sobre el entorno digital, repasemos lo que las renovadas derechas de nuestro continente vienen expresando en relación a los derechos LGBTIQA+. El retorno de Trump a la Casa Blanca vino con una nueva propuesta para la derecha global: la batalla cultural radical contra lo que ellos denominan “agenda woke”. El actual gobierno de EE. UU. cerró todos los programas estatales de diversidad, equidad e inclusión (DEI) del gobierno federal, destinados principalmente a las minorías, entre otras políticas sustanciales.

Para los nuevos -viejos- paladines de los valores morales y la familia tradicional, la educación sexual en las escuelas es adoctrinamiento, el cupo laboral trans es un privilegio, el lenguaje inclusivo es una aberración para la lengua. Con esa narrativa justifican el cierre de políticas públicas e instituciones enteras y se pasean por conferencias internacionales con discursos cargados de odio contra personas LGBTIQA+.

Así lo vienen expresando los gobiernos de ultraderecha de Argentina y El Salvador. En el marco del último Foro Económico Mundial, el presidente Javier Milei, vinculó lo que catalogó como “versiones extremas de la ideología de género” con el abuso infantil. Desde que inició su gestión, Argentina está experimentando un rápido retroceso para los derechos de las mujeres y personas LGBTIQA+. Por su parte, pocos días después de asumir el poder, Nayib Bukele eliminó la Dirección de Diversidad Sexual, y en su participación en la Conferencia de Acción Política Conservadora (CPAC) de 2024, dijo: “Es importante que la currícula no lleve ideología de género”.

Sin embargo, estos escenarios regresivos no se circunscriben a países con gobiernos autoritarios de derecha. Según el Instituto Raza & Igualdad, el asesinato de personas por su orientación sexual o identidad de género es una realidad en Latinoamérica, al punto que la región se ubica como la más peligrosa en el mundo para personas trans. En ese contexto, Brasil, México y Colombia, gobernados por coaliciones progresistas y de izquierda, son los países con mayor número de casos, según el Trans Murder Monitoring. Por ejemplo, la regional América Latina y Caribe de ILGA determinó en un informe que en Brasil se asesina a una persona LGBTIQA+ cada 34 horas.

Entre las tendencias del informe anual 2024 de la Comisión Interamericana de Derechos Humanos (CIDH), se señala que, durante el año pasado, “los desafíos particulares que enfrentan las personas y grupos que padecen discriminación histórica y sistemática se intensificaron”. En particular, registran un aumento de discursos de odio, desinformación y cuestionamiento de los derechos de las personas LGBTIQA+ y mujeres, entre otros sectores sociales.

Narrativas digitales de odio

Las personas LGBTIQA+ en América Latina enfrentan diversas problemáticas en el entorno digital, que van desde la violencia en línea hasta la vulneración de datos personales, pasando por otras modalidades que configuran un escenario hostil, en lo que históricamente ha sido un espacio de red y refugio para esta comunidad.

Antes de repasarlas, hablemos de la brecha digital de géneros. Según la lista elaborada por la Internet Society sobre las tarifas de internet móvil, ocho de los diez países con los precios más elevados están en América. Más allá del costo del servicio, nuestra región cuenta con amplios territorios rurales o semiurbanos, donde se carece de energía eléctrica, así como del equipamiento de banda ancha necesarios para lograr cobertura de red. El reporte de ILGA “Acceder a la conexión: cerrando la brecha digital de las comunidades LGBTI en el mundo”, identifica que en América Latina la falta de infraestructura de red afecta especialmente a las personas LGBTIQA+, muchas de las cuales también se ven marginadas por su raza y/o condición de pertenencia a la población indígena.

La violencia digital contra las personas LGBTIQA+ viene en aumento en redes sociales como X, Facebook y YouTube, según la investigación de ILGA. Además, señala que este colectivo es más vulnerable a sufrir daños en línea que sus pares heterosexuales y cisgénero. Pero, ¿qué hacen las plataformas para regular estas agresiones y promover mayor inclusión y seguridad? Hacen poco o nada; e, incluso, en sintonía con la agenda conservadora global, permiten que estos comportamientos violentos se extiendan.

Tras los anuncios de Zuckerberg a inicios de 2025, los usuarios de las plataformas de Meta pueden denominar a personas gays o trans como “enfermos mentales”, sin restricciones. Una investigación brasilera demuestra que las personas usuarias de TikTok que se identifican como no binarias se han visto especialmente afectadas por la aplicación de las normas de las plataformas en América Latina. Las políticas de contenido y los términos de servicio tienen un impacto diferencial en su privacidad, autonomía, libertad de expresión y derechos sociales, económicos y reproductivos. Por otra parte, las principales conclusiones del “Índice de seguridad en las redes sociales” de este año, indican que las recientes revocaciones de las políticas contra el discurso de odio en Meta y YouTube representan graves amenazas para la seguridad de las personas LGBTIQA+; y que las plataformas suprimen desproporcionadamente el contenido de los colectivos de la diversidad mediante la eliminación, la desmonetización y el shadowbanning.

Para completar el diagnóstico, es importante destacar que esta población también sufre de manera desproporcionada la persecución e hipervigilancia digital, también conocida como “vigilancia queer”. Hoy es difícil que la huella digital contemple el anonimato de las y los internautas, lo que expone aún más a las comunidades LGBTIQA+ en relación con su privacidad y datos personales en la interacción digital. Los perfilamientos en redes sociales a partir de la identidad de género, no sólo se utilizan con fines comerciales y publicitarios, sino que también pueden ser una herramienta de los Estados para la vigilancia y criminalización de determinados grupos sociales.

Internet pintada con todos los colores

Si bien las personas y colectivos LGBTIQA+ reconocen estas problemáticas y sus impactos negativos, no están dispuestas a abandonar internet, sino más bien adaptarse a los tiempos que corren y construir la resiliencia digital que el contexto requiere. En la actualidad, tanto organizaciones feministas y de la diversidad, como colectivos por los Derechos Humanos en internet, se articulan y trabajan para crear espacios y herramientas que acompañen a estas comunidades a transitar de manera más justa, inclusiva y segura el ecosistema digital.

Derechos Digitales publicó una investigación que documenta la labor de tres líneas de ayuda en materia de seguridad digital operando en América Latina: el Centro S.O.S Digital de Fundación InternetBolivia.org en Bolivia, Maria d’Ajuda de Marialab en Brasil y Navegando Libres por la Red de Taller Comunicación Mujer en Ecuador. Además, a través de los Fondos que brinda la organización, se fomentan iniciativas que buscan generar resiliencia digital en los colectivos feministas y LGBTIQA+ de nuestra región, como por ejemplo un proyecto desarrollado por LatFem basado en cuidados digitales para ejercer más y mejor periodismo feminista.

Existen también plataformas digitales destinadas a documentar y archivar la historia de las diversidades, como son el Recursero Trans y el Archivo Trans de Argentina, el Colectivo Pedrina de El Salvador, el Archivo de la Memoria Transmasculina de México, y el Archivo de la Memoria Marica del Perú, así como varios proyectos de registro que fomenta el área LGBT+ de Wikimedia en plataformas abiertas. Asimismo, proliferan los medios de comunicación digitales con perspectiva feminista que prestan especial atención a la actualidad y agenda de la diversidad. Entre ellos podemos mencionar a la agencia Presentes, GenderIT.org, Volcánicas, Portal Catarinas, Wambra, Muy Waso y Altavoz LGBT+.

Con el fin de fomentar la seguridad digital de las personas y activistas LGBTIQA+, varios colectivos impulsan guías y recomendaciones: Libres y Segures de TEDIC en Paraguay, Guía de Defensa Contra la Violencia Digital de R3D e Impunidad Cero en México, y Nos Mantenemos Seguros: Guía de Seguridad Digital LGBTQ de GLAAD. Además, en la región se construyen plataformas que permiten realizar estadísticas, cifras y mapeos sobre la violencia digital contra personas de estas comunidades, como Sin Violencia, El Observatorio de Violencias LGBTIQ+ de ILGA LAC, o el Informe Anual de Derechos Humanos de la Diversidad Sexual y de Género de MOVILH Chile.

Una red inclusiva y diversa es posible

Las experiencias e iniciativas dan cuenta de una actividad dinámica y esperanzadora en lo que podríamos llamar la resiliencia digital del arcoiris. Valores históricos de la comunidad LGBTIQA+ como la solidaridad, el autocuidado colectivo, la red y la empatía, se ponen en juego también en la esfera de internet. Si bien podemos observar un giro hacia la privacidad que parece contrario a la disputa de visibilidad del movimiento, lo cierto es que las estrategias de privacidad resultan, en este contexto, una de las pocas herramientas con las que cuentan para evitar el expolio de los datos personales, y la conformación de perfiles de internautas, que implica también riesgos de vigilancia y control por fuerzas de seguridad estatales y grupos extremistas.

Pero está claro que sólo con los esfuerzos de la sociedad civil no alcanza. Se necesitan marcos regulatorios a nivel global, regional y nacional, que protejan a estos grupos en situación de vulnerabilidad y erradiquen la violencia de género digital. Los sesgos de los algoritmos y la IA se alimenta de discriminaciones y estereotipos históricos contra las minorías. Precisamos de enfoques interseccionales para abordar estos peligros, y compromisos concretos de las compañías de tecnologías para que internet vuelva a ser un espacio de fomento de los Derechos Humanos, y no todo lo contrario.

Muchas personas y activistas LGBTIQA+ abandonan las redes, o disminuyen su interacción en línea, por miedo. Es imprescindible el fomento de políticas públicas y reglas claras y transparentes para el funcionamiento de las plataformas, para que todas las personas, sin importar su identidad de género, puedan sentirse seguras en la red. Porque no volveremos al closet nunca más, ni en las calles, ni en internet.

Contribución al informe sobre los defensores de los derechos humanos que trabajan sobre el cambio climático y una transición justa

En el marco de la convocatoria de la Relatoría Especial de la ONU sobre personas defensoras de derechos humanos, presentamos junto al Instituto Nupef y TEDIC una contribución en la que abordamos cómo el uso de las tecnologías de las TIC puede combatir o agravar los riesgos que enfrentan defensoras del medio ambiente. En el documento, destacamos los temas de acceso significativo a Internet, amenazas a la integridad de la información y seguridad digital, ilustrándolos a partir del caso brasileño de las quebradoras de coco babasú.