#ViolenciaDigital

Derechos humanos, placeres artificiales: sobre la necesidad de pensar a la humanidad en entornos digitales

Desde el 2020, la Deepfake es considerada una de las amenazas criminales más serias de la inteligencia artificial y, aun cuando se han desarrollado sistemas que mediante ingeniería reversa pueden detectar la condición verdadera o falsa de un video, el daño reputacional que causa a las personas la circulación de material pornográfico simulado con sus características individuales es muy difícil de mitigar una vez que lo hecho ya está hecho.

CC:BY (Gilda Martini)

Hace casi una década, se popularizó el concepto de “valle inquietante”, traducción aproximada de uncanny valley. Se trata de cierta incomodidad en las personas ante androides altamente realistas o, mejor dicho, de la respuesta emocional que provoca la apariencia “casi humana” de un robot. Luego, en 2017, un usuario de Reddit con el seudónimo “deepfakes” subió contenido audiovisual lascivo con los rostros de Emma Watson, Jennifer Lawrence y otras celebridades.

Sin saberlo, bautizó a uno de los fenómenos más perturbadores del último tiempo. Actualmente, el 98% de todas las imágenes simuladas a través de sistemas de inteligencia artificial consisten en pornografía, de acuerdo con datos de un estudio de Home Security Heroes.

Si bien el material publicado por el original “deepfakes” se basaba en una técnica rudimentaria llamada faceswapping, en pocos años, el avance de la tecnología transformó aquello que resultaba inquietante en algo casi indistinguible de la realidad.

Con la popularización de tales tecnologías, la violencia de género facilitada por las tecnologías encontró su herramienta perfecta. En la plataforma Discord y, a través de Midjourney, un prompt (enunciado con términos clave) puede hacer casi realidad cualquier retrato ficticio de otra persona, con o sin su autorización. “Casi” pues, a pesar su sofisticación, esta tecnología no es perfecta: sutilezas como los pequeños pliegues de los dedos de las manos o el iris del ojo son demasiado humanas para la máquina. Aun así, el uso de prompts para generar imágenes pornográficas no consentidas no dejará de ocurrir, ya que siempre habrá consumidores de este tipo de material a quienes podrían escapárseles tales matices. La misma gracia que está fuera del alcance de la inteligencia artificial también está ausente de la percepción de este segmento.

Nuevas tecnologías, violencias antiguas

América Latina no ha estado excluida del avance de este tipo de violencia. En octubre de 2023, un grupo de estudiantes del Instituto Politécnico Nacional (IPN) de México, específicamente de la Escuela Superior de Comercio y Administración (ESCA), denunció a uno de sus compañeros, Diego N, por violencia digital, porque utilizó inteligencia artificial (IA) para alterar y crear imágenes sexuales de las estudiantes y comercializarlas a través de grupos de Telegram. Estas imágenes fueron creadas a partir de fotografías de las redes sociales. Luego de una investigación, se dio a conocer que el dispositivo del estudiante contenía alrededor de 166 mil fotografías y 20 mil videos, tanto reales como modificados con IA. Alrededor de 40% del contenido estaba relacionado con alumnas del IPN.

Además de la denuncia y expulsión del estudiante del IPN, se inició una investigación y un proceso legal en la fiscalía general de Justicia de la Ciudad de México. Al tratarse de un caso de violencia digital, las estudiantes apelaron a la Ley Olimpia, que tipifica como delito la difusión de imágenes de contenido sexual sin consentimiento.

La ley Olimpia ha sido utilizada en diversos casos en los estados de la república, pero esta vez toma una relevancia distinta por tratarse de una nueva tecnología utilizada para efectuar el delito, la IA. A pesar de la existencia de tal marco de protección, la diputada Guadalupe Morales confirmó que propondrá una iniciativa de ley para que se modifique el Código Penal de la Ciudad de México integrando una redacción que haga alusión los “deepfakes porno” como delitos contra la intimidad sexual.

La pregunta que queda es hasta cuándo será necesario criminalizar nuevas tecnologías y nuevos usos de tecnologías para intentar detener un tipo de violencia que tiene profundas raíces sociales.

En México, 70.1% de las mujeres mayores de 15 años han sufrido alguna forma de violencia a lo largo de su vida, de acuerdo con la última Encuesta Nacional sobre la Dinámica de las Relaciones en los Hogares del 2021. Casi la mitad de las mujeres han sufrido violencia sexual y más de un tercio alguna forma de violencia física. Más que un fenómeno nuevo y aislado, las deepfakes agregan una capa más en un contexto de máxima preocupación.

No hay vuelta atrás

“Todos los seres humanos nacen libres e iguales en dignidad y derechos y, dotados como están de razón y conciencia, deben comportarse fraternalmente los unos con los otros” reza el primer artículo de la Declaración Universal de Derechos Humanos – que cumple 75 años el próximo 10 de diciembre. Libres e iguales implica que todas las personas nos debemos respeto mutuo. La facilidad con la que las nuevas tecnologías proveen medios para vulnerar estas premisas nos obliga a darle más vueltas a los estándares mínimos que nos otorga la condición humana y sientan las bases para la convivencia en sociedad.En el ámbito físico (offline) de la vida, los límites deberían ser más claros: desde la postura corporal hasta la vestimenta, hay diversas estrategias para marcar distancia o proximidad de acuerdo con la voluntad de cada persona.

En el entorno digital, no obstante, las deepfakes derriban por completo dichas barreras. Además, y aunque correlación no implica causalidad, los datos son decidores: las nuevas generaciones reportan mayores índices de soledad que las anteriores, desarrollándose su vida social mayoritariamente en línea.

Las tácticas en el corto plazo para dar cuenta de este fenómeno pasan necesariamente por una educación sexual que promueva la equidad de género. Por otro lado, es necesario incluir una perspectiva interseccional de género al desarrollo de políticas públicas y a nivel legislativo: eso incluye las regulaciones sobre el tratamiento de datos personales. Además, en las discusiones sobre leyes de inteligencia artificial, es fundamental garantizar la participación efectiva de mujeres y personas LGBTQIA+, así como contar con evidencias específicas que ayuden a identificar abordajes efectivos y contextualizados para responder a las distintas formas de violencia.

Hay un importante avance en el reconocimiento de los derechos humanos desde la adopción de la Declaración Universal de los Derechos Humanos. Su carácter de universal implica que se aplica para todas las personas, sin excepción. Sin embargo, las brechas que persisten en su aplicación después de 75 años afectan particularmente las personas históricamente marginalizadas. La difusión de imágenes íntimas alteradas por medio de tecnologías de IA es una forma nueva de una vieja táctica que busca mantener un status quo en que las mujeres no tienen calidad de humanas y no pasan de meros objetos: sin derechos, sin agencia y plenamente manipulables según los deseos de terceros.

Desafortunadamente para quienes desean mantener controlada y sumisa la mitad de la población mundial, eso ya no es posible. No sólo está el sistema de derechos humanos como mecanismo de protección estable y consolidado, sino que también el movimiento feminista ha logrado visibilizar y denunciar vulneraciones y apropiarse de distintas tecnologías – no solo digitales – para protegerse, ejercer solidaridad y potenciar sus mensajes y luchas.

Como recuerdan los masivos movimientos desde América Latina, ninguna forma de violencia puede silenciar la voz colectiva que dice “ni una menos”. Frente al intento de retroceder, falta que los Estados e instituciones se comprometan, efectivamente, con un mundo más justo, equitativo y libre de violencia. Para todas, todos y todes.