Violencia digital de género y discapacidad auditiva: ¿Cómo nombramos lo que no se enseña?

En la era digital, la tecnología no solo facilita nuestra vida cotidiana, sino que se ha convertido en un terreno de lucha por derechos y equidad. Como periodista e investigadora en género y tecnologías, he observado cómo las dinámicas de poder y control, basadas en estereotipos de género, se trasladan al ámbito digital, afectando de manera desproporcionada a mujeres, niñas y la comunidad LGBTIQ+.

En este escenario, la realidad para las personas con discapacidad auditiva es aún más alarmante. La violencia digital de género que enfrentan ha sido escasamente documentada y menos aún abordada de manera adecuada. La falta de investigaciones y herramientas específicas para comprender y enfrentar las violencias que viven nos lleva a un escenario donde lo invisible se vuelve aún más inalcanzable, revelando una brecha crítica en la protección y apoyo que se brinda a esta comunidad.

El estudio ¿Cómo acompañar a mujeres Sordas que atraviesan situaciones de violencia por motivos de género?, realizado por UNFPA y Management Science for Health, revela que las personas con discapacidad tienen, en promedio, tres veces más probabilidades de sufrir violencia física, sexual y psicológica que aquellas sin discapacidad. Además, entre el 40% y el 68% de las jóvenes con discapacidad sufrirán violencia sexual antes de los 18 años. Aunque no existe información estadística específica sobre cómo la violencia afecta a las mujeres Sordas, es razonable suponer que estas cifras podrían ser aún más altas debido a las barreras en el acceso a la información y la comunicación.

Experiencias desde el aula

En julio de este año, realicé varios talleres en una escuela para personas Sordas en la comuna de San Joaquín, enfocados en identificar la violencia digital y generar estrategias comunitarias para enfrentarla. Este proyecto, desarrollado junto a la Fundación Instituto de la Sordera, tiene como objetivo empoderar a las y los jóvenes para que reconozcan estas violencias y, posteriormente, lleven a cabo una campaña comunicacional para compartir herramientas de prevención y abordaje con toda la comunidad educativa.

Una de las profesoras, que participó como intérprete en las sesiones, me comentó la poca participación madres y padres en el aprendizaje de la lengua de señas chilena, a pesar de contar con talleres gratuitos para ello. Esta falta de comunicación afecta gravemente la capacidad de las familias para generar espacios de confianza con sus hijos y brindarles herramientas para identificar y denunciar posibles violencias.

Dentro de los principales hallazgos que identifiqué durante el desarrollo de los talleres, está el alto uso de internet y dispositivos digitales por parte de las y los adolescentes, quienes buscan poder comunicarse, crear comunidad, y que enfrentados a la ausencia de espacios de confianza en el hogar, trasladan sus afectos a la vida virtual, participando de videochats con desconocidos (a través de plataformas como Omegle) y compartiendo a través de lives de instagram o vídeos de tik tok con otros jóvenes.

La gran mayoría reconoce pasar muchas horas en internet, principalmente desde sus teléfonos, y haber vivido intrusiones digitales por parte de personas anónimas que se apropian de sus videollamadas con otros amigos, para exhibir contenido sexualmente agresivo, dejarles comentarios incómodos o burlarse de ellos. Las adolescentes señalaron en tanto, que ya han recibido fotografías íntimas no solicitadas por parte de desconocidos, mensajes insistentes para establecer algún tipo de contacto físico, e intentos de grooming.

La preparación de estos talleres fue un desafío, principalmente por la falta de información específica. Si bien casi no existen estudios sobre la violencia de género hacia mujeres Sordas, las herramientas para cuantificar otros tipos de violencias, como la digital, son aún más escasas. En este caso, quise compartir con las y los adolescentes el número de whatsapp que la PDI actualmente promociona para realizar consultas relacionadas a violencias digitales, sin embargo, cabe preguntarse si realmente es un canal de comunicación e información accesible para todas las personas.

Por último, nos enfrentamos a una doble barrera idiomática. ONG Amaranta, en su Guía contra la violencia de género en línea en 2022, revelaba que una de las principales dificultades para que las personas se reconozcan como víctimas de violencia digital, está relacionada con la brecha del idioma, ya que la mayoría de las definiciones oficiales, términos y condiciones, y los canales de denuncia de las plataformas están siguen en inglés. Esto agrava aún más la situación para las personas Sordas, quienes aún no manejan señas específicas para identificar algunos de estos tipos de violencia, debido a la falta de campañas y políticas públicas educativas, en materia de alfabetización digital inclusiva.

Violencia de género, tecnologías y educación sexual

Un caso emblemático es el de Camila Villavicencio, profesora, intérprete en lengua de señas y activista por la inclusión de personas Sordas, quien fue encontrada muerta en el departamento de José Pablo Peñafiel, un ex compañero de colegio. A pocas horas de su muerte, los integrantes de su familia no pudieron declarar como testigos en el caso, debido a la falta de intérpretes de lengua de señas durante el proceso policial. Camila, antes de morir, intentó comunicarse con su hermana a través de llamadas telefónicas (cuando usualmente usaba videollamadas) y envió una serie de videos cortos del lugar donde se encontraba.

El caso ha avanzado lentamente, ya que la autopsia no encontró lesiones atribuibles a terceros. Sin embargo, José Pablo Peñafiel actualmente está en prisión preventiva por otros diez ataques sexuales a mujeres Sordas, varias de ellas adolescentes. Peñafiel, también con discapacidad auditiva, asistía a fiestas de la comunidad sorda y se ofrecía a llevar a las mujeres a sus casas, desviando luego el camino hacia una imprenta donde cometía los abusos, que posteriormente subía a sitios de pornografía.

Estos hechos salieron a la luz gracias a la lucha de la familia y amigos de Camila, a través de la cuenta de Instagram @JusticiaParaCami. Sus acciones de concientización y protesta revelaron la falta de protocolos para abordar la violencia contra mujeres Sordas. Debido a ello, otras jóvenes agredidas sexualmente reconocieron a Peñafiel como su agresor y realizaron una “funa” en redes sociales. Solo tras estos testimonios se abrió la investigación que actualmente tiene a este sujeto con prisión preventiva.

Esperanzas y desafíos

La UNFPA, en el marco del proyecto Promoviendo la realización del ejercicio de la capacidad jurídica de las Personas con Discapacidad en Argentina”, señala que la mayoría de las mujeres Sordas no acuden a los servicios de atención a víctimas porque desconocen su existencia o porque sienten que no recibirán la atención adecuada. «Si acuden, es porque se encuentran en situaciones extremas o porque son acompañadas por algún familiar o persona de su entorno más cercano, con la pérdida de privacidad y autonomía que esto implica.»

Las mujeres Sordas no tienen dónde ni cómo denunciar las violencias que sufren. La ausencia de una educación sexual integral, sumada a la falta de inclusión en el abordaje de estas temáticas a nivel institucional, hace imposible nombrar y denunciar las violencias. ¿Cómo nombrar algo que no sé que existe? ¿Cómo reconocer mi cuerpo y lo que he vivido? ¿Cómo puedo acercarme a denunciar si las opciones implican un testimonio hablado o rellenar un formulario digital de la Fiscalía? ¿Cómo acceder a ese formulario si nadie me ha enseñado a usar internet?

El Ministerio de la Mujer y la Equidad de Género, junto con la Fundación Nellie Zabel, lanzaron en 2021 la Plataforma del Centro de la Mujer Sorda, un espacio digital de atención y orientación ante la violencia de género, que incluye contenidos informativos adaptados a la lengua de señas chilena y conexión permanente con los CDM del país con horas de atención de lunes a viernes.

En cuanto a las violencias digitales, la Unidad de Género y Participación Ciudadana de la Subsecretaría del Interior de Chile presentó a principios de este año los resultados de su Consulta Virtual sobre Violencia Digital. Aunque incluyó una pregunta sobre discapacidad, no profundizó en experiencias específicas de violencia digital ni se plantearon estrategias inclusivas para aplicar el instrumento estadístico. Así, se perdió la oportunidad de incorporar las vivencias de personas con discapacidad y de obtener cifras para impulsar políticas públicas más inclusivas y efectivas en materias de alfabetización digital, abordaje de violencias digitales y su relación con el género.

Conclusiones

La violencia digital y de género contra mujeres y personas sordas no es solo un problema de derechos humanos, sino una crisis agravada por la falta de acción institucional y la ausencia de educación sexual integral inclusiva. El caso de Camila Villavicencio no es un caso aislado, sino un ejemplo de cómo las instituciones fallan sistemáticamente en proteger a las personas más vulnerables.

La incapacidad del sistema para ofrecer canales de denuncia accesibles y el vacío en la creación de políticas públicas que consideren las necesidades específicas de las personas Sordas, son un reflejo del desconocimiento estructural sobre lo que implica realmente crear canales de denuncia al alcance de todas las personas, y la falta de voluntad institucional en abordar las violencias que les aquejan.

El avance tecnológico, que debería ser una oportunidad para la inclusión y el empoderamiento, se ha convertido en un terreno peligroso para las mujeres y personas con discapacidad auditiva. La falta de educación, tanto digital como sexual, limita su capacidad para reconocer y nombrar las violencias que viven. Es imprescindible que como sociedad exijamos la inclusión real en todas las esferas, comenzando por la educación y la justicia.

Como lo señala la encuesta, Violencia Digital: Experiencias virtuales de niñas y adolescentes en Chile, aplicada por ONU Mujeres, ONG Amaranta y Fundación Datos Protegidos en 2021, las niñas y adolescentes se encuentran tres veces más expuestas a vivir experiencias de violencia sexual digital, cifra que podría llegar a ser mayor en las jóvenes de la comunidad Sorda, ya que en un primer acercamiento educativo para abordar estas temáticas, surgieron testimonios de haber experimentado la recepción de fotografías íntimas por parte de desconocidos y peticiones insistentes de intento de contacto físico o sexual, reflejando la urgencia de incluir lineamientos específicos para abordar estas violencias desde el sistema educativo, y también policial para saber qué hacer frente a estas situaciones.

Necesitamos seguir promoviendo proyectos e instancias formativas que permitan que nuestro trabajo en tecnología y derechos humanos pueda llegar a comunidades diversas, para ello es fundamental que como organizaciones de la sociedad civil nos acerquemos a conocer y establecer lazos de colaboración con activistas y comunidades de otras áreas, que nos permitan generar puentes y alianzas de trabajo colaborativo.

No podemos permitir que las barreras de comunicación sigan siendo un obstáculo para la protección de los derechos humanos. La tecnología debe ser un aliado, no un arma, y para ello necesitamos una reformulación radical de las políticas públicas que asegure un acceso igualitario y seguro a los espacios digitales. Solo entonces podremos hablar de un futuro tecnológico que no perpetúe las violencias, sino que las desmantele.

Examen Periódico Universal 4to ciclo, sesión 47 del Consejo de Derechos Humanos

Este informe ha sido elaborado en conjunto por el Instituto Panamericano de Derecho y Tecnología y Derechos Digitales.Se enfoca en el ejercicio de los derechos humanos en el entorno digital del Estado de Nicaragua y analiza el cumplimiento de las 11 recomendaciones aceptadas por Nicaragua que se vinculan a esta materia recibidas durante el tercer ciclo del Examen Periódico Universal (EPU) llevado a cabo en 2019

La escuela de mañana, ahora

La pandemia lo cambió todo. Se sabe. Uno de los ámbitos que sufrió mayores transformaciones fue la enseñanza y así lo alertamos en su momento, desde una mirada regional. Pasar de la sala de clases, espacio físico que comporta cierta intimidad funcional al proceso de aprendizaje, a un contexto sin estas características y, peor aún, sin garantizar primero la infraestructura necesaria para la educación a distancia, provocó, de acuerdo con UNESCO en ese entonces, una tragedia.  

Salto temporal al presente y ya no es solo la brecha de conectividad, la falta, la que está impactando de manera negativa al futuro de la humanidad; también la abundancia, expresada en la masificación de las herramientas de inteligencia artificial generativa (IA), pone en peligro la integridad de los conocimientos que adquieren, en este mismo instante, niñas, niños y adolescentes (NNA) en todo el planeta.

Todo esto ocurre al mismo tiempo en que la Unión Europea investiga a Meta, compañía a cargo de Facebook e Instagram, por una posible manipulación intencional a NNA mediante los algoritmos de estas plataformas y por no proveer las garantías suficientes de privacidad, seguridad y protección de menores, contraviniendo lo estipulado en la Ley de Servicios Digitales.

¿Alguien quiere pensar en los niños?

Se entiende que las plataformas sociales, por su nivel de alcance, sean el foco permanente de acciones legales e interpelaciones para rendir cuentas. Desconocemos, sin embargo, qué está pasando en cuanto a protección de datos y seguridad digital en las plataformas educativas. El paradero de los miles de datos recopilados durante una hora pedagógica por software “de ayuda” -intervenciones de estudiantes, materiales educativos, métricas de uso, etc.- es una incógnita.

Otro estudio publicado por UNESCO en 2023 es categórico al evidenciar los efectos negativos en la relación entre el uso de smartphones y los resultados educativos, pero también concluye que “si bien la prohibición de la tecnología en las escuelas puede ser legítima en ciertos casos, también se debe considerar su integración adecuada en el aprendizaje”.

Esta ambigüedad normativa se expresa en la falta de consensos mundiales al respecto. En San Pablo, Brasil, el mes pasado se anunció el uso de la IA para mejorar el currículo escolar producido por los profesores y las críticas no se hicieron esperar: cuál es el rol de las maestras en este cambio, cuáles son las líneas éticas que determinarán su uso y qué tipo de control existe sobre posibles afirmaciones falaces emitidas por estos sistemas, por mencionar algunas de ellas.

En Suecia, mientras tanto, la apuesta es por desescalar el avance de las tecnologías al interior de la sala de clases, luego de los magros resultados obtenidos por sus estudiantes, especialmente en cuanto a capacidades lectoescritoras, en mediciones internacionales. Tales efectos también fueron advertidos en nuestra región en 2018.

Como vemos, el problema es de larga data, pasan los años y, más allá de denunciar la guerra y el hambre, e implementar medidas absolutistas tipo “todo o nada”, desconocemos el verdadero impacto, en el mediano y largo plazo, de estas acciones en el aprendizaje escolar.

Un, dos, tres: Madurez

Contrario a las numerosas de voces de alarma que a diario alertan sobre un apocalipsis pedagógico que destruye la capacidad cognitiva de las infancias alrededor del mundo, lo cierto es que la tecnología, una vez más, es el chivo expiatorio de las malas decisiones que toma seres humanos como tú y como yo, a diferencia de que bajo su cargo tienen el destino del aprendizaje de millones de niñas, niños y adolescentes.

Fuentes consultadas para este análisis -madres y padres- así lo afirman: ven en los motores de búsqueda, aplicaciones de aprendizaje y, sobre todo, los juegos una enorme ayuda en la crianza de sus hijos, al permitir delegar en estas herramientas “la parte cuantitativa” de la educación y ocuparse ellas, en cambio, de entregar aquello que no puede medirse con calificaciones.

Un estudio publicado en 2023 en España, fruto de la colaboración público-privada, adopta un enfoque propositivo sobre este tema, preguntándose por el futuro de la IA en la educación, en América Latina. Sus conclusiones son optimistas: hay tiempo, de aquí al 2030, para meditar y establecer legislaciones claras sobre su uso en las aulas, llamando a todos los sectores (gobiernos, privados, academia, sociedad civil) a colaborar en este esfuerzo conjunto. En Latinoamérica nos toca generar instrumentos en esta misma línea, desde nuestro conocimiento de la realidad local a partir de la experiencia.

En este punto de la historia, “Papel v/s Pantallas” no es más que un título sensacionalista para atraer clics que, campañas de miedo o fearmongering mediante, reduce los desafíos en torno a la educación a una mera cuestión de soporte. La realidad nos muestra que el abrupto acceso a tecnologías que no podíamos siquiera describir hace cinco años trae consigo un deber de las personas adultas que las regulan, implementan y utilizan a comportarse como tales.

Un conocido refrán africano sostiene algo similar a la idea de que “Se necesita una aldea completa para cuidar de un niño”. Llegó la hora de hacernos cargo, aldea global.

Repartidores de aplicaciones: precarización al servicio del algoritmo

*This text is available in english here.

Poca atención hemos prestado, por ejemplo, al uso y propagación de los eufemismos que dislocan el lenguaje, y que obligan a llamar de otra forma al trabajo que se desempeña con la intermediación de plataformas. No son llamados trabajadores, sino ‘usuarios’.

Pensemos en el trabajo de los repartidores de comida, ejercido por personas que encuentran allí su principal o única forma de sustento económico. Es un trabajo que sabemos que se presta sin garantías de estabilidad laboral, sin salarios mínimos ni formas de protección y seguridad social básica, como salud o pensión. Un trabajo expuesto al rayo del sol y el agua, y bajo pobres condiciones de seguridad vial.

Es una actividad donde los trabajadores son calificados como ‘usuarios’ de aplicaciones tecnológicas ofrecidas por plataformas digitales que les permiten utilizarlas – la mayoría de las veces cobrándoles por ello– para contactar a restaurantes con usuarios/consumidores.

Un trabajo donde los repartidores no perciben salarios sino ‘propinas’, y donde las órdenes no las dicta un jefe, sino un algoritmo exento de responsabilidad o rendición de cuentas, pero que indica el cómo y dónde de la actividad a desempeñar. 

Se trata de una forma de trabajo que las doctrinas canónicas del derecho laboral temen denominar como tal, pues no encaja en la fórmula tradicional de las relaciones laborales según la cual se denomina trabajo a toda relación de subordinación, en la que el empleador dicta las condiciones del trabajo a otro, un empleado, y vigila su cumplimiento.

Ahora ¿por qué no se denomina trabajo a la actividad desempeñada por los repartidores de comida? Porque según las plataformas de repartidores, son libres de ejercer de manera independiente su actividad.

No son trabajadores, sino ‘repartidores independientes’

Pero ¿qué libertad tienen quienes encuentran en entregar comida a otros su único o principal medio de supervivencia económica? ¿qué independencia puede ejercer la persona que se rinde al dictado del algoritmo que establece, de manera arbitraria, cuál debe ser la cantidad aceptable de domicilios diarios para asignarle los mejores pedidos? o ¿cuál debe ser el tiempo mínimo de su entrega para que el repartidor no se exponga a algún tipo de sanción como puede ser, por ejemplo, la no asignación de ningún pedido en la plataforma?

No es considerado trabajo, pese a que como en cualquier empleo, las plataformas digitales de domicilios de comida pueden sancionar a quien incumple los ‘términos y condiciones’ del servicio, a través del bloqueo de la cuenta. Un bloqueo que, más allá de poner en riesgo el sustento vital del repartidor, se efectúa la mayoría de las veces sin mediar derecho a réplica o explicación alguna.

En definitiva, un trabajo que plataformas digitales y a veces los mismos reguladores de nuestros países se abstienen de calificar como tal, pese a que, en un contexto de crisis, como la pandemia, pocos dudaron en calificar y tratar como ‘trabajo esencial’.

Los eufemismos en las Altas Cortes: el caso de Colombia

El poder que tienen los eufemismos para disfrazar la realidad de lo que no es, también radica en convencer a otros de que su tarea no es examinarlos ni desmontarlos, sino en apuntar la vista hacia otra parte.

Por ejemplo, en Colombia, la Corte Constitucional falló en febrero de este año, un caso que involucraba a un repartidor afiliado a Rappi, la empresa colombiana de entrega de domicilios más grande del país y que presta servicios en varios países de América Latina.

El caso es más bien sencillo, pero sus matices por los eufemismos en juego fueron obviados por la Corte. En la acción de amparo o tutela, un repartidor había reclamado judicialmente por la vulneración de su derecho al debido proceso, pues le había sido bloqueada su cuenta sin que mediara justificación de la empresa que, por su parte, aludió al incumplimiento de los términos y condiciones del servicio una conducta acostumbrada por Rappi al punto de que la compañía tuvo que crear, por demanda del sindicato de domiciliarios, una Defensoría del Repartidor.

El reclamo judicial fue resuelto por la Corte al decir que el debido proceso, que comprende el derecho a recibir explicaciones frente a la aplicación de sanciones entre particulares, también rige a la relación de consumo entre los repartidores y Rappi. Y, en consecuencia, ordenó a la empresa a explicar de manera fundada y suficiente los motivos de su actuar a la persona afectada.

Pero la Corte evadió cualquier consideración que permitiese dar claridad sobre la naturaleza de la relación jurídica entre repartidores independientes y la plataforma digital, tan necesaria para que, por ejemplo, estos puedan reclamar condiciones dignas para la prestación de su actividad ‘esencial’. Esta omisión no inhibió a la Corte de afirmar que el bloqueo de la cuenta había puesto en riesgo el derecho al mínimo vital del repartidor afectado, entonces ¿qué relación de ‘consumo’ es esta que, una vez interrumpida por la parte más poderosa de esa relación contractual, es capaz de poner en peligro la subsistencia económica de la otra?

Los eufemismos que contaminan el lenguaje con el que nos referimos a la relación entre los repartidores –y otro tipo de trabajadores- y las plataformas digitales ameritan ser vistas de cerca, para que no sean el instrumento con el que, en la práctica, validemos la precarización de nuevas formas de trabajo que no resultan convencionales ante viejos dogmas.

De esos análisis tendremos que ocuparnos también, en las discusiones que tengamos sobre el futuro del trabajo y de los trabajadores en nuestra región. Como la sucedida en Europa, que luego de dos años de negociaciones, se adoptaron reglas aplicables a los repartidores de comida y conductores de vehículos de alquiler –como Uber- que, a través de una Directiva reciente, los ha calificado como verdaderos trabajadores y no como simples ‘independientes’, presumiendo una relación laboral entre estos y las plataformas digitales.

Cuando algoritmo rima con racismo

El racismo algorítmico es un término que se ha vuelto cada vez más relevante en la era digital. Se refiere a la forma en que los algoritmos y sistemas de inteligencia artificial (IA) pueden perpetuar o incluso exacerbar sesgos y discriminación racial. Aunque la tecnología se presenta a menudo como objetiva y neutral, la realidad es que puede reflejar y amplificar las desigualdades sociales existentes.

Un ejemplo cotidiano de esto se encuentra en las búsquedas en internet. Al buscar términos como «mujer bonita» u «hombre exitoso», los resultados tienden a mostrar imágenes de personas blancas, excluyendo la diversidad racial. Este sesgo se extiende a otras áreas, desde la selección de empleados hasta el reconocimiento facial. En este último caso, los algoritmos muestran preferencias hacia ciertos grupos raciales y discriminan a otros.

El problema radica en cómo se entrenan los algoritmos de IA. Estos sistemas aprenden a partir de grandes conjuntos de datos que, si no son lo suficientemente diversos o están sesgados, pueden llevar a conclusiones erróneas. Otro ejemplo a mano está en los algoritmos de contratación de personal. Estos tradicionalmente son entrenados con datos históricos que favorecen a los candidatos blancos, perpetuando entonces dicha tendencia.

Estereotipos racistas

Como se indicó al comienzo, un experimento revelador consiste en solicitar a un sistema de IA texto-a-imagen que genere ilustraciones de «hombres exitosos» o «mujeres exitosas». Los resultados suelen ser de personas blancas en contextos profesionales. En cambio, al pedir imágenes de “hombres pobres en Latinoamérica”, el sistema asume que son indígenas. Del mismo modo, al solicitar la creación de una imagen de «hombres negros trabajando, su representación visual es la de obreros”, mientras que para «hombres blancos trabajando» los muestra en una oficina y con trajes.

Las imágenes a continuación fueron creadas con DALL-E, incorporado en la versión 4.0 del sistema de IA ChatGPT. Haz clic en cada una de ellas para verlas en alta resolución.

“Hombre exitoso”: lo crea como un hombre alto, delgado, blanco y con barba.
“Mujer bonita”: tiene cabello claro, es blanca y con ojos claros.
“Hombres pobres de Ecuador”: asume que son indígenas.
Sucede lo mismo cuando solicitamos la una imagen de “mujeres pobres de Latinoamérica”.
“Mujeres de Latinoamérica trabajando”: son representadas, del mismo modo: como indígenas y en actividades relacionadas al campo.
“Hombres negros trabajando”: los crea como obreros…
 
pero si le pedimos que cree una imagen de “hombres blancos trabajando” los representa en una oficina.

Lo que subyace al racismo algorítmico

Entre las causas apuntadas para tales situaciones, están:

  • Datos de entrenamiento sesgados: los algoritmos de IA aprenden a partir de datos históricos. Si estos datos reflejan desigualdades raciales o no representan adecuadamente la diversidad de la población, el algoritmo puede aprender y reproducir estos sesgos. Un estudio de 2019 mostró que los sistemas de reconocimiento facial tenían tasas de error más altas para personas de piel oscura, especialmente mujeres negras, debido a la falta de representación en los conjuntos de datos de entrenamiento.
  • Diseño algorítmico: la inteligencia artificial no es magia. Quienes diseñan y desarrollan los algoritmos y sistemas de IA pueden, con o sin intencionalidad, incorporar sus propios prejuicios en la creación de algoritmos. Las decisiones sobre cuáles variables incluir, cómo ponderarlas y de qué manera interpretarlas pueden influir en los resultados finales.
  • Interpretación y uso de resultados: incluso si un algoritmo es técnicamente imparcial, la forma en que se utilizan sus resultados puede conducir a prácticas discriminatorias.

La investigación de Tarcízio Silva aborda el impacto del racismo algorítmico en la visión computacional, destacando cómo los sistemas de inteligencia artificial (IA) y aprendizaje automático pueden perpetuar y amplificar prejuicios raciales a través de sus mecanismos de reconocimiento y clasificación de imágenes. Silva examina la construcción y expresión del racismo en la infraestructura online y las interfaces digitales, argumentando que tanto los algoritmos (el «back end») como las representaciones visuales y textuales (el «front end») son materializan estereotipos invisibles que afectan a grupos racializados.

A través de un análisis fundamentado en la Teoría Racial Crítica y estudios sobre la blanquitud, Silva propone un marco para comprender y desmantelar la opresión algorítmica, subrayando la necesidad de abrir las «cajas negras» de la tecnología para revelar y confrontar los sesgos raciales inherentes en los sistemas de visión computacional. Su trabajo resalta la importancia de abordar tanto los aspectos técnicos como los culturales y sociales en la lucha contra el racismo algorítmico, instando a una mayor diversidad e inclusión en los campos de la ciencia y la tecnología. 

El racismo algorítmico es un desafío significativo en la era de la IA. Es crucial que las personas en roles de desarrollo, investigación e, incluso, las usuarias sean conscientes de estos sesgos y trabajen activamente para crear algoritmos más inclusivos y equitativos. Esto implica diversificar los conjuntos de datos, y también cuestionar y revisar constantemente los supuestos subyacentes en el desarrollo de tecnologías. El fiasco de Google Gemini, por citar un ejemplo reciente, nos enseña que no se trata de corregir el racismo con más racismo, sino de desarrollar colectivamente algoritmos igualitarios.

La lucha contra el racismo algorítmico y la creación de tecnologías más equitativas se basa en un principio clave: aprender y enseñar cómo funcionan realmente los sistemas tecnológicos por dentro. Comprender el funcionamiento interno de los algoritmos y los sistemas de IA es esencial para identificar y corregir los sesgos y prejuicios que estos pueden perpetuar. Esto requiere un enfoque educativo y formativo que no solo se centre en las habilidades técnicas —necesarias para desarrollar y programar software— sino también en la sensibilización respecto de los impactos sociales y culturales de la tecnología. En este sentido, la educación en tecnología debe incluir un currículo que aborde la ética en IA, la justicia social y los estudios sobre el racismo y la discriminación, proporcionando a los estudiantes las herramientas para construir sistemas más justos y representativos.

Desde Latinoamérica y entre los grupos minoritarios, la creación de capacidades en tecnología es especialmente crucial para desafiar y cambiar las narrativas dominantes en el campo de la IA. Al empoderar a estos grupos para que participen activamente en el desarrollo tecnológico, se abre la puerta a una diversidad de perspectivas y experiencias que pueden informar y enriquecer el proceso de diseño de algoritmos.

Fomentar la inclusión de voces marginadas en la ciencia y la tecnología contribuye a reducir los estereotipos raciales y sesgos en los sistemas de IA, y promueve la creación de soluciones innovadoras que atienden a las necesidades y desafíos de todas las personas. Por último, construir una comunidad tecnológica inclusiva y diversa, en nuestra región y más allá, es un paso fundamental hacia la eliminación de estereotipos raciales y la creación de algoritmos que sirvan equitativamente a toda la sociedad.

Solo así podremos asegurar que la IA sea un aporte al desarrollo.

Cibercrimen y castigo

En cierto clásico de la literatura universal de la segunda mitad del siglo diecinueve, deducible a partir del título de este texto, se nos presentan reiteradamente diálogos entre su protagonista, Raskólnikov, y un inspector de policía que dinamizan la historia, a la vez que permiten darle un vistazo a la realidad cultural, histórica e institucional del entonces Imperio Ruso. En uno de esos intercambios, el segundo le espeta al primero: “(…) y es que el caso general que responde a todas las formas y fórmulas jurídicas; el caso típico para el cual se han concebido y escrito las reglas, no existe, por la sencilla razón de que cada causa, cada crimen, apenas realizado, se convierte en un caso particular, ¡y cuán especial a veces!: un caso distinto a todos los otros conocidos y que, al parecer, no tiene ningún precedente”.

Esta deliberada ambigüedad con la que describo la novela tiene dos funciones: evitar spoilers e ilustrar que las definiciones en torno al crimen dependen, en gran medida, de los consensos al interior de cada grupo humano al respecto, sea este un clan, una tribu, un estado, un imperio, e incluso más allá: de acuerdo con el inspector, Porfiri Petróvich, depende de cada caso. Así, no es extraño que los procesos y mecanismos para legislar al respecto se extiendan por meses o años, sea a nivel local, regional o global.

La situación actual del Comité Ad Hoc de la Organización de las Naciones Unidas (ONU) encargado de elaborar una Convención Internacional para la Lucha contra la Ciberdelincuencia así lo evidencia, como hemos señalado desde el inicio de este Comité. La sesión supuestamente de cierre del Comité, finalizada el 9 de febrero, quedó en suspenso dada la falta de acuerdos en asuntos clave: el alcance de la convención, salvaguardas y derechos humanos, además de determinados crímenes específicos. La presidenta de la mesa determinó continuar la discusión en una sesión futura, de diez días de duración, posiblemente en julio de este año, lo que todavía debe ser aprobado y confirmado por la Asamblea General de la ONU.

El punto de partida de este curso fue una carta enviada, justamente, por la Federación Rusa al organismo internacional en 2017, que plantea la preocupación por “la gravedad de los problemas y amenazas que plantean los delitos relacionados con las tecnologías de la información y las comunicaciones (TIC)” y ofrece un texto preliminar de una convención contra la ciberdelincuencia, cuyo énfasis está en la amplia criminalización y promoción de la cooperación internacional para prevenir y combatir tales delitos.

Aunque no es la aproximación clásica para generar un instrumento internacional en instancias de las Naciones Unidas, en general dicha carta parece emanar de un genuino interés por asumir colectivamente los retos que comporta el desarrollo tecnológico. No obstante, la redacción del segundo de los tres objetivos ahí expresados, “impedir los actos contra la confidencialidad, la integridad y la accesibilidad de las TIC, y prevenir el uso indebido de las TIC” tiene la línea que más controversia ha causado en estos siete años: “(…) tipificando como delitos los actos descritos en la presente Convención” y que despierta sospechas sobre las reales intenciones de la Federación Rusa al presentar, más tarde, un borrador del tratado listo en la primera sesión, previo a cualquier discusión plenaria sobre la materia, a la par que está documentado el uso que se le da en ese Estado a tipos penales sobre cibercrimen para criminalizar de manera arbitraria a las voces críticas del actual Gobierno.

Luego, en noviembre de 2019, una resolución, patrocinada por Rusia –junto con Bielorrusia, Camboya, China, Irán, Myanmar, Nicaragua, Siria y Venezuela– para establecer un comité internacional para combatir el cibercrimen pasa en la Asamblea General de la ONU. Estados Unidos, la Unión Europea y otras naciones se opusieron a la resolución, junto con organizaciones de derechos humanos, incluidas la Asociación para el Progreso de las Comunicaciones y la EFF, las que instaron a la Asamblea General a votar en contra de la resolución, citando preocupaciones de que “podría socavar el uso de Internet para ejercer los derechos humanos y facilitar el desarrollo social y económico”. Un mes más tarde, sin embargo, la Asamblea General resuelve seguir adelante con esta iniciativa.

Un ajedrez imposible

Si las dinámicas de la política doméstica a veces pueden ser agotadoras e incomprensibles, cuando se trata de geopolítica, esto se enreda todavía más. Lograr que los 193 países que ocupan un asiento en la Asamblea General de las Naciones Unidas lleguen a consensos sobre las materias más diversas se vuelve una odisea. Hay diferencias entre países que son simplemente irreconciliables y el escenario provisto por la discusión hasta ahora de este tratado así lo demuestra.

El objetivo inicial de tipificación de delitos facilitados por TIC ha sido impugnado una y otra vez en cuanto a que no hay manera de realizar un catálogo de estos que deje contento a todo el mundo. Los Estados Miembros de este órgano internacional, al decidir sentarse en esta mesa y participar de las discusiones globales, lo hacen en conformidad con lo señalado en la Declaración Universal de los Derechos Humanos, documento rector de la Asamblea de la ONU, además de otros instrumentos similares. Sin embargo, en medio de las discusiones en esta sesión delegaciones de China, Cuba y otros Estados estimaron que el “lenguaje de derechos humanos” presente en el actual borrador es un exceso, siendo este un documento concebido nada más que como una guía en la aplicación de justicia.

Un ejemplo tiene relación con los artículos sobre explotación de menores en contextos digitales. El interés superior de las niñas, niños y adolescentes (NNA), además de la autonomía progresiva de las NNA, es una preocupación de todos los Estados, sin duda, pero las aproximaciones al resguardo de este son radicalmente opuestas entre el bloque occidental y el resto del mundo. Mientras que la UNICEF y la Oficina del Alto Comisionado de Derechos Humanos enfatizan que los adolescentes que están próximos en edad, madurez y desarrollo no deben ser criminalizados por una actividad sexual consentida y no explotadora, siempre que no exista ningún elemento de coacción, abuso de confianza o dependencia entre los adolescentes, muchas delegaciones como Egipto, Oman, Qatar, entre otras, expresaron que esta descriminalización no debería estar en la Convención.

Supongamos que un adolescente envía una nude o imagen íntima de manera voluntaria mediante una aplicación de mensajería instantánea. Según su nacionalidad, este acto puede constituir o una manifestación del libre albedrío y de la autonomía progresiva que todas las personas adquirimos conforme crecemos, o podría constituir el delito de producción de material pornográfico mediado por las tecnologías, habilitando su persecución y castigo con la ayuda de la cooperación internacional que fomenta el actual borrador del tratado.

Esto no tiene sentido para quienes habitamos el lado occidental del mapa mundial, pero ocurrió. Human Rights Watch documentó, hace un año, los casos de Yamen y Amar, dos jóvenes LGBTQAI+ de Jordania que fueron criminalizadas con base en su actividad en WhatsApp y aplicaciones de citas como Grindr. En ese país, el código penal considera a las relaciones del mismo sexo como ofensas a la moral y refleja el dilema que representa legislar con una perspectiva de derechos humanos a escala global. Los artículos 13 y 15 del borrador más reciente consolidan estas prácticas, al dejar al arbitrio de cada Estado la tipificación de delitos en este tema.

Alianzas inesperadas

No todo es tan oscuro. Esta última etapa demostró que la participación multisectorial logra resultados y, en nuestra región, podemos atribuirlos sin empacho al trabajo de incidencia que hemos realizado desde el consorcio AlSur junto con la Red en Defensa de los Derechos Digitales (R3D), el Instituto Panamericano de Derecho y Tecnologías (IPANDETEC) e Hiperderecho. Celebramos, igualmente, la articulación que se observa en el Sur Global. Una carta de la International Press Foundation recoge preocupaciones similares a las nuestras, emanadas desde la sociedad civil del continente africano. La Comisión Internacional de Juristas también puso el acento, en una declaración publicada en enero de este año, en la incorporación de principios de no discriminación, legalidad, interés legítimo, y necesidad y proporcionalidad en el texto discutido.

La mayoría de los países de América Latina se mostraron a favor de incorporar garantías de protección de derechos humanos en el borrador, y esto es el producto tanto de la incidencia presencial en las diferentes reuniones del comité como de la producción de investigaciones y relatorías que dan cuenta de la importancia de tales salvaguardas. Asimismo, la cooperación con otras partes interesadas también ha sido clave. El Manifiesto Multisectorial de 2021 fue firmado por organizaciones de la sociedad civil y representantes de la industria tecnológica, toda vez que hay preocupaciones compartidas respecto del alcance del tratado y sus posibles consecuencias en la fragmentación del ciberespacio.

Ahora durante la sesión de clausura, una carta abierta de la sociedad civil y organizaciones de la industria tecnológica puso el acento en que el primer propósito de un tratado de estas características es proteger a las víctimas de cibercrímenes, ofrecerles reparación efectiva y garantías en el resguardo de sus derechos humanos. Además, señaló que “Un nuevo tratado contra el cibercrimen no debe reducir las obligaciones existentes de los Estados en virtud del derecho internacional, especialmente el derecho internacional de los derechos humanos”. Por el contrario: lo que esperamos desde la sociedad civil es que dichas obligaciones se incrementen, en particular en lo que refiere a las consideraciones sobre género. Una victoria que podemos reconocer, en esta fase, es la incorporación de una frase sobre este tema en el preámbulo, fruto del esfuerzo sostenido y conjunto entre múltiples partes interesadas, aun cuando apuntamos a su incorporación transversal en todo el tratado.

Compañías como Microsoft, desde el primer momento, han expresado que el tratado no debe entenderse como un conjunto de tipos penales. En cambio, ha de fomentar el fortalecimiento de capacidades a escala global para combatir los delitos en entornos digitales, asegurar la consulta con expertas en la materia y poner especial cuidado en aspectos como el flujo transfronterizo de datos personales.

¿Qué hacer?

Frente al enorme poder que detentan los Estados Miembros en instancias multilaterales, cuyos consensos tienen impacto directo en las vidas de todas las personas, alianzas como las mencionadas son imperativas. Pese a que la suspensión de la sesión deja el tema en un limbo de incertidumbre, puede no ser solamente una mala noticia, por ejemplo, por los costos con este proceso. Pero cuando no hay poder suficiente para detener un proceso, demorar su cierre es una estrategia común desde las partes con menor ventaja.

Todavía queda tiempo para visibilizar los graves conflictos que podría acarrear la aprobación de este tratado y en esto la difusión y socialización de sus consecuencias cobra vital relevancia. Hemos sido testigos de cómo algunos Estados han modificado sus posiciones a partir de las conversaciones de pasillo en la ONU y la multitud de voces que han alertado sobre los aspectos más controversiales del tratado.

Desde el Sur Global, nuestra posición es clara: haremos todo lo que esté a nuestro alcance para impedir que un documento altamente punitivo, tremendamente amplio, sin limitar atribuciones estatales de vigilancia, y sin garantías efectivas de derechos humanos, tenga luz verde. En Derechos Digitales no le restamos importancia a la necesidad de regular el cibercrimen a escala internacional, pues va en la dirección correcta en el resguardo de los derechos humanos de todas las personas. Hemos señalado nuestros reparos y ponemos a disposición nuestras capacidades para seguir bregando por un documento que garantice mayor seguridad en línea a todas las personas, defendiendo y promoviendo los derechos humanos, con una perspectiva de género efectiva.

Tú también puedes colaborar. Visita el minisitio sobre este tema, comparte en tus redes, habla con tus amigas y revisa cuál es la posición de tu Gobierno al respecto. Petróvich, en otra conversación con Raskólnikov, afirma lo siguiente: “¿Qué importan estas normas, que en más de un caso resultan sencillamente absurdas? A veces, una simple charla amistosa da mejores resultados”.

El riesgo constante de ser periodista en México: un caso de filtración de datos personales

A finales de enero de 2024, se dio a conocer que una base de datos personales de más de 300 periodistas estaba circulando en un foro de filtraciones. La base contenía informaciones como la Clave Única de Registro de Población (CURP), el Registro Federal de Contribuyentes (RFC), identificaciones oficiales, dirección, entre otras. Según se pudo comprobar, ésta pertenecía al Sistema de Acreditación de Prensa de Presidencia, utilizada para el registro de periodistas que desean acceder a las conferencias matutinas del presidente Andrés Manuel López Obrador.

La noticia genera alarma dados los altos registros de violencia contra periodistas en México. De acuerdo con el informe semestral de Artículo 19, entre enero y junio de 2023, la organización registró 272 agresiones en contra de periodistas y medios de comunicación, de las cuales poco más de la mitad (140) tuvieron a instituciones del Estado como perpetradoras, lo que siembra una desconfianza hacia el gobierno con énfasis en las fuerzas armadas. Mientras tanto en 2022, se registraron 696 ataques, siendo el año más violento que haya monitoreado la organización desde el 2007.

Asimismo, existe el riesgo de que la información, disponible libremente por el filtrado, sea utilizada para incrementar las amenazas y ataques sufridos por comunicadoras y comunicadores en el país. Esta situación puede exponer a periodistas que ya se encuentran bajo el Mecanismo de Protección para Personas Defensoras de Derechos Humanos y Periodistas, y que han asistido a la conferencia matutina. Es sabido que pese a formar parte de los mecanismos de protección, algunas personas no han encontrado la seguridad necesaria, como el caso de Lourdes Maldonado López, quien – incluso habiendo expresado su miedo ante el presidente en una de sus conferencias – fue asesinada en 2022.

El discurso oficial no pareció compartir las preocupaciones de gran parte de la sociedad con relación a la filtración y la situación de los y las periodistas. En un primer momento, López Obrador se refirió a la filtración como una forma de atacar a su gobierno por parte de sus adversarios, como consecuencia de una “guerra sucia”, desviando a sí mismo el centro de atención y minimizando los riesgos implicados a periodistas y sus familiares.

La explicación sobre los hechos tampoco ha sido consistente en el tiempo. Inicialmente el presidente declaró que se trataba de un hackeo para desprestigiar a su gobierno. Posteriormente, la versión oficial de la base de datos a partir de una cuenta y credenciales de un funcionario que dejó de trabajar en la Coordinación de Estrategia Digital Nacional hace dos años.

En este momento, el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI) declaró que iniciaría una investigación e incentivó a las personas afectadas a presentar las denuncias correspondientes. Fueron 23 periodistas que iniciaron una denuncia penal.

Cuando la irresponsabilidad encuentra la incompetencia

La incapacidad de respuesta y acción del Estado mexicano cuando se trata de las múltiples vulneraciones de derechos humanos sufridas por periodistas no es exclusividad de este caso. La filtración de datos personales de periodistas es un eslabón más en esta cadena.

No es una prioridad y no existe compromiso gubernamental para proteger  periodistas en el país, y este caso sirve para reafirmarlo.  Además, demuestra la poca capacidad del gobierno, especialmente de Presidencia, para implementar medidas de seguridad adecuadas para el manejo de datos personales en su poder, más allá de las obligaciones establecidas por las normativas de protección de datos nacionales. La investigación del INAI en este proceso será crucial para contar con sanciones que impulsen una mejora en la capacitación sobre protección de datos personales. Mientras tanto, la pregunta que queda abierta es la que se refiere a los protocolos de seguridad para inhabilitar cuentas de exfuncionarios públicos.

Esta no es la primera filtración que ha sufrido el Estado mexicano en tiempos recientes. De hecho, fue gracias al hackeo de un grupo autodenominado Guacamaya, en 2022, que se pudo conocer más sobre las prácticas de vigilancia contra civiles – incluso periodistas – implementadas por la Secretaría de la Defensa Nacional (Sedena). El episodio no sólo contribuye a entender la poca diligencia en materia de seguridad digital por parte del gobierno, sino que también evidencia que el Estado también es cómplice en la fragilización de la privacidad y seguridad de periodistas y sus familiares.

Mientras esto sucede, la vida de las comunicadoras y comunicadores está en riesgo todos los días. Esta filtración de información personal pone en una posición aún más vulnerable a periodistas que se encuentran en la base, en especial aquellos y aquellas que previamente han recibido algún tipo de amenaza, lo que les ha llevado a ser parte del Mecanismo de Protección a Periodistas.

Este caso pone sobre la mesa la relevancia de la protección de datos personales de periodistas, pues su difusión puede traer graves consecuencias. Es crucial realizar una investigación exhaustiva sobre lo sucedido y analizar las medidas de gestión de datos personales que están siendo realmente aplicadas por los sujetos obligados, así como los protocolos de seguridad digital existentes. Esto podría tener como consecuencia el impulso y promoción de mejores prácticas en los gobiernos. Existe también, una necesidad imperativa de reparación del daño a periodistas que vieron vulnerados sus derechos, así como la implementación de una estrategia que contribuya a disminuir los riesgos a los que se puedan enfrentar. 

Sin duda, ejercer la labor periodística en México seguirá trayendo riesgos inminentes hasta que exista un interés y una preocupación efectiva por proteger a periodistas, especialmente por parte del gobierno. Es necesario un compromiso por garantizar el ejercicio de derechos humanos como la libertad de expresión y el acceso a la información, ejes centrales del periodismo.

El nuevo tratado internacional contra el cibercrimen no nos protege y pone en riesgo nuestros derechos

En febrero de 2024, tras dos años de negociaciones, la Organización de Naciones Unidas (ONU) presentará un nuevo tratado internacional para combatir el ciberdelito. Sin embargo, organismos expertos y activistas alrededor del mundo advierten que el documento contiene falencias importantes que pueden ser utilizadas para validar abusos contra los derechos humanos.

Los desaciertos del tratado son varios. Por un lado, estados autoritarios como China, Vietnam, Pakistán y la Federación Rusa han promovido una aproximación amplia al concepto de cibercrimen, con límites poco claros, que puede ser utilizada para perseguir actos legítimos en línea. Aunque algunos Estados se han manifestado contra esta perspectiva, no han sido capaces de asegurar un conjunto de mínimos necesarios para asegurar la convivencia democrática y el respeto a los derechos fundamentales.

En su forma actual, el tratado carece de salvaguardas suficientes en materia de derechos humanos que impidan que sea invocado para restringir derechos civiles y políticos, como la libertad de expresión en línea. Carece también de una perspectiva de género efectiva, abriendo la puerta para la persecución de las personas por expresar su orientación sexual o identidad de género en internet, en países que castigan a las personas LGBTQI+, cómo demuestra una investigación realizada por Derechos Digitales y APC.

Por el contrario, actualmente el tratado podría limitar la libertad de expresión al sancionar discursos legítimos con la excusa del combate al cibercrimen, como han advertido ampliamente organismos internacionales de derechos humanos. Además, el acuerdo entrega mayores herramientas para la vigilancia estatal de las actividades en línea y facilita la cooperación entre Estados para la recopilación e intercambio de información personal de la ciudadanía, sin los controles necesarios para evitar abusos.

En su versión actual, el tratado sobre cibercrimen está lejos de ser una herramienta que garantice mayor seguridad en línea a las personas y se constituye como una amenaza al ejercicio de derechos humanos, particularmente en aquellos países con democracias frágiles y un historial de autoritarismo.

Un tratado internacional sobre cibercrimen construido en la ONU no puede obviar la debida defensa y promoción de los derechos humanos. Hacemos un llamado a los Estados para que no cometan este error y adopten una perspectiva[VG1] para la persecución de los delitos informáticos que garantice a cada persona en el planeta el pleno ejercicio de sus derechos fundamentales.

¿Por qué nos oponemos al nuevo tratado internacional contra el cibercrimen?

  1. El tratado sobre cibercrimen que se discute actualmente en Naciones Unidas carece de salvaguardas robustas en materia de derechos humanos, lo que permite que sea invocado para perseguir y castigar actos legítimos, como expresar disenso político.
  2. El tratado sobre cibercrimen promovido por Naciones Unidas no incorpora una perspectiva efectiva de género. Esto posibilita la criminalización de mujeres y personas LGBTQIA+, socavando la lucha por la igualdad de género.
  3. El tratado contra el cibercrimen incluye delitos que atentan contra la libertad de expresión, como han advertido diversas organizaciones internacionales. Esto es un contrasentido con la misión de la ONU: no se puede aprobar un tratado que legitima violaciones a los derechos humanos.
  4. El tratado sobre cibercrimen que se discute en Naciones Unidas legitima la vigilancia estatal de las actividades en línea y facilita la cooperación entre Estados para la recopilación e intercambio de información personal de la ciudadanía, sin salvaguardas suficientes que impidan abusos contra el ejercicio de derechos fundamentales.
  5. En su forma actual, el tratado sobre cibercrimen está lejos de ser una herramienta que garantice mayor seguridad en línea a las personas y se constituye como una amenaza al ejercicio de derechos humanos, particularmente en aquellos países con democracias frágiles e historiales de autoritarismo.

¿Qué requisitos necesita cumplir un tratado internacional sobre ciberdelincuencia?

  • Un tratado sobre ciberdelincuencia debe garantizar mayor seguridad en línea a todas las personas, defendiendo y promoviendo el ejercicio de los derechos humanos.
  • Un tratado sobre ciberdelincuencia debe tener una perspectiva de género efectiva, que permee cada uno de sus artículos, garantizando que nadie sea perseguido por expresarse. Ello incluye la posibilidad de expresarse políticamente, así como de expresar la propia orientación sexual o la identidad de género en internet.
  • Un tratado sobre ciberdelincuencia debe abordar la especificidad de los delitos informáticos, proveyendo soluciones concretas y útiles a un problema real, en vez de medidas vagas que puedan ser utilizadas para perseguir acciones legítimas en internet.
  • Un tratado sobre ciberdelincuencia debe abordar adecuadamente la necesidad de limitar las atribuciones estatales para vigilar las actividades en línea, así como para recabar, tratar y compartir información personal de la ciudadanía con otros Estados.

Estas disposiciones son fundamentales para cualquier normativa internacional en materia de cibercrimen, particularmente una construida en Naciones Unidas. Sin ellas, el proceso no debería proseguir.

¿Qué puedes hacer para ayudar a que el tratado sobre ciberdelincuencia de Naciones Unidas garantice los derechos humanos?

  • Te necesitamos! En esta etapa del proceso tu ayuda es fundamental informando y creado conciencia sobre los peligros que representa el tratado sobre ciberdelincuencia en su forma actual y la necesidad de que este incorpore una perspectiva de derechos humanos robusta. Para ello puedes:
  • Publica información sobre el tratado de cibercrimen en tu sitio web, tu blog o tus redes sociales. Si necesitas ayuda, puedes copiar o adaptar los textos que hemos preparamos, así como las imágenes para redes sociales.
  • Contacta a tus representantes políticos. Cuéntales lo que está pasando y pídeles que exijan al país mantener un compromiso irrestricto con la defensa de los derechos humanos. Puedes usar la minuta que hemos preparado, si necesitas ayuda.
  • Contacta a la prensa, pídeles que informen a la ciudadanía respecto de lo que está pasando en Naciones Unidas con la discusión sobre cibercrimen. Si quieres, puedes utilizar el comunicado de prensa que preparamos.
  • Si se te ocurre otra idea, por favor, ejecútala. Y cuéntanos qué estás haciendo, queremos llevar un registro de las acciones y apoyarte en lo que necesites. Escríbenos a info@derechosdigitales.org.

Recursos útiles

El 2023 en retrospectiva: ¿qué fue de la defensa de los derechos humanos en la era digital?

De crisis en crisis

Parecería ser que no conseguimos salir de situaciones dramáticas. A la emergencia climática y las persistentes consecuencias económicas de la pandemia del COVID-19 y del capitalismo global, debemos sumar los constantes riesgos a nuestras frágiles democracias.

La crisis bélica con que terminó 2022 en lugares lejanos a América Latina, se esparció por el mundo, incluidas amenazas en nuestra región. La violencia en los territorios ocupados de Palestina se extendió al entorno digital, en forma de censura y acoso. A la vez, la atención de usuarias de redes sociales se volcó en solidaridad no solo con Gaza, sino también con el Congo y Sudán. Vimos protestas en toda la región, incluyendo la continuación de protestas contra el gobierno en el Perú, y el surgimiento de violenta represión contra las protestas en Panamá y Guatemala, además del escenario que hoy se abre en Argentina.

A pesar de los cuestionamientos a las plataformas sociales como espacios de desinformación y frivolidad, internet sigue siendo  un lugar para el activismo, la denuncia de violaciones de derechos humanos y el periodismo.

Más tecnologías, más vigilancia

En América Latina pasamos de un año marcado por la vigilancia mediante tecnologías a un año en que, bueno, sucedió lo mismo y a menudo peor. La repetida historia de la vigilancia a través de Pegasus tuvo nuevas revelaciones sobre espionaje en México, El Salvador (a una jueza en una extensión de las revelaciones de 2022) y República Dominicana. Y más spyware fue detectado en México.

A ello se suman los riesgos de moverse de un lado a otro en un cuerpo tangible, en una región con creciente adopción de sistemas de vigilancia biométrica. San Pablo, en Brasil, anunciaba una adquisición millonaria de un nuevo sistema de vigilancia pese a las victorias contra sistemas de reconocimiento facial en el pasado reciente; el transporte público en Bogotá y la policía en Medellín anunciaban nuevas capacidades en Colombia; el nuevo gobierno argentino anunció vigilancia de rostros para identificar y castigar a participantes en protestas. La biometría siguió su expansión para los movimientos entre países: organizaciones de sociedad civil denunciaron el uso en fronteras y sobre personas migrantes. Y mientras en Ecuador se fortalecen capacidades con fines de seguridad y hasta la figura de un agente encubierto digital, languidece la esperanza de hacer aplicable la ley de datos personales aprobada hace años.

Expresión y protesta bajo asedio: dentro y fuera de internet

La situación argentina, una de las secuelas de la elección presidencial de fines de 2023, es parte de una fuerte acción gubernamental contra la protesta social, que merecerá cercana atención en 2024. Con la misma preocupación por la capacidad de trabajo en asociaciones de sociedad civil levantamos la alerta por la regulación de organizaciones en Venezuela.

Vimos  aumentar y profundizarse parte de la discusión sobre desinformación, acentuada en nuestra región por actos de violencia en Brasilia a principios de año, con la preocupación adicional por la desinformación política en ese país. Mientras tanto, en Chile se inauguraba una comisión experta para formular recomendaciones pese a la incertidumbre sobre el real efecto de las mentiras digitales. El traslado de la preocupación hacia una discusión más amplia sobre la regulación de empresas de internet también tuvo énfasis en Brasil, donde el proyecto de ley que partió como uno sobre fake news se convirtió en un debate mayor sobre la regulación de plataformas digitales.

Una importante sentencia de la Corte Constitucional en Colombia, dio importantes luces sobre el rol del Estado en la garantía del acceso a internet, como elemento crucial en el ejercicio de derechos fundamentales.

Nuestra seguridad en el marco vigente de derechos humanos como la referencia directa para exigir deberes de los Estados se mantiene firme, por lo que seguiremos trabajando en el reconocimiento institucional de aquello que sabemos que son nuestras prerrogativas como titulares de derechos fundamentales.

Tecnologías para todas

Sabemos que hay un fuerte énfasis en producir nuevas formas de gobernanza para la inteligencia artificial, incluyendo esfuerzos regulatorios en la región. También nuestro trabajo de este año dio cuenta de la necesidad de integrar perspectivas feministas al desarrollo tecnológico, y publicamos un informe en la materia con contribución significativa de especialistas de toda América Latina, además de coorganizar un taller sobre justicia de datos para recabar más perspectivas de personas expertas de la región.

Nuevas actividades dentro de nuestra línea programática sobre inteligencia artificial e inclusión se proyectarán hacia los próximos años para dar cuenta de la necesidad de aprovechar la oportunidad histórica de incidir en el desarrollo tecnológico futuro, con respeto a la democracia, los derechos fundamentales, el medio ambiente, y la inclusión. Es cierto que la tecnología es una fuente de riesgos y oportunidades, pero materializar estas últimas requiere una actitud vigilante y proactiva.

Solidaridad en tiempos de crisis

Este año, el trabajo de Derechos Digitales se vio fuertemente marcado por nuestra dedicación a la colaboración y el fortalecimiento de la sociedad civil en toda la región. Condujimos regionalmente acciones dentro del proyecto Greater Internet Freedom, para generar evidencias, reforzar activismo y construir capacidades en varios países de la región, dando lugar así a la publicación de una nueva versión de Latin America in a Glimpse, dedicada la conectividad en distintas áreas de la Amazonía.

También apoyamos financieramente al trabajo de activistas en la región, entregando fondos a 20 iniciativas de 13 países de la región, a través de nuestro Fondo de Respuesta Rápida y nuestro nuevo Fondo de Derechos Digitales, cuyo sistema de gestión sigue recibiendo el registro de postulantes y de proyectos. Apoyamos la formación de capacidades para personas en etapas iniciales o con interés en el trabajo por los derechos digitales, mediante un curso introductorio a fines del año. Examinamos el rol de la evaluación en el trabajo del activismo de sociedad civil.

Este año, inauguramos el Programa LaREDD, para la resiliencia y la defensa digital, mientras mantenemos nuestro trabajo de formación de confianza con personas expertas en seguridad digital en la región. Recibimos al primer par de pasantes con énfasis de inclusión en materias de seguridad y resiliencia digitales.

Fuimos parte del lanzamiento de una nueva Red Global para la Justicia Social y la Resiliencia Digital. Mantuvimos nuestra participación en nuestras múltiples redes, como el consorcio AlSur, la Asociación para el Progreso de las Comunicaciones (APC), IFEX, la Global Network Initiative (GNI), el Movimiento para una Mejor Internet (MFABI), la Red de Datos para el Desarrollo (D4D) y más.

Creemos en la cooperación como vía para el fortalecimiento mutuo, y seguiremos en ese camino.

Los desafíos globales de 2023 y 2024

Nuestra misión regional reconoce la necesidad de poner atención en procesos y eventos globales relacionados con los derechos humanos en la sociedad digitalizada. Seguimos con fuerte involucramiento en lugares como: el Comité Especial que discute un nuevo tratado de cibercrimen en el Tercer Comité de la ONU; el Grupo de Trabajo de Composición Abierta del Primer Comité, dedicado a la seguridad y el uso de las tecnologías, especialmente por los Estados. Continuamos el seguimiento de procesos en foros técnicos que inciden en el desarrollo de las redes y el impacto de las mismas en las posibilidades de los derechos humanos; la atención a tratados de libre comercio que por la vía del intercambio comercial pueden comprometer los derechos de las personas o transarlos por ventajas económicas.

También en  la Comisión de la Condición Jurídica y Social de la Mujer de la ONU, dedicada a las tecnologías y la superación de las brechas; en el seguimiento de las discusiones en la Organización Mundial de la Propiedad Intelectual con posible impacto en el futuro del acceso al conocimiento; todo sumado a la atención dada a espacios como la UNESCO y sus iniciativas en IA y en gobernanza de plataformas, el Foro de Gobernanza de Internet, la Freedom Online Coalition, y mucho más.

En 2024 seremos testigos de la celebración de una Cumbre para el Futuro, organizada por Naciones Unidas, que incluirá un Pacto Digital Global, cuya elaboración ha traído múltiples preocupaciones para una sociedad civil global con renuencia a dejar el futuro digital a la decisión entre estados. Sabemos que se trata de una oportunidad de retomar el futuro a favor de los derechos humanos, por sobre los intereses gubernamentales.

Y en todos estos espacios, actuales y futuros, locales y globales, confiamos en el poder de la sociedad civil para cambiar la sociedad. La defensa de una perspectiva latinoamericana de los derechos humanos en la era digital requiere también la visibilización de la misma en múltiples espacios, gubernamentales e intersectoriales, con alcance global y con solidaridad transregional con el resto de la Mayoría Global.

El 2024 será un intenso año electoral, incluso para varios países de la región. Estaremos atentas a los procesos de cambio y a las posibles amenazas a nuestras democracias.

También, con una preponderancia de las personas, como tú y yo, y de grupos y comunidades, como todas nosotras, como verdaderas agentes de cambios que no tengan al poder estatal o empresarial como los grandes ganadores del futuro. Puedes confiar, como siempre, que desde Derechos Digitales seguiremos trabajando para que el futuro sea de todas.