Reflexiones feministas para el desarrollo de Inteligencia Artificial

Durante el primer semestre de 2022, Derechos Digitales desarrolló, con apoyo de la red f<A+i>r, una guía sobre Inteligencia Artificial (IA) feminista titulada Hacia un marco feminista para el desarrollo de IA: de los principios a la práctica.

El documento comienza con la pregunta «¿Es posible desarrollar IA que no reproduzca lógicas de opresión?», invitándonos a reflexionar en torno a cómo entendemos el campo de la IA y cuál es la participación de América Latina en los escenarios de producción de conocimiento en este campo, cuáles son los problemas de discriminación asociados a la manera en que se configura el campo de la IA actualmente y qué propuestas alternativas para la gestión cuidadosa de los datos existen. En el fondo, se trata de intentar comprender cómo las prácticas feministas pueden sentar las bases para el desarrollo de una IA inclusiva y con sentido de justicia social.

Para continuar esta discusión, entre enero y febrero de 2023, Derechos Digitales organizó una serie de conversatorios entre mujeres latinoamericanas que se encuentran desarrollando sistemas de Inteligencia Artificial al alero de la red f<A+i>r, junto a otras mujeres expertas en IA en la región. El objetivo principal de estos encuentros fue incentivar la reflexión a partir de experiencias de desarrollo de proyectos concretos. Intercambiar recomendaciones y metodologías aplicables al diseño de los sistemas, con perspectivas feministas.

Este texto está disponible en inglés y portugués.

Sobre la construcción de este texto

Este texto busca sintetizar las conversaciones desarrolladas durante los encuentros, enfatizando conceptos, desafíos y aprendizajes que pueden inspirar iniciativas futuras de desarrollo de IA. Además de referencias directas a los diálogos y a las intervenciones de las participantes, el texto busca expandir sus ideas y combinarlas con otras referencias.

Abajo se encuentra una breve descripción de las temáticas abordadas en cada uno de los espacios de diálogo realizados a lo largo del proyecto:

  • El primer encuentro, realizado el 26 de enero de 2023, se tituló “Las tecnologías como procesos colectivos” y contó con la participación de Sofía Trejo e Iván Meza, quienes se encuentran desarrollando el proyecto “Agente conversacional para apoyar el ejercicio digno de la interpretación en lenguas indígenas en el ámbito jurídico en México”. Conversaron con Karla Prudencio, directora de la Licenciatura en Derecho del Centro de Investigación y Docencia Económicas de México, sobre compromisos metodológicos para el codiseño entre comunidades, entendiendo, comprendiendo y colaborando con sus necesidades.

  • En el encuentro «Inteligencia Artificial, ¿para qué y para quién?», realizado el 31 de enero de 2023 junto a la experta Fernanda Carles, se intentó responder a la pregunta: ¿cuáles son los pasos a seguir para construir un sistema de IA? Carles mencionó algunas consideraciones a tener en cuenta en cada paso del desarrollo de proyectos de IA con un objetivo social.

  • La tercera sesión, realizada el 2 de febrero bajo el título “Poder feminista – Poder de la IA. Conexiones y disrupciones”, se planteó como una conversación entre Cristina Martínez Pinto y Luz Elena González, coordinadoras del proyecto “Perspectiva de género en el trabajo colectivo de IA en el Sur Global”, con Gina Neff, directora ejecutiva del Minderoo Center for Technology and Democracy. Las participantes dialogaron sobre cómo desarrollar posibles estrategias para lograr la participación de las mujeres trabajadoras colectivas o crowd workers en esfuerzos de conexión y organización de forma digital.

  • En  “¿Se puede ajustar el enfoque feminista a los protocolos?”, cuarta y última sesión del ciclo, realizada el 8 de febrero,  Virginia Brussa, una de las responsables del proyecto “Integración de la perspectiva de género al diseño de proyectos de Data Science para el sector público en Latam”, intercambió con Maia Numerosky, ingeniera en ciencia de datos, quien compartió sus perspectivas sobre el desarrollo y despliegue de proyectos de este tipo desde el sector público y la academia.

Los conversatorios contaron con la facilitación de Adriana Castrillón y Juliana Guerra, y la participación activa de personas del equipo de Derechos Digitales y del nodo de América Latina y el Caribe del proyecto f<a+i>r.

Iniciativas de IA feminista en América Latina

CC:BY (Maria José Porras Sepúlveda)

América Latina ha sido un importante centro de producción y reflexión sobre tecnologías feministas y en materia de IA no es diferente. Desde 2020, la red f<a+i>r, viene creando un espacio de intercambio y fortalecimiento de una serie de iniciativas que se proponen pensar y desarrollar una IA inclusiva y transformadora. Actualmente, la red es liderada por Women at the Table, el Tecnológico de Costa Rica y el Tecnológico de Monterrey, con el apoyo del International Development Research Centre (IDRC), y tiene un activo nodo en América Latina y el Caribe. Además de constituir una red, f<a+i>r promueve la investigación y la experimentación con la producción de IA feminista.

A continuación encontrarás más detalles de los proyectos de IA feminista discutidos durante los diálogos impulsados por Derechos Digitales y que fueron apoyados y financiados por la red f<a+i>r en América Latina entre 2022 y 2023

Agente conversacional para el apoyo al ejercicio digno de la interpretación en lenguas indígenas en el ámbito legal

La iniciativa buscó codiseñar con intérpretes de lenguas indígenas un agente conversacional que permitiera a las personas intérpretes generar datos de forma colaborativa para visibilizar las problemáticas que enfrentan en el día a día al desarrollar su labor; mejorar la planeación y toma de decisiones; dar mayor poder de incidencia en política pública a las personas intérpretes y a sus organizaciones en temas relacionados con interpretación y acceso a justicia en México. De manera complementaria el agente permitiría a las personas intérpretes construir conocimientos colectivos (como glosarios) que pudieran servirles como herramientas de apoyo en su labor. 

El proyecto buscó alinear todos sus procesos y resultados con los principios de codiseño, beneficios compartidos, autonomía digital y soberanía de los datos. Para poder accionar estos principios, una parte fundamental del trabajo de investigación se sustentó en talleres presenciales, que sirvieron como espacio de diálogo y escucha. Además de los principios, el proyecto tomó en consideración la perspectiva de género de manera transversal durante todo su desarrollo. No solo al buscar la equidad en cifras, sino al generar un espacio (un taller de género) que permitiera incorporar la perspectiva de género en el diseño del proyecto y del agente.

Fue importante para el proyecto que todos los procesos de desarrollo estuvieran enfocados en balancear las relaciones de poder entre los diversos actores involucrados, particularmente entre el equipo de investigación, las personas intérpretes y los grupos de intérpretes. Este ejercicio se vio reflejado en la metodología de trabajo, que incluyó la elaboración de un protocolo de investigación y acuerdos comunitarios, y el establecimiento de estrategias para accionar los Principios CREA para el manejo de datos indígenas a lo largo del proyecto.

Más información sobre el proyecto y las personas intérpretes que colaboraron en su desarrollo puede ser consultada en su sitio web.

Integración de la perspectiva de género al diseño de proyectos de ciencia de datos para el sector público

Esta iniciativa tuvo por objetivo formular una metodología de diseño de proyectos de ciencia de datos para funcionarios públicos, a partir de dimensiones alternativas de análisis y de propuestas de acción regional. En el análisis se integran enfoques provenientes del campo de la justicia de datos, del diseño y la interseccionalidad, para promover una implementación crítica de la ciencia de datos en la arena pública y profundizar etapas claves que fortalezcan la formulación de preguntas, conformación de equipos y la naturaleza híbrida de los datos inherentes a los procesos de toma de decisiones.

La metodología de desarrollo incluyó la realización de tres talleres en octubre y noviembre de 2022 en Rosario, Argentina, dirigidos a funcionarios públicos y activistas de diversos campos de la región. Durante los talleres se exploraron y validaron cambios a una ficha de diseño de proyecto utilizada en Chile y publicada en una guía del Banco Interamericano de Desarrollo (BID) para América Latina. En esas instancias se buscó entender la necesidad de una estrategia de gobernanza, la importancia de la participación pública en proyectos de ciencias de datos desde el Estado y el concepto de justicia de datos como alternativa a la idea de ética de datos.

Como resultado, la iniciativa propone la reformulación de las fichas de proyectos de ciencias de datos en el sector público considerando una revisión interna, los aportes colectivos de los talleres en línea realizados y un análisis a partir de un conjunto de dimensiones exploratorias. Los cambios principales se refieren a la inclusión de instrumentos participativos en las distintas etapas del diseño, de una estrategia de gobernanza de proyectos y una visión transversal e iterativa de justicia de datos, en clave feminista.

«Tuvimos que adaptar los materiales para los talleres, no solo para hablar de las cuestiones técnicas, sino del enfoque feminista. Surgieron preocupaciones con la afectación al derecho a la privacidad, pero no tanto con los derechos a la comunicación o la información. Hay que seguir pensando en cómo comunicar los temas de ciencia de datos para poblaciones afectadas por este tipo de proyectos y en qué derechos necesitamos», indicaron Virginia Brussa y María Paz Hermosilla, responsables del proyecto.

Un artículo completo sobre el proyecto se puede leer aquí.

Avanzando una perspectiva de género para las Crowd Workers en IA desde el Sur Global

Se trata de un proyecto de investigación sobre las mujeres latinoamericanas que trabajan etiquetando contenidos que serán utilizados para el entrenamiento de modelos de IA, las llamadas Crowd Workers. La investigación incluyó la realización de encuestas para comprender quiénes son, cómo trabajan y cuáles son sus necesidades.

A partir de la comprensión de sus contextos, sus realidades familiares y los principales desafíos que enfrentan, el proyecto propone el desarrollo de una plataforma de IA que incluya perspectivas feministas para las plataformas de Crowd Work, permitiendo a las trabajadoras intercambiar informaciones, generar asociaciones y conseguir escalar los sistemas.

«Encontramos que estas mujeres no cuentan con canales de comunicación para conectar con otras trabajadoras ni con herramientas de traducción para muchas de las tareas que realizan. Nuestra plataforma, apoyada por IA, va a recomendarles herramientas que les ayuden a desarrollar habilidades para su crecimiento profesional y les permitirá conectar con otras colegas», afirman las responsables del proyecto.

La descripción completa del proyecto y sus hallazgos puede ser encontrada aquí.

Reflexiones feministas sobre IA

CC:BY (Maria José Porras Sepúlveda)

Revisitando conceptos

La Inteligencia Artificial ha incorporado una serie de conceptos específicos al lenguaje cotidiano y la construcción de sistemas de IA feminista requiere examinarlos e interrogarlos. En IA, como en cualquier campo, el lenguaje no es neutral y las expertas latinoamericanas investigando y desarrollando sistemas han repensado esos conceptos en sus propios términos y palabras.

La misma idea de “Inteligencia Artificial” ha estado sujeta a cuestionamientos y fue objeto de discusión durante los diálogos. Fernanda Carles la define como la capacidad de un sistema de adaptarse a su ambiente para resolver un problema, operando con insuficiencia de conocimientos y recursos. Se trataría de sistemas que están diseñados para procesar una cantidad enorme de información y que pueden resolver problemas que los humanos no. En algunos casos es más rápida «y, bien diseñada, puede ser más objetiva», apunta. 

Carles diferencia dos tipos de IA: la Inteligencia Artificial angosta y la general.  «La IA angosta es la que vemos que se está desplegando hoy en día, la que existe fuera de la teoría. Está enfocada en tareas específicas o delimitadas. No tienen conciencia, autoconciencia o habilidad de pensar», a diferencia de lo que la idea misma de “inteligencia” podría sugerir.

Por su parte, la experta apunta que la IA general es un desarrollo que solo existe en teoría, pues no se ha hecho realidad. La idea es generar sistemas computacionales que puedan experimentar la información de formas similares a la de los seres humanos, que tengan la capacidad de aprender, generalizar, aplicar conocimientos y planificar el futuro, que sea creativa, exprese emociones y que pueda trabajar sin supervisión.

Matteo Pasquinelli y Vladan Joler, en un manifiesto sobre la IA como mecanismo de extracción del conocimiento, apuntan que en la expresión “Inteligencia Artificial” el adjetivo artificial conlleva un mito de autonomía de la tecnología, tal como explica Carles sobre la idea de IA general. Según ellos, tal idea mistifica dos procesos de alienación en favor de un régimen corporativo extractivista del conocimiento humano: la autonomía geopolítica de las empresas de tecnología y la invisibilización de la autonomía de las personas trabajadoras. En su trabajo, plantean cambiar tal lógica y pensar el aprendizaje de máquinas como un instrumento para ampliar el conocimiento. Su reflexión completa puede ser leída en portugués aquí.

Fernanda Carles introdujo otros dos conceptos también centrales para el desarrollo de proyectos de Inteligencia Artificial: modelado y ponderación.

El modelado de datos es el proceso de documentar un diseño de sistema de software complejo como un diagrama de fácil comprensión, usando texto y símbolos para representar la forma en que los datos necesitan fluir. El modelado no indica cómo va a ser la red, sino el tipo de datos que lo va a alimentar.  «Agrego datos que yo conozco, controlo lo que salga y con eso analizo qué nueva información puede darme», indica Carles. 

Ella explica que el análisis de correlación permite entender qué grado de dependencia tiene la variable objetivo (lo que se quiere predecir o clasificar) con otras variables. Con esto es posible tomar decisiones acerca de qué datos usar o no, y qué importancia tiene cada variable en el sistema desde un punto de vista matemático.  

Maia Numerosky apunta que «los datos son un aspecto fundamental» en un sistema de IA. Ella enfatiza cómo los datos representan relaciones de poder: la disponibilidad de unos datos u otros representa relaciones sociales más profundas. «Por ejemplo contamos con menos datos de las personas que trabajan de manera informal, menos datos de abortos clandestinos, menos datos de personas trans y no binarias. Ningún trabajo de mitigación de sesgos que se haga sobre los algoritmos produce una mejora sobre la base de datos».

De esta manera, un primer problema a la hora de considerar implementar un modelo de IA está en la disponibilidad y representatividad de los datos, además de los criterios considerados a la hora de su recolección. La indisponibilidad o falta de representatividad de los datos puede producir una serie de problemas. Por ejemplo, respecto del entrenamiento de los sistemas, la falta de datos va a significar que hay cosas que los sistemas nunca van a poder “aprender” y eso va a impactar en sus resultados.

En la investigación Inteligencia Artificial & Inclusión, liderada por Derechos Digitales y desarrollada en alianza con un conjunto de organizaciones académicas y de sociedad civil latinoamericanas, se pudo detectar los impactos de conjuntos sesgados de datos a la decisión mediada por sistemas automatizados.  En esos casos, los sesgos pueden impactar en la calidad de vida y la autonomía de las personas afectadas, además de potencialmente reiterar su condición de exclusión y profundizar desigualdades pre-existentes.

Hablando sobre el uso de IA en el ámbito de políticas públicas, Numerosky apunta que «el problema es dónde y cómo se recogen los datos. Los datos deben ser recogidos con calidad y con criterios claros por los distintos organismos». De lo contrario, será imposible analizarlos y generar información relevante para el desarrollo de políticas públicas.

Numerosky distingue entre dos tipos de datos sobre los que trabaja la IA: datos críticos y datos no críticos. Los primeros serían datos personales, mientras que los segundos son datos que refieren a objetos o accesorios. En cualquier caso, puede tratarse de una distinción tenue, porque también los objetos pueden revelar informaciones personales e incluso, sensibles.

La disponibilidad y exactitud de los datos, por lo tanto, puede implicar la existencia de sesgos que, si no son detectados y abordados desde el inicio, pueden impregnar todo el sistema, afectando sus resultados. Un sesgo ocurre cuando hay un peso desproporcionado a favor o en contra de un dato u otro. Ahí es importante recordar lo que resaltaba Numerosky: al hablar de datos, muchas veces nos referimos a informaciones recolectadas o inferidas de personas reales, que serán afectadas por dichos sesgos.

Los sesgos pueden ocurrir en la fuente de recolección, cuando la población no es representativa del fenómeno a ser estudiado. También puede haber sesgos en el diseño del protocolo, sesgos de ingeniería de datos o de los mismos algoritmos. Por ejemplo, arreglos estadísticos realizados en las bases de datos pueden distorsionar la investigación: «si metes basura en tu modelo, te va a devolver basura», resume Fernanda Carles.

Otro concepto importante surgido en las conversaciones fue el de datos abiertos, que se refiere a una filosofía y práctica que persigue que determinados tipos de datos estén disponibles de forma libre para todo el mundo, sin restricciones de derechos de autor, de patentes o de otros mecanismos de control técnicos o jurídicos. Los datos abiertos son datos digitales que son puestos a disposición con ciertas características técnicas y jurídicas necesarias para que puedan ser usados, reutilizados y redistribuidos libremente por cualquier persona, en cualquier momento y en cualquier lugar.

Cabe resaltar que, de acuerdo con la Carta Internacional de Datos Abiertos, la apertura de datos solo puede ocurrir cuando las personas tienen certeza de que eso “no comprometerá su derecho a la privacidad” y tengan el “derecho a influir en la recolección y uso de sus datos personales o de datos generados como resultado de su interacción con los gobiernos”. Por otro lado, no se trata simplemente de publicar información: hay una serie de criterios que deben cumplirse para que un conjunto de datos pueda ser considerado abierto y pueda ser utilizado libremente en distintas aplicaciones.

CC:BY (Maria José Porras Sepúlveda)

Durante el diálogo entre Virginia Brussa y Maia Numerosky se habló además de la importancia de la interoperabilidad, la característica de los datos de poder ser procesados en distintos tipos de sistemas y de diferentes formas, sin ningún tipo de traba técnica. Pensando en la importancia de los datos abiertos en el ámbito público, se cuestionó «¿cómo tener una justicia menos machista, por ejemplo, si no podemos entender los datos de manera sistemática o si los datos no están disponibles?». 

El punto no solo retoma la discusión sobre sesgos en la recolección y disponibilidad de bases de datos y las luchas históricas del movimiento feminista para que ciertas informaciones sean recolectadas de manera sistemática por el Estado, por ejemplo, en materia de violencia contra las mujeres. También toca debates sobre el derecho de acceso a la información, la transparencia pública y la transparencia algorítmica: temas actuales en las discusiones sobre la regulación de IA y, a la vez, fundantes en las discusiones sobre derechos humanos y los límites a la operación estatal.

La idea de datos abiertos fue presentada en contraposición al diagnóstico de que «los códigos funcionan y a veces no entendemos muy bien por qué», como lo sintetizó Virginia Brussa. La referencia es a la idea diseminada de que los algoritmos de IA funcionan como una “caja negra” y que es imposible conocer su funcionamiento de manera completa.

Brussa señala que este es un problema común en el sector público, donde muchas veces se adquiere y adaptan tecnologías de terceros ya desarrolladas sin que haya un conocimiento acabado de sus características: «en el sector estatal se compran muchos empaquetados de software que son de código privativo, y no sabemos cómo funciona el código». Esto es particularmente problemático cuando se trata de IA, puesto que las decisiones tomadas de manera automatizada en el sector público también deben ser justificadas y explicadas. La adopción de sistemas en los modos indicados por Brussa agrega una capa de opacidad a la operación estatal y, en el caso de afectación de derechos, hace también más complejo reparar eventuales daños.

Las propuestas de explicabilidad y de transparencia algorítmica desarrolladas en normas sobre protección de datos y sobre IA, así como en distintas propuestas de marcos éticos desarrollados en diferentes sectores, buscan responder a esos desafíos. La transparencia algorítmica implica que los factores que influencian las decisiones tomadas por los algoritmos sean visibles a las personas que utilizan, regulan y son afectadas por ellos. Por otro lado, la explicabilidad garantiza que estas decisiones puedan ser comprensibles y es un elemento clave para la transparencia.

Más allá de la necesidad de nuevas normas, las participantes enfatizaron que América Latina ha sido pionera en implementar políticas y prácticas de datos abiertos, incluso por medio de contrataciones abiertas y que hay que visibilizar esas iniciativas desde el sector público, como forma de incidencia para que se mantengan y puedan institucionalizarse y expandirse, incluso en favor de mayor transparencia algorítmica.

CC:BY (Maria José Porras Sepúlveda)

Desafíos

El avance en el uso de la Inteligencia Artificial ha conllevado una serie de desafíos que permean la labor de las personas dedicadas a desarrollar iniciativas feministas y a pensar cómo las prácticas feministas pueden ser incorporadas en proyectos de IA. Muchos de ellos son ampliamente conocidos, aunque haya poco espacio en el debate público para su discusión.

Durante los diálogos, las participantes indicaron distintos peligros potenciales a la implementación de sistemas de IA, empezando por los sesgos, que pueden estar en las bases o los modelos, pero que también reflejan patrones de discriminación históricos. «Toda tecnología que hace predicciones o nos da conclusiones a partir de la detección automática de patrones en conjuntos de datos, va a potenciar los sesgos existentes y, por lo tanto, los va a amplificar y propagar», resume Maia Numerosky.

Los sesgos en las bases de datos pueden ser más o menos evidentes. Entrenar un sistema que automatice la selección de personas a puestos de dirección con base en datos existentes sobre quienes ocupan tales puestos puede implicar reproducir un sesgo histórico en favor de un grupo social bastante específico, por ejemplo: hombres y personas de piel blanca, que son quienes mayoritariamente han ocupado dichos puestos.

Por otro lado, hay sesgos más sutiles que requieren una mirada atenta: entrenar un sistema para identificar patrones de contagio por COVID19 y orientar políticas de mitigación utilizando datos de autodiagnóstico disponibles a partir de una aplicación en línea, por ejemplo, implica potencialmente desconsiderar una serie de casos no reportados por parte de personas que no gozan del acceso a dispositivos o conexiones con la calidad requerida para utilizar aplicaciones de autodiagnóstico. Las desigualdades y brechas sociales, por lo tanto, también se reflejan en las bases de datos.

«Los modelos son opiniones incrustadas en la matemática. Cualquier modelo, sea algorítmico o no, constituye una abstracción de la realidad y simplifica e ignora detalles», explica Numerosky, quien también sugiere que «tenemos que tener en consideración los sesgos en todo el proceso de trabajo con los datos, desde la recolección del modelo hasta la evaluación de su funcionamiento», una lección clave para iniciativas de IA feministas, pero también para cualquier proyecto del tipo.

Por otro lado, se identifican actualmente una serie de desafíos en obtener información sobre el uso de sistemas automatizados en los Estados en la región, como apuntó Derechos Digitales en sus estudios sobre IA & Inclusión en América Latina. En los diálogos se ha enfatizado la existencia de iniciativas interesantes en la disponibilización de información sobre el uso de algoritmos en países como Chile, por ejemplo, donde el Consejo de Transparencia en conjunto con la Universidad Adolfo Ibáñez ha publicado un estudio con un listado de 219 sistemas en operación y una propuesta de estándar para orientar tal publicación. Sin embargo, las participantes señalan la importancia de que se adopten principios de datos abiertos en su publicación y se considere incorporar mecanismos que faciliten obtener información significativa sobre los sistemas implementados, sin tener que consultar individualmente a cada una de las agencias sobre su operación.

Pensando en el desarrollo de sistemas por parte de grupos feministas, se discutió el desafío que implica adquirir conocimiento para la creación de una aplicación que incorpore elementos de IA para resolver problemas relevantes en una comunidad, especialmente cuando hay que desarrollar código desde etapas muy iniciales. Este tipo de iniciativa es clave para reivindicar la IA en favor de intereses colectivos, comunes y públicos, más allá de la lógica comercial que ha orientado su desarrollo.

Según Virginia Brussa, proyectos ciudadanos que proponen crear una aplicación implican un enorme desgaste durante el desarrollo para obtener y poner en común el conocimiento. Ella considera que no hay suficientes materiales accesibles que puedan ser replicados, adaptados y reutilizados en el marco de esos proyectos y «es necesario que más materiales circulen».

Para ella, es importante que en proyectos de este tipo se hagan esfuerzos por gestionar mejor el conocimiento y documentar no solo los resultados, sino también los procesos de desarrollo. En la misma línea, una propuesta que surgió en los diálogos en respuesta a tal desafío fue la importancia de fomentar la creación, promoción y la sostenibilidad de bibliotecas de código abierto: repositorios que contengan código con licencias libres que permitan a cualquier persona reutilizar, modificar o publicarlos, sin la necesidad de solicitar permiso a sus desarrolladores.

Pensando en iniciativas feministas, Sofía Trejo resalta que cualquier proceso de apertura de información debe estar anclado en los acuerdos desarrollados en el marco de cada proyecto y con cada comunidad: «trabajamos mucho el qué es compartir; para cada uno, qué es compartir para el mundo», cuenta. Ella enfatiza que la decisión sobre qué conocimiento compartir o no cabe a las comunidades.

Iván Meza complementa apuntando a que es necesario entender la política que hay por detrás de la elección de una tecnología. Él resalta que las tecnologías no son neutrales y, al contrario, son impactadas y tienen impactos en las relaciones de poder. Por ello, hay que preguntarse sobre los “porqués” antes de llegar al “cómo”.

Karla Prudencio resalta la importancia de desarrollar procesos más largos y que permitan generar relaciones duraderas para que estas reflexiones puedan darse de manera significativa. Sobre el proyecto desarrollado con Meza, ella cuenta: «uno de nuestros principios es que solo vamos a comunidades que nos han llamado». Un desafío que persiste, según ella, es obtener fuentes de financiación para desarrollar iniciativas que se enfoquen en procesos más que en resultados, y que vayan más allá de lo tecnológico.

A modo de guía: aprendizajes desde las iniciativas feministas latinoamericanas

CC:BY (Maria José Porras Sepúlveda)

Durante los diálogos, las participantes identificaron principios y valores que guiaron su trabajo construyendo procesos y proyectos de IA orientados por una ética y unas prácticas feministas. Sus aprendizajes pueden inspirar futuras iniciativas que apunten en la misma dirección.

Construyendo un equipo comprometido y colaborativo

  • Un proyecto de IA feminista debe empezar por la construcción de un equipo de trabajo diverso, considerando una perspectiva interseccional. Se debe priorizar la inclusión de personas que históricamente han sido excluidas de los espacios de decisión y desarrollo de tecnologías, como mujeres y personas LGBTQIA+, y la creación de equipos multidisciplinarios que incluyan, por ejemplo, expertas en ética.
         
  • Acuerdos de trabajo y colaboración entre el equipo y la comunidad que participan en el desarrollo del proyecto deben ser establecidos de manera explícita: eso implica identificar y tratar eventuales conflictos de interés, establecer acuerdos sobre la propiedad y la autoría de cualquier material derivado de la interacción, definir las licencias que se utilizarán para la publicación y difusión de datos, artículos, reportes, etc.

  • Es necesario fortalecer espacios para poner en común los saberes, de manera que se pueda ampliar la comunicación y el aprendizaje, no solo sobre IA, sino sobre tecnología.

Eligiendo, utilizando y cuidando las tecnologías, los datos y las personas

  • Es importante explorar opciones de abordaje considerando el contexto donde el proyecto se va a implementar. La selección de una determinada tecnología no es neutra y tiene impacto en las relaciones de poder que establecen.

  • Las tecnologías o la Inteligencia Artificial no debe ser entendidas como la solución para todo. Los proyectos deben desarrollarse con base en las necesidades concretas identificadas, no meramente como una herramienta de consumo.

  • «Es fundamental detenerse un rato para decidir si es necesario un sistema de IA y capacitar a las personas en hacerse esa pregunta», resalta Maia Numerosky. En el caso de que se decida por un sistema así, ella recomienda «pensar en el objetivo de la aplicación: si será descriptiva, predictiva, prescriptiva; los cuidados y los efectos que tendrá».

  • Al elegir una aplicación tecnológica hay que entender las políticas que las orientan y, en el caso de propuestas que adapten sistemas utilizados previamente, conocer la historia de su implementación en otros contextos, para incorporar aprendizajes y evitar utilizar bases de datos reconocidamente construidas de manera poco ética.

  • Todas las personas participantes de un proyecto de IA deben contar con las capacidades necesarias para apropiarse de las tecnologías, incluso las utilizadas a lo largo del proceso de desarrollo del sistema o aplicación. Si bien es importante distribuir funciones en un equipo de trabajo, todas las personas del equipo deben sentirse capaces de intervenir en las decisiones sobre las tecnologías utilizadas y las funciones proyectadas para el sistema. La creación de talleres u otros espacios de intercambio de conocimientos sobre las tecnologías es central para que eso sea posible.

  • Cualquier proceso de desarrollo de IA debe guiarse por la protección de las personas y de su autonomía. Fuertes criterios de anonimato y pseudonimato deben ser considerados en la construcción y uso de bases de datos, y en su posterior puesta a disposición.

A modo de conclusión: fomentar la participación, expandir comunidades, construir futuros

CC:BY (Maria José Porras Sepúlveda)

«La AI que tenemos hoy va a ser la infraestructura de la sociedad digital de mañana» advierte Gina Neff. De ahí la importancia de contrarrestar narrativas dominantes que presentan a la IA como una solución ahistórica, ajena a las desigualdades sociales estructurales y que, de no ser reconocidas, pueden ser enquistadas en nuestro futuro.

Una Inteligencia Artificial al servicio de la justicia social es una tecnología territorializada, creada para la comunidad, con la comunidad: las comunidades no están fuera del proceso y no deben ser consideradas de manera externa a la iniciativa en desarrollo. Al contrario, deben estar presentes en todo el ciclo de vida de la creación de un sistema o aplicación de IA, desde las etapas de planificación y diseño. Deben no solo poder intervenir, sino poder cuestionar las intervenciones propuestas.

Generar y mantener un espacio para el diálogo y escucha es fundamental, así como permitir que puedan tener efectiva agencia en los procesos de investigación y desarrollo. La creación de metodologías específicas para facilitar la participación y escucha de las diferentes comunidades potencialmente afectadas por una iniciativa de IA es clave para seguir avanzando en propuestas feministas.

Además, existe un deber ético de todas las personas que han participado en iniciativas de desarrollo de IA desde una perspectiva feminista de compartir y difundir sus experiencias y conocimientos, considerando siempre los acuerdos colectivos establecidos durante el proceso. Respetando las particularidades de cada contexto y la protección de la privacidad y autonomía de las personas y comunidades involucradas, es importante documentar las distintas etapas de desarrollo o discusión y considerar la disponibilización de códigos o datos en formato abierto para contribuir con iniciativas futuras que puedan fundarse en principios y compromisos comunes.

Junto con ello, la opción por bases de datos, modelos y códigos libres, abiertos e interoperables y por infraestructuras que no dependan de grandes empresas de tecnologías, siempre que sea posible, también es una decisión política al representar una forma de apoyar formas alternativas de desarrollar tecnologías.

Estas medidas pueden ayudar a la necesaria tarea de imaginar futuros comunes más justos y libres de opresión.

CC:BY (Maria José Porras Sepúlveda)

Participantes en los conversatorios

  • Cristina Martínez Pinto es la fundadora y CEO del PIT Policy Lab. Trabajó como consultora de desarrollo digital en el Banco Mundial, dirigió AI for Good Lab de C Minds y cofundó la Coalición Nacional de IA de México IA2030Mx. Es exalumna de la comunidad Global Shapers del Foro Económico Mundial (WEF), miembro de The Day One Project Technology Policy Accelerator y la miembro más joven de la Junta de Asesores del Centro Beeck para el Impacto Social y la Innovación.

  • Fernanda Carles es activista, educadora y programadora. Trabajó durante 5 años en roles de coordinación, gerencia y consultoría para organizaciones de la sociedad civil, abordando temas como educación con tecnología, seguridad digital, tecnología ética y derechos humanos en internet. Actualmente es encargada de un espacio maker educativo y trabaja en investigación en el Laboratorio de Mecánica y Energía de la Universidad Nacional de Asunción, utilizando aprendizaje de máquina para monitoreo y predicción de polución en el aire en la ciudad.

  • Gina Neff dirige el Centro Minderoo para la Tecnología y la Democracia de la Universidad de Cambridge. Su investigación galardonada se centra en cómo la información digital está cambiando nuestro trabajo y nuestra vida cotidiana. Sus libros incluyen Venture Labor (MIT Press 2012), Self-Tracking (MIT Press 2016) y Human-Centered Data Science (MIT Press 2022).

  • Iván Meza es investigador de la Universidad Nacional Autónoma de México (UNAM), especializado en Procesamiento del Lenguaje Natural y ha trabajado en el desarrollo de traductores de lenguas indígenas.

  • Karla Prudencio es jefa de Incidencia Política en Redes A.C. e Investigadora del Centro Mexicano de Tecnología y Conocimiento Comunitario (CITSAC). Fue Asesora Jurídica Principal del Instituto Federal de Telecomunicaciones de México y jefa de la Oficina de Transparencia y Protección de Datos del Centro de Investigación y Docencia Económicas. También tiene un historial de trabajo con comunidades rurales e indígenas en México en conectividad y derechos digitales.

  • Luz Elena González es una tecnóloga comprometida con el diseño ético de políticas tecnológicas para crear ciudades más inclusivas, sostenibles y resilientes en América Latina. Como líder de proyecto en PIT Policy Lab, ha desarrollado el flujo de género de la organización, gestionando equipos de investigación y desarrollando recomendaciones de políticas públicas.

  • Maia Numerosky es Data Science Engineer en Eryx Coop. Ha trabajado como docente multidisciplinaria en enseñanza media y superior de matemática. Es licenciada en Matemática Aplicada de la Universidad de Buenos Aires.

  • María Paz Hermosilla es Fundadora y Directora del GobLab, laboratorio de innovación pública de la Escuela de Gobierno de la Universidad Adolfo Ibáñez, experta en innovación pública y uso de tecnologías para la transformación del Gobierno. Ha ejercido posiciones en la administración del Estado y asesorado a agencias en temáticas de transformación del Estado, innovación y uso ético de información. Docente en ética de datos en posgrados en varias escuelas de la UAI.

  • Sofía Trejo es doctora en matemática e investigadora del Centro Nacional de Supercomputación de España (BSC-CNS), especializada en los aspectos éticos, legales, sociales, económicos y culturales de la Inteligencia Artificial.  Interesada en promover el entendimiento crítico de la tecnología dentro y fuera de espacios académicos, con un enfoque particular en temas relacionados con género y los «Sures Globales».

  • Virginia Brussa es docente e investigadora en temas de datos, género, contexto internacional en gobernanza tecnológica y políticas públicas. Coordina el proyecto +Datalab (UNR), es co-directora de la unidad de investigación sobre Educación Abierta Ambiental en la Plataforma de Estudios Ambientales y Sostenibilidad (PEAS-UNR) y contraparte de proyectos locales sobre datos abiertos del Plan Federal de Gobierno Abierto de Argentina.


Créditos

Este proyecto ha sido idealizado y liderado por Juliana Guerra en conjunto con el equipo de Derechos Digitales y contó con la colaboración de Adriana Castrillón y Maria José Porras Sepúlveda.

Este esfuerzo ha sido viable gracias al apoyo de la Red f<a+i>r.

Equipo de realización de los conversatorios

Alejandra Erramuspe
Adriana Castrillón
Juliana Guerra
Ileana Silva
María Encalada

Sistematización y notas

Adriana Castrillón
Juliana Guerra
Ileana Silva

Texto

Ileana Silva
Jamila Venturini
Vladimir Garay

Revisión y correcciones

Vladimir Garay

Traducción

Alice Nunes, Jennifer Marshall e Sarah Reimann de Urgas Tradu.c.toras

Video (concepción y guión)

Ileana Silva
Vladimir Garay

Ilustraciones y animaciones

Maria José Porras Sepúlveda

Apoyo financiero y administrativo

Camila Lobato
Juan Carlos Lara
Paula Jaramillo

Supervisión general

Jamila Venturini
Juan Carlos Lara
Michel Souza
Vladimir Garay

Versión y licencia

«Reflexiones feministas para el desarrollo de Inteligencia Artificial».

Versión 2.0 del 24 de mayo de 2023.

Esta obra se encuentra bajo una licencia Creative Commons Atribución 4.0 Internacional (CC BY 4.0): https://creativecommons.org/licenses/by/4.0/deed.es

Conclusiones acordadas: aspectos positivos, retrocesos y posicionamientos insuficientes

Durante dos semanas, gobiernos, organizaciones de la sociedad civil, expertos, expertas y activistas participaron en diversas actividades de discusión vinculadas al CSW67, tanto en sesiones de la ONU como en eventos paralelos.

Desde Derechos Digitales participamos activamente en dicho proceso. En octubre de 2022 co-presidimos la reunión de expertas realizada en preparación de la CSW67 y durante las sesiones en Nueva York tuvimos la oportunidad de realizar dos intervenciones orales, tanto durante las discusiones generales como en el panel interactivo de expertos. A su vez, participamos en diversas reuniones y eventos paralelos como panelistas, como por ejemplo en el evento “Liderazgo femenino para una tecnología centrada en el ser humano” junto a representantes de Stop Killer Robots y the Footage Foundation, donde presentamos el panorama de la relación entre género y tecnología resaltando la necesidad de aplicar el marco normativo de derechos humanos a los espacios digitales.

Desde el inicio del proceso hemos sostenido la necesidad de fortalecer los contextos digitales desde la perspectiva de los derechos humanos como el primer paso necesario para debatir estrategias que avancen hacia la igualdad de género y el empoderamiento; destacando que la relación entre el acceso a Internet y la lucha contra la violencia de género en línea debe abordarse desde un marco jurídico de derechos humanos que otorgue seguridad jurídica al acceso y ejercicio de los derechos en los espacios digitales.

En esa línea nuestras intervenciones orales durante las sesiones se enfocaron en recomendaciones alrededor de cuatro ejes principales:

1. Participación de múltiples partes interesadas en la gobernanza de los espacios digitales. Sobre este punto enfatizamos la necesidad de que las mujeres, en toda su diversidad, deben ser incluidas de manera significativa en los procesos de toma de decisiones relativos al desarrollo tecnológico, el despliegue y la gobernanza.

 2. Acceso significativo a Internet: Considerando que el acceso a las tecnologías y su uso es un reflejo de las desigualdades estructurales existentes, tanto sociales como de género; instamos a los Estados que reconozcan el acceso a Internet como un derecho humano en sí mismo, así como un potencial facilitador del ejercicio de otros derechos humanos.

3. Violencia de género en línea: La urgencia de desarrollar conceptos comunes que puedan ser operativizados hacia marcos centrados en las sobrevivientes y basados en los derechos humanos para abordar todas las formas de violencia de género, incluida la violencia de género facilitada por la tecnología (TFGBV).

4. Tecnologías con capacidades de vigilancia: entendiendo que el desarrollo y despliegue de tecnologías de vigilancia, junto con prácticas irresponsables de transformación digital, pueden obstaculizar cualquier posibilidad de alcanzar la igualdad de género, instamos a los Estados que incluyan mecanismos de rendición de cuentas y participación en cualquier proceso de digitalización, especialmente en el despliegue de sistemas automatizados de toma de decisiones, así como evaluaciones y auditorías de impacto de los derechos humanos, aplicando una moratoria en aquellas que no cumplen con criterios básicos.

Tras el análisis del documento de las conclusiones acordadas, celebramos que ciertos reconocimientos, afirmaciones y recomendaciones formuladas por la Comisión reflejan y se encuentran en línea con posicionamientos que hemos sostenido junto con otras organizaciones de la sociedad civil. No obstante, hay ciertos retrocesos y posicionamientos insuficientes en el texto que generan preocupación. A continuación, sintetizamos algunas cuestiones que consideramos especialmente relevantes.

Refuerzos en perspectivas de derechos humanos

Si bien son cuestiones que han sido reconocidas en otros instrumentos del derecho internacional, su refuerzo es especialmente relevante en marcos de discusiones alrededor de la innovación, al brindar argumentos fundamentales para hacer frente a narrativas tecnosolucionistas.

Así, por un lado la Comisión reconoce la necesidad de garantizar la promoción, el respeto y el cumplimiento de los derechos humanos en la concepción, el diseño, el desarrollo, el despliegue, la evaluación y la regulación de las tecnologías y de velar por que estén sujetas a las salvaguardias adecuadas a fin de promover un entorno de las tecnologías de la información y la comunicación abierto, seguro, estable y accesible y asequible para todas las mujeres y las niñas.

Por otro lado, se expresa el reconocimiento de que las múltiples e interrelacionadas formas de discriminación y marginación son obstáculos para la consecución de la igualdad de género y el empoderamiento en el contexto de la innovación y el cambio tecnológico.

Esto es clave para abordar a la implementación de las tecnologías desde una perspectiva interseccional que contemple las desigualdades estructurales de la sociedad; en oposición a miradas tecnosolucionistas que posicionan a las tecnologías como pociones mágicas que al ignorar problemáticas, terminan profundizándolas.

Esto constituye un avance en tanto una de las principales preocupaciones planteadas en nuestras intervenciones, que apuntaba a evitar un abordaje exclusivamente punitivista ante la violencia de género en línea que termine ocasionando un debilitamiento de derechos.

En el marco de las desigualdades invocadas, se declaró una grave preocupación por los problemas de acceso a Internet en países en vías de desarrollo recomendando una serie de medidas para priorizar la reducción de la brecha de género. Sobre ese punto es importante destacar el énfasis puesto en integrar la perspectiva de género en la conceptualización, el desarrollo y la aplicación de las tecnologías digitales y las políticas conexas (que contempla la inclusión de mujeres en procesos de toma de decisiones); y en la alfabetización digital como componente esencial para hacer frente a las inequidades en el acceso y uso de Internet, lo cual se alinea con nuestra postura de acceso significativo.

Ausencias que implican retrocesos: exclusión de las diversidades

Preocupa de sobremanera como el texto se refiere a mujeres y niñas pero evita completamente mencionar toda terminología que garantice la inclusión de personas trans, travestis y/o no binarias en el texto. Esto, a pesar de que varias organizaciones, incluyendo a Derechos Digitales, hicieron menciones explicitas en sus sugerencias de texto como ser “mujeres en toda su diversidad”.

Esta exclusión tiene la potencialidad de no solo de profundizar desigualdades sobre una comunidad que ha sido históricamente vulnerada, sino de legitimar políticas públicas discriminatorias. A su vez, es contradictorio con el reconocimiento destacado anteriormente respecto a la necesidad de considerar aspectos interseccionales dado que la identidad de género es un factor clave del concepto.

Posicionamientos débiles en cuanto a tecnologías de vigilancia

Si bien la Comisión hace referencia a la obligación de los estados de garantizar el respeto al derecho a la privacidad enfatizando en la preocupación por el impacto negativo que la vigilancia y/o interceptación de las comunicaciones, incluida la vigilancia y/o interceptación extraterritorial de las comunicaciones, así como la recogida de datos personales, en particular cuando se llevan a cabo a escala masiva, pueden tener en el ejercicio y disfrute de los derechos humanos de las mujeres y las niñas; no realiza ninguna recomendación al respecto de cómo abordarla ni vuelve a mencionarla en ningún lugar del documento. Se limita a expresar la preocupación evitando incluir lineamientos claves para hacer frente y que -de hecho- ya han sido reconocidos y promovidos por otros mecanismos de la ONU.

Necesidad de mayor participación de la sociedad civil

Sabemos que llegar a consensos entre estados con diversas agendas, prioridades y contextos políticos es un desafío, que a su vez se complejiza con las discusiones que involucran a temas alrededor de la tecnología. Por eso, la participación de la sociedad civil es clave para aportar lineamientos desde el derecho internacional de los derechos humanos. Si bien se habilitaron ciertos espacios de participación durante las discusiones, son muy limitados en tiempo y acceso.

Las discusiones se centran en los representantes de estados, muchas veces a puertas cerradas, no existiendo suficiente participación a lo largo de la construcción del documento, salvo intervenciones puntuales en momentos específicos designados. Llama la atención la diferencia con otros procesos llevados adelante en la ONU como por ejemplo el AHC sobre la convención de ciberseguridad que permite la intervención de la sociedad civil en general al final de cada capítulo, además de poder presenciar todas las propuestas de textos. Las conclusiones destacadas reflejan la necesidad de asegurar un aumento de participación de sociedad civil en próximos procesos.

Latin America in a GLIMPSE

Download
(EN)
Descarga
(ES)
Baixar
(PT)

The eighth edition of Latin America in a Glimpse is composed of four investigations, conducted by Latin American organizations working in different countries: Corporación Cambio Sostenible of Colombia, Fundación Openlab of Ecuador, Espacio Público of Venezuela and MariaLab of Brazil.

The common theme of the publication is the idea of gaps, as a complex, multifactorial reality that is associated with a series of structural inequities that shape our experiences in digital environments.

The latest edition of Latin America in a Glimpse is available in Spanish, English and Portuguese.

_______________________________________________________________________

La octava edición de América Latina in a Glimpse está compuesta por cuatro investigaciones, realizadas por organizaciones latinoamericanas que trabajan en diferentes países: Corporación Cambio Sostenible de Colombia, Fundación Openlab de Ecuador, Espacio Público de Venezuela y MariaLab de Brasil.

El tema común de la publicación es la idea de las brechas, como una realidad compleja y multifactorial que se asocia a una serie de inequidades estructurales que configuran nuestras experiencias en entornos digitales.

La última edición de Latin America in a Glimpse está disponible en español, inglés y portugués.

Transformar, dejar brechas atrás y unirnos para un futuro justo

¿Por qué es necesario hablar de economía digital y perspectiva de género? A pesar de ser campos que en el día a día son considerados de forma disyuntiva, ambas temáticas deben ser siempre parte de un análisis, que permita la construcción de acciones comprehensivas que lleven hacia la igualdad de género.

¿Qué es la economía digital?

Antes de indagar en el concepto de economía digital, debemos que comprender que es un sistema económico. Un sistema económico es la forma en la cual la economía funciona y estructura a la sociedad en base a la relación entre producción/oferta y consumo/demanda, incluyendo también temáticas de manufacturación, regulación, circulación, distribución, entre diferentes variables. Durante las últimas dos décadas, ha existido progresivamente una revolución digital que se mueve entorno a un nuevo ecosistema dónde las empresas con mayor capital en el mundo pertenecen al sector de tecnologías de la información. En nuestro día a día, interactuamos constantemente con herramientas y productos entregadas por estas empresas que avanza de forma muy rápida y exponencial. A esta nueva economía, que nace como expresión de la a veces llamada Revolución Industrial 4.0, le llamamos economía digital. Esta nueva economía no tiene precedentes y ha dado indicio a la transformación de estructuras no solamente ligadas a la producción económica del mundo, sino también a nivel social.

Lo anterior se ve reflejado en las ocho áreas de acción definidas por Naciones Unidas basadas en las recomendaciones del panel de alto nivel para la cooperación digital, presentando acciones que involucran avanzar para respetar y garantizar derechos humanos en la era digital, promover seguridad, asegurar inclusión digital, entre varios. Estos últimos años también se han posicionado perspectivas claves que destacan las nuevas oportunidades y desafían la reproducción de desigualdades que continúan hoy en día. Entre ellas destacan los enfoques desde la igualdad de género y desde los feminismos.

¿Por qué es necesaria la perspectiva de género en estas temáticas?

Estudios sobre economía desde una perspectiva de género y feministas han abierto campos de estudios esenciales para comprender como diferentes variables que directamente tienen dinámicas vinculadas con la economía, que afectan a mujeres y hombres de manera diferenciada. Por ejemplo, con las temáticas que tienen que ver con lo que es considerado como el “valor del trabajo”, destacando la importancia de considerar trabajos no-remunerados de cuidados o en los trabajos informales. Gracias al esfuerzo de estas perspectivas tenemos la posibilidad de acceder a información esencial de los sistemas económicos, tal como comprender que el trabajo de cuidado no remunerado y el trabajo doméstico representan entre un 10% y un 39% de PIB mundial, que mayoritariamente es realizado por mujeres/niñas y que hace décadas atrás era invisibilizado.

Es por esto que considerar perspectivas de género es crucial,  porque la existencia de injusticias estructurales se extienden (y no reflejan) en el área digital: las brechas de género en el de acceso a Internet, los sesgos de género en inteligencia artificial (IA), las brechas salariales entre hombres y mujeres en áreas STEM, el sexismo, entre otros escenarios; transcribiendo desigualdades que no provienen inherentemente de la Revolución Industrial 4.0 y las tecnologías, si no de los contextos desiguales en los que vivimos hoy en día. Por lo tanto, en esta situación es necesario asesorar desde el trabajo construido anteriormente para visualizar herramientas que nos ayuden a construir un futuro sin discriminaciones y menos desigualdades.

Unas de las perspectivas que han cambiado la forma en la cual observamos a nivel social como las desigualdades afectan de forma diferente a las mujeres es la perspectiva interseccional. En este sentido, si consideramos la economía digital desde una perspectiva interseccional, podríamos observar cómo son afectadas las mujeres por la brecha de acceso, pero de forma desagregada. Por ejemplo, la diferencia de la brecha de acceso de mujeres provenientes de países “en vías de desarrollo” con mujeres de países “desarrollados”, en esta situación, no solamente existe una discriminación generada por las brechas de acceso entre hombres y mujeres, sino que existe un contexto histórico, político, social y económico que les afecta y discrimina de mayor o menor manera dependiendo del país del cual provienen, su pertenencia a comunidades indígenas, su cultura, su edad, su color de piel, su orientación sexual, entre otras variables. La interseccionalidad es crucial también al considerar personas no-binarias y a la comunidad LGBTQIA+.

¿Cuáles son los mayores retos y oportunidades actuales en cuanto a esta temática?

Los sistemas económicos y específicamente la economía digital está ligada directamente a los contextos sociales a los cuales nos enfrentamos día a día, especialmente porque las herramientas de las cuales se “alimenta” la economía son impulsadas en base a la interacción que generamos con éstas y, por tanto, los datos e información que se generan a partir de esto (para otras referencias: la explosión del “big data” y la minería de datos). Dado el contexto, existen múltiples retos actuales  Dentro de estos se encuentran el crecimiento del trabajo informal a través de herramientas digitales, la minería de datos, los sesgos de género en datos, large language models e inteligencia artificial, temáticas de privacidad y seguridad de datos, violencia de género en línea, entre varios.

Por ejemplo, una de las áreas que ha sido destacada por una reciente investigación de Mozilla Foundation es cómo los sistemas de inteligencia artificial afectan desproporcionadamente a mujeres, niñas y personas no binarias. Estos sistemas de IA están usualmente ligados a impulsar a gobiernos a llevar a cabo servicios esenciales, lo cual está ligado intrínsecamente con el funcionamiento de las economías. A su vez destacan que el uso de estas IA no poseen suficientes regulaciones que protejan la información personal de las personas y que incluso, concibe la creación de algoritmos específicos o marketing que genera efectos negativos y discriminación de género.

Por otro lado, uno de los contextos que influyen y son influidos por la economía digital es sobre todo el trabajo. Como especificamos desde Derechos Digitales, el Foro Económico Mundial explica que 65% de los trabajos del futuro serán plenamente dedicados a la innovación y a la tecnología, dónde las normas culturales e institucionales que – si no se actualizan – generarán límites bloqueando el potencial de las niñas en el área digital y, por consiguiente, perpetuarán y acrecentarán desigualdades de género.

 Tal como cuestiona la Dra Becky Faith desde GenderIT en este sentido debemos cuestionar ¿Cuáles son las razones o motivaciones que llevan a buscar un contexto más balanceado (en términos numéricos) laborales? Pregunta que lleva a posicionar finalmente la necesidad de ir más allá de los números, si no que debemos destacar la importancia de medidas comprehensivas que intentan apuntar a la erradicación de las desigualdades de género.

A pesar de enfrentarnos a estos desafíos, este contexto desconocido representa una oportunidad para trabajar con las temáticas de una forma más innovadora e integral. Y es así cómo debemos seguir abriendo paso a la creación de evaluaciones, medidas, políticas públicas y legislaciones responsables que permitan entender las situaciones para tomar acciones en pos de avanzar hacia la igualdad de género.

Reflexiones sobre un futuro menos desigual: la economía digital con perspectiva de género.

Desde Derechos Digitales destacamos la importancia de considerar perspectivas reivindicativas del futuro, donde a través del trabajo y aporte en plataformas como la Cumbre del Futuro y el Pacto Digital Mundial de Naciones Unidas se invita a pensar más allá, disociándonos de las narrativas polarizantes a las cuales el área digital se encuentra sujeta y sobre todo, pensar en caminos que construyan la superación de desigualdades que aumentan con el desarrollo tecnológico.

Necesitamos resaltar la importancia de considerar políticas públicas interseccionales que nazcan desde el nivel local, dónde fortalezcan y establezcan el empoderamiento de mujeres y comunidades LGBTQIA+. Esto, finalmente para proteger su privacidad y datos; resguardando derechos humanos y garantías laborales para evitar la perpetuación de situaciones laborales informales y no remuneradas. Se deben habilitar espacios para concebir la importancia del rol de las mujeres, niñas y personas de la comunidad LGBTQIA+ no solamente desde el número de personas que están estudiando carreras STEM – lo cual sigue siendo sumamente crucial – sino que también integrando perspectivas que consideren otras aristas. Como, por ejemplo, el trabajo no remunerado de cuidados, su valor y extensión en la transformación digital, y analizando finalmente el modo en que les afecta y afecta a la economía digital.

Esto nos brinda la oportunidad de repensar cómo estamos configurando y siendo afectadas por la economía digital, y cómo podemos dar cabida a que estos temas se conciban desde las políticas públicas y acciones a nivel local y global.

 También la importancia a nivel individual, dónde finalmente la concepción de temáticas – como la privacidad y la seguridad de datos, la violencia de género digital, entre otras – sean concebidas como variables que afectan la economía digital y que deben ser trabajadas de forma comprehensiva e interseccional para el fortalecimiento de la democracia, disminución de desigualdades y avanzar hacia un futuro sostenible.

¿Por qué la privacidad y la protección de datos son clave para la igualdad de género?

Cuando hablamos de protección de datos y privacidad en el ámbito digital es necesario comprender que la temática es compleja y que cuenta con una multiplicidad de debates que intentan abarcarlo de la mejor forma posible. Es necesario tener un espacio para cuestionar por qué esta temática es importante a nivel individual y general, y cómo estas reflexiones podrían generar cambios para que mujeres y personas pertenecientes a la comunidad LGBTQIA+ puedan aprovechar de forma libre y segura plataformas digitales y, en general, su día a día.

¿A qué nos referimos cuando hablamos de la privacidad y protección de datos?

La privacidad y la protección de datos, son usualmente temas vistos de la mano. El derecho a tener una vida privada asegura la libertad y dignidad de las personas, y a su vez está directamente relacionado con garantías tan importantes como la libertad de expresión y protección de datos personales.

Esta relación usualmente es vista en simples palabras, que definen la privacidad de datos como el medio por dónde se define quién accede a los datos; mientras que la protección de datos refiere a la provisión de herramientas y políticas dedicadas a establecer cómo se accede a los datos. Es crucial estar conscientes de que esto tiene mayor profundidad, ya que las definiciones sustantivas varían dependiendo de los marcos normativos de cada país, e instrumentos internacionales a los cuales se asocian.

En la medida en que nuestras vidas se asocian a la actividad online, es más sencillo identificarnos y recolectar información sobre nuestros cuerpos, datos biométricos, gustos, opiniones, entre otros. Y esto, finalmente, pasa por procesos en los cuales las personas consienten o no, a entregar estos datos, sea desde una firma electrónica hasta hacer “clic” al aceptar los términos y condiciones de alguna página web o app.

En este sentido, el cómo se obtienen los datos, y cómo estos se utilizan posteriormente es clave para entender estas temáticas.

Por ejemplo, existen hoy en día aplicaciones que se utilizan para hacer tracking de salud reproductiva de mujeres, que ayudan a monitorear la regularidad menstrual, entre otros temas, que han sido denunciadas por compartir datos con terceras partes, sin protección de privacidad y generando beneficios económicos a partir de esto.

¿Por qué es importante considerar esta temática desde una perspectiva feminista?

El estado actual de desigualdad a nivel socio-económico que afecta a mujeres y comunidades LGTBIQIA+ atraviesa el espacio digital.

El derecho a la privacidad desde una perspectiva de género es particularmente crucial porque el acceso a plataforma digitales permite comúnmente limitaciones que derivan desde una estructura patriarcal. Un ejemplo de esto es la asimetría de poderes, pérdida de privacidad, violencias digitales, discriminación y falta de consideración de la intersección de raza, clase, género, entre otros.

La noción de privacidad ha sido un tema clave desde las perspectivas feministas, sobre todo desde la división entre lo privado y lo público. De esta forma, después de varias décadas abogando por la importancia de considerar lo que pasaba en el ámbito “privado” y no sólo en el público, fue posible comenzar a indagar en temáticas de violencia para tratar con estas temáticas desde lo público. Y es así, como hay que considerar también la dicotomía de lo “online” y lo “offline”. Aunque estas temáticas sean pertinentes a lo “online” y a lo privado, no deben dejar de ser importantes de considerar desde una perspectiva feminista.

En este sentido, un reciente estudio del proyecto alemán llamado Forum Privacy, presenta diferentes perspectivas que se han presentado para considerar perspectivas feministas, destacando sobre todo el cuestionamiento de la noción de “protección”, donde se deben dejar de lados las dinámicas asimétricas de poder, y se debe trabajar formas implementar estas dinámicas desde el respeto y empoderamiento.

La importancia de considerar perspectivas que se integren desde el respeto horizontal y el empoderamiento permite preguntarse quiénes están asegurando la protección de datos y la privacidad, reflexionar quién obtiene beneficios de estos procesos; y sobre todo, como podemos asegurar que nuestras acciones del día a día sean en pos de justicia social y los derechos humanos.

¿Qué está pasando hoy en día en Latinoamérica en cuanto a estas temáticas?

En nuestra región la protección efectiva de datos no es una realidad concreta ya que muchos países no poseen marcos regulatorios generales en la materia, y en temáticas de privacidad a veces no se encuentran actualizadas para que sean consideradas en el área digital. Sin embargo, varios países han considerado el habeas data en sus constituciones y marcos legales, y otros han tomado como ejemplo el caso de la Unión Europea siguiendo los ejemplos del GDPR (General Data Protection Regulation).

Todavía existen muchas oportunidades a futuro para seguir trabajando con estos temas, en esta línea Derechos Digitales ofreció el 2022 un resumen de las legislaciones vigentes en países Latinoamericanos en temáticas de protección de datos.

Abarcando la complejidad

La mayor dificultad, que bien aprovechada presenta una oportunidad, es que esta temática no es un tema que concierne solamente políticas públicas, o leyes, si no, concierne una gran complejidad de variables y actores que lo involucran. Una perspectiva feminista en estas temáticas puede otorgar visiones que comprendan las vivencias desde diversas perspectivas, dónde, por ejemplo, el consentimiento informado y activo – considerando igualdad de poderes – puede representar autonomía, libertad y privacidad.

Desde Derechos Digitales se han creado varias campañas para acompañar a las personas en cuanto a la concientización de la importancia de proteger su privacidad y datos, tanto como la Amistosa Caja Anti-Vigilancia, El Anonimato Nos Defiende, No Temas a Internet, entre varias iniciativas.

Para avanzar hacia la igualdad de género sustantiva es necesario reflexionar desde esta perspectiva que comprende a toda la sociedad, invitando a la creación de marcos normativos que garanticen transparencia e igualdad permitiendo considerar la privacidad y protección de datos.

Un FRR para el 8M

En el mundo digital se replica el contexto presente en el mundo off line: las mujeres y niñas son de los grupos más vulnerables a situaciones de violencia basada en género, que además puede ser incrementada por otras condiciones, como ser migrante, pertenecer a una comunidad indígena, o a comunidades de bajos recursos. Al mismo tiempo y tal como pasa en situaciones fuera de la pantalla, mujeres con un perfil público desde el activismo o por trabajar en la política o periodismo también se ven vulneradas y atacadas por su género en espacios digitales. Es así como las mujeres y niñas navegan el mundo social que muchas veces normaliza y ve como positivo desarrollar piel gruesa, siendo responsabilidad de ellas las estructuras sociales que sistemáticamente buscan oprimirlas.

Ante este contexto, se hace necesario tener opciones para dar respuestas e intervenir en la prevención y defensa de los derechos de mujeres y niñas y el Fondo de Respuesta Rápida es una herramienta que apoya a la sociedad civil para atender estas situaciones urgentes en entornos digitales.

Las iniciativas que se apoyan desde el FRR son variadas en las dimensiones que intervienen, desde la prevención entre jóvenes universitarias y migrantes a través de mecanismos de alerta temprana, estrategias de reacción frente a situaciones de peligro en línea hasta litigio estratégico en casos de extorsión digital. Estos proyectos tienen en común el objetivo de protección de mujeres y niñas en actividades cotidianas y rutinarias, que son parte de su vida y de su identidad, que es donde residen las potenciales amenazas.

Las amenazas en la cotidianidad

La Fundación Datos Protegidos en Chile trabaja para brindar apoyo para víctimas de violencia de género y extorsión digital, sentando un precedente importante en el país y para la región. Con el apoyo del FRR, llevaron adelante el caso de José Miguel Zárate quien fue acusado de los delitos de amenaza, extorsión, sabotaje informático y difusión sin consentimiento de imágenes íntimas de más de 18 mujeres. El impacto de esta intervención obliga a la discusión más profunda del sistema y sobre lo que ocurre con la violencia digital en Chile en donde “se requiere instalar el debate sobre las sanciones, reparación y garantías respecto a la vida privada de cada mujer, adolescente y niñas ante la gravedad de las circunstancias y el impacto social que este tipo de violencia ha generado por el uso masivo de nuevas herramientas tecnológicas”.

Igual de cotidiana es la situación crítica que la Red Interuniversitaria Seguras y Educadas de Guatemala atendió através de Tecnofeministas para desarrollar alertas tempranas y sistemas de cuidado y protección de las universitarias para hacerle frente a la violencia machistas en las universidades del país. Es una forma de reclamar su espacio y dar una respuesta que ninguna otra institución da: “que nadie diga que nosotras no pertenecemos a este lugar. Que lo escuchen las universidades y las autoridades del país, porque las mujeres hacemos uso de la Internet y merecemos hacerlo sin ninguna amenaza.” Tecnofeministas ofrece una escuela de formación digital en la que las participantes puedan aproximarse a los parámetros técnicos del internet e identificar estrategias de acción ante situaciones de ciberacoso sexual.

Por otra parte, para que en las comunidades las mujeres y niñas puedan tener una presencia en internet segura a pesar del contexto, la corporación Cambio Sostenible en Colombia ha estado trabajando con ellas en el proyecto Digitalmente Seguras, que busca reducir la vulnerabilidad de este grupo en entornos digitales, especialmemte como consecuencia de la pandemia de la COVID-19 que afectó duramente la economía de muchos grupos y comunidades. En su trabajo evidenciaron “un aumento de 1000% de los índices de explotación sexual y reclutamiento forzado en el contexto covid 19, de las cuales 7 de cada 10 víctimas son niñas y mujeres” mientras que la inmigración a este país mantenía su ritmo.

Sólo una muestra

Los proyectos presentados son una muestra de las intervenciones que hacen organizaciones y activistas en la región para que el entorno digital sea un espacio de oportunidades para el libre goce de derechos para las mujeres y niñas. Estas iniciativas que se multiplican de país a país, resaltan la carencia de una respuesta institucional contundente en forma de marco legal, formación e implementación que brinde protección, reparación y justicia necesarias para lograr un mundo más justo y seguro.

Mujeres haciendo tecnología

“Pregunte al doctor, pida ayuda a la enfermera, llame a los informáticos, pida una cita a la secretaria”. Esta ha sido la primera forma de aprender que las carreras y profesiones tienen género y que las sociedades han ido construyendo de forma intrínseca perfiles que deben ser completados para destacar en ciertas áreas. Las mujeres deben buscar trabajos adecuados que no afecten su condición de “princesas” en la sociedad o, peor aún, deben dedicarse a cuidar sus hogares, hijos y esposos con ferviente devoción. Estos modelos sociales han limitado y han hecho que las mujeres cuestionen sus habilidades, capacidades y límites pero ¿esto es suficiente para detener un sueño y la lucha?

La respuesta parece contradictoria. No, no ha sido suficiente para evitar que las mujeres incursionen en la ciencia, las medicinas, la tecnologías y todo cuanto han querido hacer, sin embargo, algunas han tenido que hacerlo bajo firmas que oculten su identidad o ceder el crédito de propiedad a un hombre. Y sí, a callado a otras y obligado a que interpreten el guíon escrito para ellas. Es por esa misma razón que la lucha hecha, los derechos y el reconocimiento alcanzado tiene más valor para ellas.

Hablando de las áreas que no dejaron de explorar, las mujeres han estado presentes en el campo de las Tecnologías de la Información y la Comunicación (TIC) desde los inicios de la computación. Con Ada Lovelace primera programadora del mundo, trabajó junto a Charles Babbage en el diseño de la «máquina analítica» en la década de 1840. Su trabajo incluyó la creación de algoritmos que permitirían a la máquina analítica realizar cálculos matemáticos complejos. Lo que sería “tomar notas y agregar comentarios” resultó en superar el trabajo inicial.

Y si seguimos mirando la historia, nos encontramos a más mujeres que escribieron su propia historia y muchas de ellas en binario. Así como Grace Hopper, una programadora y matemática, conocida como la «reina de la programación» o Radia Perlman, madre de la internet, ella desarrolló el protocolo Spanning Tree o Shafi Goldwasser pionera en la criptografía y la seguridad o quizá como Hedy Lamarr actriz austriaca y científica que hizo importantes contribuciones en el campo de las comunicaciones inalámbricas, creando las bases de lo que hoy conocemos como WiFi (difícil pensar una vida sin esto, ¿no?). 

En la actualidad, las mujeres desempeñan un papel clave en la industria de las TIC, llegando a liderar proyectos de investigación y desarrollo, creando nuevas empresas y diseñando productos y servicios innovadores que están transformando el mundo. Además, las mujeres están trabajando para cerrar la brecha de género en la industria de las TIC, abogando por la inclusión y la diversidad en la fuerza laboral de las TIC.

La presencia de mujeres en la industria de las TIC no solo es importante por una cuestión de equidad de género, sino también porque las mujeres pueden aportar perspectivas únicas, amplias, diferentes y habilidades valiosas a la industria. Los nuevos desafíos globales no miran al género, por eso los equipos que los resuelven y trabajan en ellos, tampoco deberían hacerlo.

Celebramos el papel fundamental que las mujeres están desempeñando en la creación y evolución de las TIC. Al fomentar la participación y la representación de mujeres en este campo, estamos ayudando a garantizar un futuro más justo e igualitario para todas y todos.

Conmemoramos la construcción lenta y silenciosa que hicieron las mujeres del ayer para que las mujeres de hoy tengan más oportunidades y apoyamos a las mujeres de hoy que inspiran y acompañan a quienes serán las mujeres de mañana. Caminamos juntas hacia una reconstrucción de la historia y hacia una sociedad que no impone ni juzga.

Espacios digitales más seguros, más libres y más inclusivos

 El miércoles 8 de marzo, las calles de diferentes cuidades de América Latina se llenaron de mujeres manifestando, por la igualdad de oportunidades, una vida sin violencia machista, la reducción de la brecha de género, entre muchas otras consignas.

Desde una perspectiva de género, ¿qué valor se da en el espacio digital  a los derechos de las mujeres? ¿Existe mayor libertad e igualdad para las mujeres, o se trata de un espacio con más violencia machista y con menor reconocimiento de derechos?

Los movimientos de mujeres se han apropiado de la tecnología como medio denunciar las desigualdades,  organizar campañas , para ocupar espacios en el sector TIC como usuarias, investigadoras, programadoras o creadoras de opinión. Para hacer públicas temáticas invisibilizadas, compartir opiniones, y debatirlas. Las redes favorecen la interacción y la sororidad digital: amplían la  posibilidad de activismo feminista,  la difusión de reclamos o denuncias a través de posteos. Constituyen una herramienta que comparte y expande.

Si embargo, basta analizar  cómo se producen las interacciones en entornos digitales, para percibir que  se reproducen los estereotipos sexistas presentes en entornos offline. Al tratarse de nuevos medios, en contínua evolución, no es raro que aparezcan nuevas formas de violencia de género y que se  intensifiquen las violencias tradicionales. Estas formas se refuerzan debido a la viralidad, permanencia y descentralización.

Es en este contexto, que se vuelven fundamentales los movimientos ciberfeministas (o el llamado feminismo ciberactivista). La defensa de los derechos y la visibilización de problemáticas sociales que estos medios traen aparejados, constituyen los ejes centrales sobre los que trabajan estos movimientos.

Si bien el ciberfeminismo se trata de un concepto en permanente construcción y movimiento  en torno a las diferentes formas de concebir la práctica feminista virtual, se pueden identificar algunos objetivos comunes: el modelo hegemónico del ciberespacio y del diseño industrial responde a un modelo heteropatriarcal, el empoderamiento de las mujeres se favorece mediante la apropiación en el acceso, uso, contribución, diseño y desarrollo de las TIC,  a mayor presencia de mujeres en las TIC, mayor autoridad femenina en la sociedad contemporánea, las TIC brindan la oportunidad de desafiar la autoridad masculina y las relaciones de dominación basadas en el género para crear prácticas más igualitarias.

La construcción de espacios digitales más libres, más seguros y más inclusivos es tarea de los gobiernos, de las empresas tecnológicas y de la sociedad civil. Las herramientas y los medios, en constante cambio, hacen que sea una tarea desafiante y en continua. Y no hay dudas, la construcción es colectiva.

¿Tecnologías para la equidad y el empoderamiento? Notas para superar perspectivas coloniales y deterministas sobre las tecnologías

Esta semana se iniciaron los trabajos de la 67a Comisión de la Condición Jurídica y Social de la Mujer (CSW67, por su sigla en inglés). La CSW es una instancia auspiciada por Naciones Unidas que tiene como objetivo avanzar hacia la “igualdad y el empoderamiento de las mujeres”.

Este año, la Comisión tiene como tema prioritario “La innovación y el cambio tecnológico, y la educación en la era digital para lograr la igualdad de género y el empoderamiento de todas las mujeres y las niñas”. El tema ofrece muchas posibilidades de avanzar en acuerdos urgentes y necesarios sobre como las tecnologías digitales pueden efectivamente favorecer la equidad de género.

A la vez, representa una oportunidad para reforzar lineamientos que permitan establecer límites necesarios para que estas tecnologías no profundicen desigualdades. Sin embargo, el colonialismo, el punitivismo y el determinismo tecnológico pueden representar barreras importantes para que se alcancen conclusiones significativas. Peor que eso: sumados a la ausencia de una mirada interseccional y de derechos humanos, pueden implicar retrocesos en consensos que se vienen plasmando hace décadas a nivel internacional.

Derechos Digitales ha sido participante activa de las discusiones: en octubre de 2022 co-presidimos la reunión de expertas realizada en preparación para la CSW y participaremos intensamente de las actividades oficiales y paralelas a lo largo de toda la reunión en Nueva York.

En esta columna compartimos algunas impresiones y prioridades que creemos que deben ser consideradas en las discusiones, a partir de una detenida revisión del borrador inicial de conclusiones de la CSW67.

Una perspectiva de derechos para contrarrestar el determinismo tecnológico

Si bien podemos afirmar que desde el derecho internacional han habido avances en comprender que las normas de derechos humanos y su aplicación tienen que acompañar la transformación tecnológica, en la práctica vemos escasos compromisos por implementar tales consensos.

Como resultado, las brechas sociales y de género se amplifican y profundizan. El caso latinoamericano refleja cómo las desigualdades estructurales se replican en el entorno tecnológico y grupos históricamente excluidos del acceso a derechos encuentran no solamente las mismas barreras de acceso y uso de tecnologías, sino que están sujetos a nuevas y más complejas formas de violencia, explotación y exclusión.

Casos como el de Belén Whittingslow en Paraguay y de las trabajadoras en aplicaciones de limpieza son crudos ejemplos de las injusticias que se recrudecen alrededor de estos temas. En el segundo caso, también muestran como las mismas se automatizan en forma de códigos algorítmicos.

La vigilancia masiva o dirigida hacia periodistas, defensoras de derechos humanos y grupos feministas, evidencian cómo prácticas autoritarias de persecución, criminalización y silenciamiento de mujeres se refinan con apoyo de nuevas tecnologías de vigilancia.

Frente a evidencias de crecientes de abusos y vulneraciones de derechos facilitadas por las tecnologías en las últimas décadas, la comunidad internacional se vió obligada a superar el mito de la “independencia del ciberespacio” y reconocer las implicancias de las tecnologías digitales en los derechos humanos. Es fundamental que los gobiernos reunidos en la CSW67 construyan sus consensos a partir de la noción, duramente comprobada en la experiencia vivida de millones de personas, de que la tecnología no va a resolver problemas estructurales como los relacionados al hecho de que ciertas poblaciones han sido históricamente marginadas del acceso a derechos en su totalidad.

Además de compromisos concretos con garantizar efectiva diversidad en la producción tecnológica e incentivos al desarrollo de tecnologías alineadas con el respeto y protección de derechos humanos, los Estados deben garantizar un acceso significativo a internet para todas las personas y que los mismos derechos que ellas tienen fuera de línea se apliquen en línea. Se deben adoptar medidas para limitar y regular el desarrollo y uso de tecnologías con potencial discriminatorio y abusivo en relación a los derechos humanos.

Abordar a la innovación, el cambio tecnológico y la educación digital desde una perspectiva de derechos humanos, reconociendo los marcos existentes en la materia, es crucial para que éstos puedan tener algún rol en el alcance de la equidad de género. Cualquier recomendación distinta puede incrementar brechas de género, avalar prácticas autoritarias y retroceder en consensos duramente conquistados a nivel internacional.

El combate a la violencia y censura de género más allá de la criminalización y el paternalismo

Sabemos que la violencia de género facilitada por tecnologías es creciente, y genera múltiples y profundos impactos individuales y colectivos al implicar una forma de censura de género.

En América Latina, la violencia que se manifiesta en el entorno en línea es un duro reflejo de sociedades marcadas por el patriarcado, la misoginia y la homofobia y una extensión de múltiples violencias de género vividas en el ámbito doméstico y los espacios públicos.

La violencia política de género, por su parte, ha representado una barrera adicional a la participación de las mujeres y personas LGBTQIA+ en los espacios de poder y toma de decisión. Junto a la violencia contra periodistas defensoras de derechos humanos, es mucha veces perpetrada por funcionarios y autoridades públicas, como se ha observado en el caso de Brasil, El Salvador y México.

Es urgente el desarrollo de políticas públicas que respondan a esas violencias, responsabilicen a quienes la promueven – incluso cuando se trata de autoridades públicas – y establezcan mecanismos efectivos de reparación. Respuestas desde el derecho penal pueden ser necesarias, pero no son suficientes para dar cuenta de la complejidad del problema y la diversidad de experiencias de vida de las sobrevivientes.

Legislaciones penales promovidas sin perspectiva de derechos humanos pueden ocasionar criminalización y retrocesos en materia de acceso a derechos. El test tripartito y los criterios de legalidad, necesidad y proporcionalidad deben ser considerados en cualquier política o acción destinada a la restricción de contenidos de modo a evitar la criminalización y censura de expresiones legítimas, incluso de activistas mujeres y LGBTQIA+.

Es necesario que la CSW pueda incentivar el desarrollo de conceptos comunes y marcos basados en los derechos humanos para responder a todas las formas de violencia de género, incluyendo las mediadas por las tecnologías.

Por una transformación digital basada en la autonomía

La equidad de género jamás puede ser utilizada como argumento para la implementación de sistemas digitales sin criterios de atención a los derechos humanos, como observamos nuevamente en el caso latinoamericano.

Aquí, muchas de las iniciativas de uso de Inteligencia Artificial (IA) en el sector público se dirigen a grupos en situación de vulnerabilidad que terminan expuestos a la recolección de sus datos para distintos fines sin capacidad de ofrecer su consentimiento informado de manera previa y sin mecanismos efectivos de protección ni acceso a la justicia, incluso frente a decisiones automatizadas que se tomen sobre su presente y futuro.

Además de la garantía de derechos básicos a la protección de sus datos – con garantías especiales para la infancia –, las mujeres y personas LGBTQIA+ deben contar con mecanismos efectivos para participar en decisiones sobre el desarrollo y uso de sistemas con potencial de afectar su bienestar.

Tal como señala la Recomendación sobre Ética de la Inteligencia Artificial, adoptada por 193 países de la Unesco, los Estados deben generar medidas efectivas para la realización de estudios de impacto en derechos humanos en el desarrollo e implementación de este tipo de tecnologías. Especial atención debe darse a sus implicaciones en derechos económicos y sociales y al potencial impacto a grupos en condición de vulnerabilidad. Esos estudios deben efectivamente informar la toma de decisiones sobre su desarrollo y adopción, con el establecimiento de límites estrictos a aquellos que no cumplan con criterios mínimos – como ha recomendado la anterior Alta Comisionada de las Naciones Unidas para los Derechos Humanos, Michelle Bachelet.

Ningún tipo de innovación puede construirse con base en la vulneración de derechos, la explotación y el incremento de brechas e injusticias de género. Las empresas de tecnología deben cumplir con la responsabilidad de respetar y proteger los derechos humanos y los Estados deben adoptar medidas proactivas para promover marcos de transparencia y rendición de cuentas a tales empresas.

Por una innovación capaz de transformar estructuras de género

Es bien sabido que las tecnologías no son neutrales y que tampoco conllevan en sí mismas el poder de transformar realidades sociales. Sostener que la innovación y el cambio tecnológico pueden en sí mismos generar mayor equidad es ignorar la realidad en que las desigualdades e injusticias se plasman y automatizan en crueles códigos algorítmicos. No sólo eso: las brechas relacionadas al desarrollo tecnológico a nivel geopolítico – con las grandes empresas tecnológicas mayormente concentradas en pocos países del Norte Global – reproducen estructuras de extracción y explotación que nos remiten al contexto colonial.

Hay evidencias desde distintas fuentes y perspectivas de cómo tecnologías desarrolladas bajo lógicas comerciales basadas en la vigilancia no solo no contribuyen con la superación de brechas de género, sino que las profundizan. Cambiar esta lógica implica adoptar medidas concretas y proactivas para la promoción de una innovación no solo responsable, pero comprometida con la justicia de género.

Eso incluye avanzar efectivamente hacia la superación de brechas de género más allá de lo digital, pero también es necesario establecer políticas serias de inclusión y participación transversales y con perspectiva de género, reconociendo los avances y acuerdos relacionados a la gobernanza digital desde múltiples partes interesadas.

Son innumerables las iniciativas de producción tecnológica desde comunidades feministas en el Sur Global capaces de potenciar su uso hacia mayor equidad y justicia. Es urgente que los gobiernos reunidos en CSW67 incorporen miradas críticas a sus lentes tecno-solucionistas y adopten medidas para incentivar el desarrollo y la sostenibilidad de formas alternativas de pensar y construir tecnologías.