Ecuador: muchos cambios, poco que celebrar

Semanas después de la declaración de inocencia de Ola Bini, el final, una persecución emblemática de los riesgos que viven las personas expertas en seguridad digital en la región, Ecuador aprobó una polémica ley para reformar a varios cuerpos legales en el fortalecimiento de las capacidades institucionales en materia de seguridad.

La nueva “Ley Orgánica Reformatoria a varios Cuerpos Legales para el Fortalecimiento de las Capacidades Institucionales y la Seguridad Integral” modifica partes importantes del Código Integral Penal y otras leyes enfocadas en la seguridad pública y la inteligencia.Por otro lado, en una semana se celebrarán los dos años de la aprobación de la Ley general de protección de datos de Ecuador, aún sin plena aplicación. 

En ambos casos, no tenemos mucho que celebrar, pero sí la necesidad de responsabilizar a las autoridades para que cumplan con sus obligaciones de derechos humanos.

Reformas contra derechos humanos

En años anteriores, hemos visto intentos de aprobar leyes por parte de la asamblea ecuatoriana, que intentan aumentar la vigilancia estatal en internet. Hace una década, en 2013, varias organizaciones de la sociedad civil y personas expertas alertaron de los graves problemas de este tipo de ciberpatrullaje

 Este año, la reforma llevada a cabo por el estado ecuatoriano  contiene muchos puntos problemáticos. En primer lugar, la ley no fue discutida adecuadamente con las múltiples partes interesadas. No hubo intercambio con personas expertas ni con la sociedad civil en general, en lo que fue una discusión rápida y marcada por la contingencia.

En general, los cambios legales no hacen referencia expresa a principios de legalidad y proporcionalidad que “debieran ser los parámetros inspiradores de las políticas de vigilancia”. Uno de los dispositivos permite que tanto los inspectores como la policía soliciten información sobre los suscriptores de servicios de telecomunicaciones, como el nombre o la dirección de una persona, a un proveedor de servicios ubicado en el Ecuador o que ofrezca servicios en el territorio ecuatoriano. En otras palabras, los cambios facilitan una recolección de información que no pasa por suficientes resguardos para la privacidad de forma previa.

Luego de los retrocesos en materia de derechos humanos que también se han visto en otros países de la región, como se vio en el caso de las muy criticadas reformas legales de El Salvador,  la creación del “agente encubierto informático” es otro punto preocupante, que ya hemos criticado cuando fue propuesto en Chile. Con licencia para infiltrarse en plataformas informáticas para realizar seguimiento de personas, vigilar, realizar compras controladas. Esta reforma facilita la intrusión de personas en las vidas privadas en nombre de la seguridad. Para combatir “ciberdelitos puros o replicas o cualquier otro tipo de delito”, el agente podrá intercambiar, enviar de manera directa archivos, ficheros con contenido ilícito o aplicar técnicas para preservar y descifrar información recolectada que sea útil para la investigación. Podrá obtener imágenes y realizar grabaciones en audio o video, de las conversaciones que podría llegar a mantener con el o los investigados.

En la contribución del último Examen Periódico Universal del Estado de Ecuador, llamamos atención de que el Estado ecuatoriano debe “abstenerse de utilizar tecnologías de vigilancia y reconocimiento facial o biométrico que no cumplan con los estándares y obligaciones internacionales, así como regular la venta, la transferencia, el uso y la exportación de estas tecnologías”. Como bien resume Franco Giandana, las reformas de Ecuador introducirán “mecanismos desproporcionados y potencialmente invasivos para la ciudadanía”.  En vez de cumplir con sus obligaciones de derechos humanos, hemos visto un incumplimiento generalizado por parte del Estado ecuatoriano de estos derechos a través de la aprobación de leyes penales amplias, sin respecto a proporcionalidad y necesidad.

Cumpleaños, pero sin celebración

El 21 de mayo de 2021, Ecuador aprobó su Ley general de protección de datos personales. Desde Derechos Digitales, junto con la Asociación para el Progreso de las Comunicaciones y con Access Now, colaboramos con las discusiones de este proyecto de ley, así como continuamos  un seguimiento de los desarrollos posteriores a su aprobación. A pesar de ser un instrumento que cristaliza la autodeterminación informativa en el ámbito digital, el país aún está lejos de una cultura de protección de datos. Una de las razones es clave: casi dos años después de la aprobación de la referida ley, mucho de lo que debería regularse para hacer efectiva la ley aún está pendiente. A modo de ejemplo, hay 44 menciones en la ley a la necesidad de hacer un reglamento, como la creación del registro de los responsables y Encargados del Tratamiento de Datos Personales y parámetros para definición de un volumen relevante de datos personales. Por si esto fuera poco, aún no se ha definido la autoridad de protección de datos personales, por lo que no se ha iniciado la institucionalización de dicha ley de datos. Se cumplen así dos años con pocos avances, pese a la buena base existente.

Una triste travesía sin fin

“Frustrado, cansado, y triste” fueron los adjetivos que Ola Bini utilizó para hacer referencia a cómo se siente luego de tener la confirmación del juez de primera instancia de su inocencia en el enjuiciamiento de que ha sido objeto por años. Esa falta de alivio se debe a que la Fiscalía apeló de la sentencia absolutoria, lo que significa que Ola estará con las mismas restricciones para retomar su vida a pesar de la confirmación de que es inocente. Si bien es un gran avance la declaración de que no hay evidencia sobre la acusación, el informático sueco todavía tiene sobre sí una persecución penal pendiente aún después de cuatro años de acusación sin pruebas, como fue descrito en el libro de Diego Cazar.

La necesidad de un nuevo rumbo

Resulta preocupante que, a pesar de mostrar pequeños avances en materias judiciales y regulatorias, todavía persistan algunas situaciones que ponen en entredicho el ejercicio de derechos humanos en relación con las tecnologías digitales en Ecuador.

El Estado ecuatoriano, que tiene la obligación de respetar derechos humanos, debe declarar la inconstitucionalidad de los mecanismos legales que no se ajustan a principios constitucionales y convencionales para la afectación de derechos en nombre de la seguridad, ante los probables excesos e ilegalidades en su aplicación. Además, el Estado Ecuatoriano debe cumplir con sus obligaciones para protección de la privacidad y de los datos personales, designando la Autoridad de Protección de Datos Personales, con autonomía técnica y administrativa.

Finalmente, deben abandonarse prácticas de persecución que, como en el caso de Ola Bini, pongan bajo riesgo la actividad de activistas e investigadores en seguridad. El compromiso de todos los estados en América Latina con los derechos humanos se extiende a todos los órganos y procedimientos en manos de organismos públicos, sin importar las contingencias o disputas políticas.

Los apagones de internet atentan contra los derechos humanos

Hace algunas semanas tuve la oportunidad y el honor de participar de la sesión inaugural de DRIF 23, el foro de derechos digitales e inclusión organizado anualmente por Paradigm Initiative como una plataforma para la discusión de política pública y la creación de redes de colaboración en África.

En esta, su décima edición, el foro se realizó en Nairobi (Kenia) y el tema escogido fue “construyendo una internet sostenible para todos”. Parte importante de mi intervención inicial la dediqué a explicar la noción de “acceso significativo” a internet y las redes de comunicación, entendido como un acceso universal, seguro, asequible y de calidad, bajo el entendido de que internet hoy habilita el ejercicio de derechos fundamentales.

“Han mencionado mucho la idea de internet como un derecho fundamental, pero no dudan en cortar el acceso cuando hay razones de seguridad nacional, ¿cómo se resuelve esa tensión?” — dijo alguien durante la ronda de preguntas y comentarios. Seguro que la intervención no fue exactamente así, pero la idea era esa y no iba dirigida a mí. Tampoco estoy seguro de que fuese dirigida a alguien en específico, sino que se sintió más como un reclamo justo frente una desconexión patente entre la teoría y la práctica, con consecuencias concretas y bastante evidentes. Quería contestar, quería decir que la protección de los derechos humanos es un asunto de seguridad nacional y que, por tanto, la oposición era falaz. No tuve oportunidad. La pregunta la tomó Emma Theofelus, viceministra de Tecnologías de la información y la comunicación de Namibia.  Luego el panel se movió en otra dirección y nos quedamos sin tiempo.

Y aunque creo en la respuesta que no di, quizás no haya sido del todo mal haber guardado silencio. Durante los siguientes días asistí a distintos paneles de discusión a escuchar y aprender de las y los especialistas trabajando en un continente que no es el mío y que tiene sus propias particularidades.

Uno de los temas recurrentes durante el encuentro fue el de los apagones de internet. África es una de las regiones donde este fenómeno es más común: según los datos compilados por Access Now, en 2022 se registraron 19 apagones de internet en 12 países africanos. Es común que los apagones se implementen aduciendo razones de seguridad nacional en el marco de procesos eleccionarios (he ahí la razón de la pregunta en el panel inaugural), como una forma de combatir la propagación de discursos de odio y desinformación. Uno de los panelistas afirmó incluso que la desinformación es una de las mayores amenazas al ejercicio de derechos en África, en tanto es frecuentemente utilizada como excusa para restringir el acceso a internet.

Si volvemos a la idea de que el acceso a internet habilita el ejercicio de derechos fundamentales —al trabajo, a la educación, a la libre expresión, a la información, al ejercicio de derechos ciudadanos, etc.— entonces las interrupciones del servicio no solamente constituyen un atentado contra las personas y sus derechos, sino que además impacta de manera importante e injustificada distintos aspectos de sus vidas.

Apagones latinoamericanos

Si bien es posible establecer distintos paralelos entre las realidades de África y América Latina, también hay muchas diferencias. Una de ellas se refiere a los apagones de internet, un fenómeno mucho menos común en nuestra región y que, por lo mismo, se le ha dedicado menos atención.

La última versión del reporte Keep it On —publicado en febrero de 2023 y que registra y analiza los apagones a nivel mundial durante 2021— consigna que el único país latinoamericano en el que se produjeron apagones de internet durante ese año fue Cuba. Y, sin embargo, si bien los apagones generales de internet no constituyen una realidad cotidiana, hay algunos aspectos que parece importante revisar con alguna detención.

En respuesta a la consulta realizada por la Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos sobre apagones de internet, Derechos Digitales y la Asociación para el Progreso de las Comunicaciones (APC) realizaron un documento que además incorpora aportes de la organización paraguaya TEDIC, y que detalla distintos casos de interrupción del acceso en nuestra región.

En general, se observan interrupciones parciales, usualmente en circunstancias de protesta política. Por ejemplo, se reportan dificultades para acceder a las redes durante las protestas de 2018 en Nicaragua y de 2019 y 2021 en Colombia. En Ecuador, varios sitios web fueron bloqueados durante las protestas de junio de 2019, debido a una supuesta infracción de derechos de autor.

Además, se reportan distintos casos de bloqueos selectivos de sitios, servicios y aplicaciones web. En Brasil, entre 2015 y 2016, los proveedores de servicios bloquearon WhatsApp tres veces de forma temporal, debido a órdenes judiciales. En Colombia se identificó el bloqueo de sitios web de juegos de azar sin licencia, imponiendo una lista de bloqueo a los proveedores de internet en 2016 y 2017. En Perú, dieciocho páginas de Facebook, tres aplicaciones de Android y los servidores Heroku y Amazon Web Services (AWS) asociados a empresas como Picap fueron bloqueados sin orden judicial en noviembre de 2019.

Tanto en Brasil como en Paraguay se han documentado casos de interrupción de la conexión, aparentemente como medida de protección de figuras políticas. En 2019, la autoridad brasileña de telecomunicaciones autorizó hasta 20222 el uso de inhibidores de señal de conexión en áreas donde se encuentren el presidente y el vicepresidente. La Coordinadora de Derechos Humanos del Paraguay realizó una misión de observación en la zona norte del país e informó que las comunicaciones de telefonía móvil se ven afectadas en la zona cada vez que se acerca una intervención de la Fuerza de Tarea Conjunta Paraguaya.

Se sospecha de bloqueo de sitios web con motivaciones políticas en Brasil y Venezuela, país en el que además un deterioro importante de la infraestructura de telecomunicaciones, producto de la falta de inversión en mantenimiento, ha vuelto sumamente limitado el acceso a internet.

De los ejemplos antes expuestos surgen una serie de cuestiones que es necesario revisar con detención, relativas a preguntas sobre las circunstancias que podrían justificar la interrupción de un servicio particular, pero también de la idoneidad y la adecuada proporción de este tipo de medidas, a partir de los impactos perjudiciales y no buscados que resultan de su implementación. Las salvaguardas legales y el apego al debido proceso son dos cuestiones que no pueden ser tan fácilmente ignoradas.

Por su parte, la responsabilidad estatal en la preservación y mejoramiento de la infraestructura como condicionante para el acceso es otro elemento de vital importancia, como demuestra el caso venezolano. Por último, la utilización de los apagones de internet como un arma en el plano de una discusión política es una más de las costumbres autoritarias en contextos democráticos todavía frágiles, y es un aspecto que debería preocuparnos particularmente.

El intercambio de experiencias con las y los especialistas africanos puede ser una oportunidad interesante para pensar la problemática de los apagones en América Latina, aprendiendo de su experiencia, pero también como una oportunidad para comprender mejor aquello que nos diferencia y que vuelve particular al fenómeno latinoamericano.

¿Te interesa saber más sobre los apagones de internet en América Latina? Puedes chequear aquí el repaso de incidentes detectados en nuestra región. Si necesitas una introducción al tema, acá encontrarás un listado de preguntas frecuentes que pueden guiarte, y si necesitas todavía más información, acá hay un listado de recursos útiles e interesantes para que revises.

Tratados de comercio digital no pueden impedir transparencia sobre IA

Hace unas semanas se publicó el AI Index 2023 de la Universidad de Standford, que analiza diferentes aspectos relativos a los avances de la Inteligencia Artificial, con una mirada comparativa de la Human-Centered Artificial Intelligence. Varios aspectos de esta publicación son dignos de mención. Entre ellos, el crecimiento en el número de incidentes y controversias relativas a la IA, que se ha multiplicado por 26 desde 2012, según datos del Algorithmic, y Automation Incidents and Controversies (AAIC).

Diversas investigaciones relativas, por ejemplo, a ChatGPT, también demuestran que los problemas relacionados con el uso de estos sistemas, ya sea por parte del sector privado o por parte de las autoridades, se hacen cada vez más evidentes y confirman las preocupaciones de varias organizaciones de derechos humanos dedicadas a estudiar la temática en los últimos años. Por otro lado, llama la atención el mapeo de importantes sistemas de aprendizaje automático atribuidos a investigadores de determinados países. Siguiendo la tendencia de años anteriores, en 2022 la gran mayoría de autores son de países del norte global, concretamente de Estados Unidos, algunos países europeos y China.

Destacamos un punto que amerita mayores consideraciones de los países latinoamericanos, en especial, la utilización de tratados de comercio digital para la regulación de inteligencia artificial, además de dispositivos que puedan impedir la transparencia del uso de varios sistemas de IA. 

Tratados de comercio: la agenda digital sin consideraciones de derechos humanos

Diversos tratados de comercio tienen consecuencias para los entornos digitales, regulando aspectos en temas como el comercio electrónico, la protección del consumidor en línea y el establecimiento de estándares para la inteligencia artificial. El Acuerdo de Asociación de Economía Digital (DEPA), firmado por Chile, Nueva Zelanda y Singapur, contiene un capítulo específico sobre IA, obligando a los Estados a adoptar marcos éticos para la gobernanza de esta tecnología.

Pero estos tratados de comercio digital también pueden prohibir exigir transparencia de los algoritmos, impidiendo la divulgación del código fuente de los softwares de IA, lo que puede limitar las posibilidades para la búsqueda de soluciones a estos problemas, excluyendo la participación de autoridades judiciales o reguladoras. Así, por ejemplo, lo establece la propuesta de reglamentación sobre IA de la Unión Europea, presentada en 2021 y que todavía está en discusión.

Actualmente se han suscrito una serie de acuerdos comerciales bilaterales y multilaterales con compromisos para permitir el libre flujo de datos a través de las fronteras, fortalecer las leyes nacionales sobre secretos comerciales y aplicar estrictas protecciones de propiedad intelectual para el código fuente y los algoritmos inclusive, esto viene en forma de una nueva prohibición para que los gobiernos exijan el acceso o la transferencia del código fuente del software, sujeto a ciertas excepciones, y cuenta con el apoyo activo de EE. UU., Australia, Canadá, Japón y Nueva Zelanda.

Los esfuerzos por inyectar otra capa de protección para el software en el derecho comercial digital pueden ser muy problemáticos. La cláusula del código fuente ya puede resultar demasiado restrictiva para las políticas digitales nacionales. Al mismo tiempo, se ha avanzado mucho menos en abordar los riesgos y daños transfronterizos asociados con la IA, en áreas como la política de competencia, la protección de datos personales, las protecciones contra el uso abusivo de algoritmos en los mercados laborales y de consumo, y el uso respetuoso con los derechos humanos, de forma transparente y responsable.

Haciendo un análisis histórico, las disposiciones que prohíben los requisitos de divulgación del código fuente fueron introducidas por EE. UU. en las negociaciones del Acuerdo Transpacífico de Cooperación Económica (TPP) y desde entonces han sido emuladas en muchos otros acuerdos comerciales, aunque muchos países en desarrollo se oponen firmemente a ellas. El TPP impide a los estados suscriptores solicitar la transferencia o el acceso al código fuente de software. El código fuente es la especificación de un proceso computacional que puede ser compilado y ejecutado por una computadora.  En contraste con el código fuente se encuentra el llamado «código objeto», que es el que convierte el código fuente (legible por el ser humano) en instrucciones legibles por la máquina, mediante un proceso conocido como «compilación». El código fuente de un programa informático puede estar protegido por propiedad intelectual y considerarse secreto comercial. De acuerdo con el artículo 10.1 del Acuerdo sobre los Aspectos de los Derechos de Propiedad Intelectual relacionados con el Comercio (ADPIC), de la OMC, los programas informáticos, tanto en código fuente como en código objeto, pueden protegerse mediante derechos de autor. Por lo anterior, estas disposiciones pueden amenazar el derecho de acceso a la información pública y, por tanto, el derecho a la libertad de expresión, según lo determinan la Constitución y las leyes de varios países latinoamericanos.

La transparencia, además de reforzar la confianza en las instituciones, constituye un derecho humano fundamental cuando se considera desde la perspectiva del acceso a la información. Este es un derecho consagrado en la Convención Americana sobre Derechos Humanos y, en el caso chileno, es una obligación del Estado prevista en la Constitución, en sus artículos 8 y 19 n. 14, en virtud del cual se presume pública toda la información que obre en poder de los órganos de la administración del estado y del principio de máxima transparencia o divulgación, expresamente definido en la ley de acceso a la información pública.

Pese a lo anterior, no se puede denegar la solicitud de acceso a información pública referida al código fuente de una aplicación estatal de reconocimiento facial, por ejemplo, en base a la supuesta vulneración de derechos de propiedad. La divulgación del código fuente de un software permite auditar su funcionamiento, participar en su mejora y controlar su seguridad, idoneidad y eficacia. Sin embargo, hay posiciones que lo consideran una forma de divulgación forzada de tecnología y como una barrera al comercio exterior. Así lo establecen los “Report on Foreign Trade Barriers” elaborados por EE. UU. en los años de 2022 y 2023, pero sin considerar los derechos humanos involucrados en estos casos.

El uso de la inteligencia artificial debe respetar los derechos humanos

Son cada vez más evidentes las consecuencias negativas de varios sistemas de IA, relativas a potenciales violaciones de derechos humanos y, particularmente, al incremento de la discriminación hacia grupos históricamente vulnerables, basado en sus ingresos, color de piel o género. El otro factor que llama atención en el reporte de AI Index 2023 es el aumento del interés de los formuladores de políticas en la Inteligencia Artificial, dado el creciente número de leyes y proyectos de ley que buscan regular el uso de la IA. En Brasil y Chile, actualmente existen diferentes propuestas normativas al respecto y una parte importante de estas discusiones es justamente sobre cómo brindar transparencia a la utilización de estos sistemas, para lo cual el acceso al código fuente y los algoritmos ciertamente tienen un rol fundamental.

Los estándares internacionales de la IA cubren sus usos y procesos, y es importante que reflejen los intereses públicos, en conformidad con los derechos humanos de las personas y los valores sociales. Sin embargo, el establecimiento de estándares está dominado por los principales actores de la industria y un número selecto de gobiernos del norte global. A las tecnologías de IA se les otorgan derechos de propiedad intelectual adicionales a través de acuerdos comerciales, incluidos los algoritmos y el código fuente, lo que presenta el riesgo de reforzar el poder de mercado de las empresas dominantes e impedir los avances hacia la transparencia algorítmica y la responsabilidad.

Transformar, dejar brechas atrás y unirnos para un futuro justo

¿Por qué es necesario hablar de economía digital y perspectiva de género? A pesar de ser campos que en el día a día son considerados de forma disyuntiva, ambas temáticas deben ser siempre parte de un análisis, que permita la construcción de acciones comprehensivas que lleven hacia la igualdad de género.

¿Qué es la economía digital?

Antes de indagar en el concepto de economía digital, debemos que comprender que es un sistema económico. Un sistema económico es la forma en la cual la economía funciona y estructura a la sociedad en base a la relación entre producción/oferta y consumo/demanda, incluyendo también temáticas de manufacturación, regulación, circulación, distribución, entre diferentes variables. Durante las últimas dos décadas, ha existido progresivamente una revolución digital que se mueve entorno a un nuevo ecosistema dónde las empresas con mayor capital en el mundo pertenecen al sector de tecnologías de la información. En nuestro día a día, interactuamos constantemente con herramientas y productos entregadas por estas empresas que avanza de forma muy rápida y exponencial. A esta nueva economía, que nace como expresión de la a veces llamada Revolución Industrial 4.0, le llamamos economía digital. Esta nueva economía no tiene precedentes y ha dado indicio a la transformación de estructuras no solamente ligadas a la producción económica del mundo, sino también a nivel social.

Lo anterior se ve reflejado en las ocho áreas de acción definidas por Naciones Unidas basadas en las recomendaciones del panel de alto nivel para la cooperación digital, presentando acciones que involucran avanzar para respetar y garantizar derechos humanos en la era digital, promover seguridad, asegurar inclusión digital, entre varios. Estos últimos años también se han posicionado perspectivas claves que destacan las nuevas oportunidades y desafían la reproducción de desigualdades que continúan hoy en día. Entre ellas destacan los enfoques desde la igualdad de género y desde los feminismos.

¿Por qué es necesaria la perspectiva de género en estas temáticas?

Estudios sobre economía desde una perspectiva de género y feministas han abierto campos de estudios esenciales para comprender como diferentes variables que directamente tienen dinámicas vinculadas con la economía, que afectan a mujeres y hombres de manera diferenciada. Por ejemplo, con las temáticas que tienen que ver con lo que es considerado como el “valor del trabajo”, destacando la importancia de considerar trabajos no-remunerados de cuidados o en los trabajos informales. Gracias al esfuerzo de estas perspectivas tenemos la posibilidad de acceder a información esencial de los sistemas económicos, tal como comprender que el trabajo de cuidado no remunerado y el trabajo doméstico representan entre un 10% y un 39% de PIB mundial, que mayoritariamente es realizado por mujeres/niñas y que hace décadas atrás era invisibilizado.

Es por esto que considerar perspectivas de género es crucial,  porque la existencia de injusticias estructurales se extienden (y no reflejan) en el área digital: las brechas de género en el de acceso a Internet, los sesgos de género en inteligencia artificial (IA), las brechas salariales entre hombres y mujeres en áreas STEM, el sexismo, entre otros escenarios; transcribiendo desigualdades que no provienen inherentemente de la Revolución Industrial 4.0 y las tecnologías, si no de los contextos desiguales en los que vivimos hoy en día. Por lo tanto, en esta situación es necesario asesorar desde el trabajo construido anteriormente para visualizar herramientas que nos ayuden a construir un futuro sin discriminaciones y menos desigualdades.

Unas de las perspectivas que han cambiado la forma en la cual observamos a nivel social como las desigualdades afectan de forma diferente a las mujeres es la perspectiva interseccional. En este sentido, si consideramos la economía digital desde una perspectiva interseccional, podríamos observar cómo son afectadas las mujeres por la brecha de acceso, pero de forma desagregada. Por ejemplo, la diferencia de la brecha de acceso de mujeres provenientes de países “en vías de desarrollo” con mujeres de países “desarrollados”, en esta situación, no solamente existe una discriminación generada por las brechas de acceso entre hombres y mujeres, sino que existe un contexto histórico, político, social y económico que les afecta y discrimina de mayor o menor manera dependiendo del país del cual provienen, su pertenencia a comunidades indígenas, su cultura, su edad, su color de piel, su orientación sexual, entre otras variables. La interseccionalidad es crucial también al considerar personas no-binarias y a la comunidad LGBTQIA+.

¿Cuáles son los mayores retos y oportunidades actuales en cuanto a esta temática?

Los sistemas económicos y específicamente la economía digital está ligada directamente a los contextos sociales a los cuales nos enfrentamos día a día, especialmente porque las herramientas de las cuales se “alimenta” la economía son impulsadas en base a la interacción que generamos con éstas y, por tanto, los datos e información que se generan a partir de esto (para otras referencias: la explosión del “big data” y la minería de datos). Dado el contexto, existen múltiples retos actuales  Dentro de estos se encuentran el crecimiento del trabajo informal a través de herramientas digitales, la minería de datos, los sesgos de género en datos, large language models e inteligencia artificial, temáticas de privacidad y seguridad de datos, violencia de género en línea, entre varios.

Por ejemplo, una de las áreas que ha sido destacada por una reciente investigación de Mozilla Foundation es cómo los sistemas de inteligencia artificial afectan desproporcionadamente a mujeres, niñas y personas no binarias. Estos sistemas de IA están usualmente ligados a impulsar a gobiernos a llevar a cabo servicios esenciales, lo cual está ligado intrínsecamente con el funcionamiento de las economías. A su vez destacan que el uso de estas IA no poseen suficientes regulaciones que protejan la información personal de las personas y que incluso, concibe la creación de algoritmos específicos o marketing que genera efectos negativos y discriminación de género.

Por otro lado, uno de los contextos que influyen y son influidos por la economía digital es sobre todo el trabajo. Como especificamos desde Derechos Digitales, el Foro Económico Mundial explica que 65% de los trabajos del futuro serán plenamente dedicados a la innovación y a la tecnología, dónde las normas culturales e institucionales que – si no se actualizan – generarán límites bloqueando el potencial de las niñas en el área digital y, por consiguiente, perpetuarán y acrecentarán desigualdades de género.

 Tal como cuestiona la Dra Becky Faith desde GenderIT en este sentido debemos cuestionar ¿Cuáles son las razones o motivaciones que llevan a buscar un contexto más balanceado (en términos numéricos) laborales? Pregunta que lleva a posicionar finalmente la necesidad de ir más allá de los números, si no que debemos destacar la importancia de medidas comprehensivas que intentan apuntar a la erradicación de las desigualdades de género.

A pesar de enfrentarnos a estos desafíos, este contexto desconocido representa una oportunidad para trabajar con las temáticas de una forma más innovadora e integral. Y es así cómo debemos seguir abriendo paso a la creación de evaluaciones, medidas, políticas públicas y legislaciones responsables que permitan entender las situaciones para tomar acciones en pos de avanzar hacia la igualdad de género.

Reflexiones sobre un futuro menos desigual: la economía digital con perspectiva de género.

Desde Derechos Digitales destacamos la importancia de considerar perspectivas reivindicativas del futuro, donde a través del trabajo y aporte en plataformas como la Cumbre del Futuro y el Pacto Digital Mundial de Naciones Unidas se invita a pensar más allá, disociándonos de las narrativas polarizantes a las cuales el área digital se encuentra sujeta y sobre todo, pensar en caminos que construyan la superación de desigualdades que aumentan con el desarrollo tecnológico.

Necesitamos resaltar la importancia de considerar políticas públicas interseccionales que nazcan desde el nivel local, dónde fortalezcan y establezcan el empoderamiento de mujeres y comunidades LGBTQIA+. Esto, finalmente para proteger su privacidad y datos; resguardando derechos humanos y garantías laborales para evitar la perpetuación de situaciones laborales informales y no remuneradas. Se deben habilitar espacios para concebir la importancia del rol de las mujeres, niñas y personas de la comunidad LGBTQIA+ no solamente desde el número de personas que están estudiando carreras STEM – lo cual sigue siendo sumamente crucial – sino que también integrando perspectivas que consideren otras aristas. Como, por ejemplo, el trabajo no remunerado de cuidados, su valor y extensión en la transformación digital, y analizando finalmente el modo en que les afecta y afecta a la economía digital.

Esto nos brinda la oportunidad de repensar cómo estamos configurando y siendo afectadas por la economía digital, y cómo podemos dar cabida a que estos temas se conciban desde las políticas públicas y acciones a nivel local y global.

 También la importancia a nivel individual, dónde finalmente la concepción de temáticas – como la privacidad y la seguridad de datos, la violencia de género digital, entre otras – sean concebidas como variables que afectan la economía digital y que deben ser trabajadas de forma comprehensiva e interseccional para el fortalecimiento de la democracia, disminución de desigualdades y avanzar hacia un futuro sostenible.

Ley de de cooperación internacional en Venezuela: ¿regulación o censura?

En junio de 2022 adelantamos que no era la primera vez que esta situación sucedía y que se trataba de un nuevo ensayo del gobierno para esta ley. Se desconocía el contenido del borrador del proyecto de y con este contexto, en enero de 2023 el proyecto de la Ley de Fiscalización, Regularización, Actuación y Financiamiento de las Organizaciones No Gubernamentales y Afines, fue aprobada en primera discusión en la Asamblea Nacional. Inmediatamente, las organizaciones sociales del país unieron esfuerzos para que esto no pasara desapercibido.

En el primer trimestre del año, las organizaciones llamaron la atención de la opinión pública con énfasis en que esta información llegara a las distintas instancias internacionales, movilizando redes de organizaciones aliadas en la región. Se lanzó la campaña #LeyAntiSociedad en redes sociales para conseguir mantener el tema como una prioridad en la agenda internacional y en la agenda nacional también, recordando que la situación de crisis profunda que vive Venezuela permite que se invisibilicen temas de interés público.

Los diversos análisis que las organizaciones y activistas han hecho sobre la propuesta, destacan los impedimentos burocráticos que tienen que enfrentar las organizaciones además de las prácticas no regulares que se llevan ejecutando desde hace tiempo. Además de los ya existentes, deben crear nuevos registros para controlar a activistas, a organizaciones internacionales con vida en el país, y en general para controlar el impacto de las organizaciones en las comunidades.

En la exposición de motivos de este proyecto de ley“…se establece un sistema uniforme para su creación, registro, organización, funcionamiento, administración y desarrollo, así como para garantizar la transparencia en su manejo económico y financiero, incluyendo las fuentes de su financiamiento.” El financiamiento de la cooperación internacional es la principal fuente de ingresos para las organizaciones de derechos humanos y de desarrollo social en Venezuela. El ánimo de control de un gobierno que ha encarcelado a activistas no es una señal de una práctica saludable sino por el contrario, restrictiva.

El resultado de la campaña surtió efecto en la comunidad internacional, con varios países señalando los peligros de una ley de este tipo en un país que sigue estando en una situación de crisis profunda y multidimensional. La opinión pública sigue teniendo peso en mostrar abiertamente las intenciones de los gobiernos y surten efecto como contrapeso en este tipo de procesos. Actualmente, este proyecto de ley se mantiene en pausa y mientras tanto, las organizaciones y activistas siguen alerta ante lo que pueda pasar con este proceso y con el futuro de la sociedad civil en el país.

La situación venezolana ha permitido también revisar los países en los que estas leyes están siendo implementadas y cuál es el resultado obtenido, especialmente en Latinoamérica. Los casos internacionales que más han resaltado por el nivel de control que ejercen en la sociedad están la de Rusia, la propuesta que se enviara a aprobación en el 2021 en El Salvador, Nicaragua y más recientemente en Egipto con el plazo de registro para las ONGs. El riesgo está en propuestas de este estilo en países que no ofrecen garantías de democracia e independencia de poderes y que por lo tanto, se usan con fines persecutorios y para ir cerrando las disidencias internas al país que puede desencadenar cierre de organizaciones, persecusión política, y detenciones.

La propuesta de El Salvador levantó a la opinión internacional sobre los efectos que este tipo de ley (bajo un Estado con poca o nula independencia de poderes) puede traer a la sociedad. Siguiendo con la experiencia nicaragüense en la que sí hay una ley en plena ejecución y en la que se observan a activistas y organizaciones en situación de orfandad y vulnerabilidad en que que muchas han debido cerrar. En el caso de las organizaciones sociales, las instituciones de cooperación internacional se ven obligadas a acatar el nuevo reglamento del país como medida de protección de las organizaciones locales, quienes tienen que buscar vías alternativas de financiamiento locales que puedan cubrir su presupuesto y muchas veces estas alternativas no son exitosas. No podemos dejar de lado el impacto que este tipo de leyes y reglamentos que criminalizan el trabajo de las organizaciones, tienen en quienes trabajan desde el activismo y que también tienen que responder a su propio bienestar, el de sus comunidades y  el de sus familias.

Las iniciativas que buscan controlar a la sociedad civil y a la libertad de asociación, afectan a las comunidades a las que sirven, ya sea por asistencia directa o por la promoción de defensa de derechos en espacios destinados para ellos y manteniendo la diversidad de criterios y opiniones.

Son las organizaciones sociales y activistas, quienes están dedicando tiempo, talento y esfuerzo a temas de gran alcance y cuyas iniciativas mejoran la calidad de vidas de la personas, y quienes hacen el trabajo para que muchas voces sean escuchadas. El tema de marcos legales y regulatorios para el trabajo de las organizaciones y activistas, tiene que garantizar su libertad de acción para crear el impacto social deseado y es un tema a vigilar siempre.

Sobre la cooperación internacional en Venezuela no hay palabras finales con este nuevo intento de regular y controlar a la sociedad civil. Tampoco hay palabras finales sobre este tema en Latinoamérica, en donde es posible que nuevas iniciativas aparezcan según los gobiernos de turno y sus intereses. Todo esto hace imperativo que desde la sociedad civil se siga el monitoreo constante para tener capacidad de respuesta rápida cuando así sea requerido y frenar estas propuestas antes de que sean legalmente implementadas.

OMPI: Apertura al debate y logros en el acceso al patrimonio cultural

El 13 de marzo en Ginebra, dio inicio a una intensa semana llena de debates, paneles y expositores de primer nivel, provenientes de todo el mundo. La Agenda de la Organización Mundial de la Propiedad Intelectual (OMPI) reunió a autoridades, organismos intergubernamentales y ONGs a que se sumen al debate público en torno a los derechos de autor.

Derechos Digitales forma parte de la coalición Access to knowledge (A2K), y nuestra posición es (y siempre ha sido) asegurar el acceso al patrimonio cultural mundial, amparado en la protección de los derechos humanos, el acceso a la educación y al conocimiento. Aquella semana abarcó como temas principales, la discusión del segundo borrador del tratado sobre organismos de radiodifusión y el debate sobre excepciones y limitaciones al derecho de autor.

En el día 1, Ucrania fue el primer país en presentarse. Lo manifestado se podría resumir, en una palabra: PRESERVACIÓN. Pero ¿Qué es la preservación y por qué es tan importante en esta Agenda?

La preservación es una excepción al derecho de autor que no existe en todos los países y que afecta en forma importante a las bibliotecas y otras instituciones patrimoniales. Su objetivo es salvaguardar el patrimonio de la humanidad, promover la paz y fomentar la resiliencia, a través de la conservación y la documentación de los archivos y fondos históricos.

La preservación de este patrimonio se ve afectado por guerras, incendios, inundaciones o vandalismo, entre otros factores. En el caso de Ucrania, al 13 de marzo, llevaba 383 días luchando por su historia, su cultura y su integridad territorial. Sus tradiciones quieren ser cambiadas por otras, cientos de bibliotecas, museos y otras instituciones son deliberadamente destruidas, su identidad está en juego, es por ello que, como país, se han sumado a las excepciones y limitaciones para las bibliotecas e instituciones y personas con discapacidades, finalizando con un llamado a la paz.

En el segundo día de encuentro, se trabajó sobre el Tratado de Radiodifusión. Como parte de la coalición A2K, abogamos por un tratado más flexible en cuanto a los derechos de las personas usuarias, en que se incluyan excepciones obligatorias, se indiquen los usos permitidos por el derecho de autor, y que éstos figuren expresamente como permitidos en el texto, para evitar confusiones y problemas futuros. 

Sobre la definición de los organismos de radiodifusión, consideramos que es amplia y poco clara, sus alcances exceden el objetivo del tratado, que entendemos, es la lucha contra la retransmisión no autorizada de señales (“piratería”). Esto es importante, porque el borrador del tratado pretende establecer nuevos “derechos exclusivos” para los radiodifusores, como derechos de retransmisión, derechos de fijación y derechos de transmisión diferida. Encontramos innecesaria la creación de una nueva capa de derechos a estos organismos, como el derecho de fijación, ya que, con ello, los usuarios atravesarían procesos más costosos, largos y complejos para conseguir la autorización de utilizar el contenido transmitido, e inclusive, sería muy difícil comprender con quién deben negociarse estos derechos

El tercer día, un grupo de expertos presentó la caja de herramientas sobre la preservación. Consiste en una guía con todas las consideraciones pertinentes relacionadas a la copia con fines de preservación, que servirá de base para que los países redacten textos jurídicos más coherentes y legítimos respecto de esta materia. Destacamos de este toolkit el concepto preservación preventiva, que promueve la digitalización completa de los acervos de bibliotecas, archivos y museos, para afrontar riesgos potenciales, como desastres naturales, conflictos humanos y el cambio climático. Este concepto, además de ser una práctica de conservación, constituye un importante principio ético, por su deber de preservar el patrimonio, convirtiendo a las organizaciones de patrimonio cultural en instituciones de confianza.

Durante el cuarto día, fue aprobada la propuesta del Grupo Africano para un plan de trabajo sobre excepciones y limitaciones . Esto significa que se trabajará en temas prioritarios para el interés público, como promover la adaptación de las excepciones al entorno en línea y transfronterizos, permitiendo la enseñanza, el aprendizaje y la investigación a través de herramientas digitales y online. Trabajar en el establecimiento de limitaciones y excepciones en temas como la inteligencia artificial y minería de textos y datos promueve la divulgación científica, democratizando el conocimiento y la IA. Según un estudio de Datysoc, los países latinoamericanos necesitan aprovechar el impulso de la IA como motor de crecimiento económico. Para ello deben generar competencias y desarrollos propios mediante la construcción de un ecosistema de incentivos hacia la I+D basada en ciencia de datos.

Y en Chile, ¿esperaremos a que las obras pasen a dominio público?

En Derechos Digitales consideramos que debemos trabajar por una legislación con excepciones y limitaciones claras a los derechos de autor. Este es un tema que apremia: no dejemos para mañana lo que podemos hacer hoy, quizás, después sea demasiado tarde. No repitamos los casos como el de Brasil, en que un incendio catastrófico en 2018 provocó la destrucción de un fondo acumulado durante 200 años, o Pakistán, en que museos y lugares del patrimonio sufrieron graves daños tras las lluvias monzónicas y las inundaciones repentinas, o Sudáfrica, después de que los incendios forestales provocados por la sequía se apoderaran de la Biblioteca y parte del campus universitario.

En Chile tuvimos que esperar 20 años más desde el 2002, para que las obras pasaran a dominio público tras firmar un TLC con E.E.U.U que nos obligó a adoptar su estándar en materia de Propiedad Intelectual, modificando nuestra ley y ampliando el plazo de protección de una obra de 50 a 70 años desde la muerte de su autor. El comité esta vez abogó por el interés público, acordando un plan de trabajo que incluye la continuidad de la discusión y análisis de la Propuesta del Grupo Africano, así como su inclusión en la próxima sesión, que se realizará en noviembre de 2023.

Cómo se producen los estándares

Internet es una tecnología construida principalmente por hombres cis género, blancos, del Norte Global. Esa afirmación suele encontrarse en los análisis sobre brechas de acceso a internet y violencias facilitadas por las tecnologías digitales, entre otros temas. Pero, ¿sabemos quiénes son esos hombres?, ¿sabemos cómo construyen internet?

El Grupo de investigación y análisis de los procesos de estandarización (RASPRG por sus siglas en inglés) es un espacio interdisciplinario que se plantea preguntas como qué personas e instituciones han estado involucradas en el desarrollo de ciertos estándares, cómo se toman las decisiones en estos procesos, y cómo las políticas y normativas sobre patentes sirven de incentivo para que las empresas participen activamente en estos procesos.

Este esfuerzo no es nuevo. Desde hace tiempo, investigadores e investigadoras en universidades (del Norte) se han ocupado de estos temas, y como antecedente directo de la conformación de este grupo está el trabajo alrededor de BigBang, una herramienta para el análisis de datos que desde hace siete años se ha estado utilizando y adaptando al análisis de datos en comunidades de desarrollo de estándares abiertos, tales como IETF y W3C.

Durante la hackatón previa a la reunión 116 de IETF se ha propuesto trabajar en el desarrollo de una interfaz web para mejorar la accesibilidad de BigBang, para que personas sin conocimientos en programación puedan utilizar esta herramienta.

Aunque haya muchos otros elementos que dificultan un acceso más amplio a este tipo de herramientas y temas de investigación (empezando por el lenguaje, principalmente técnico y exclusivamente en inglés), esta iniciativa contribuye a hacer efectiva la promesa del conocimiento y las tecnologías abiertas. Esto es, que la información no esté solo disponible sino que se pueda acceder a ella.

Muy poco sabemos sobre los cuerpos de estandarización técnica. Estos espacios son opacos porque sus lógicas de funcionamiento restringen el acceso a muchas personas, especialmente de regiones como Africa y América Latina, pues se requieren saberes técnicos especializados, dominio del inglés, capacidad de financiación, y además mucha paciencia y visión de largo plazo para desarrollar un trabajo significativo en esos entornos.

Los procesos de estandarización son de largo aliento y dependen, no solo de su diseño, sino de los intereses inmersos en su implementación y despliegue. Conocer un poco mejor cómo trabajan estos cuerpos, contribuye a reducir la brecha de poder y agencia sobre las tecnologías que usamos a diario cada vez más personas en el mundo. La propuesta de RASPRG va en ese camino.

La reunión de este grupo de investigación (en inglés) será el próximo jueves 30 de marzo a las 4h (UTC), allí se compartirán los avances de la hackatón y se espera definir cómo seguir, qué preguntas se podrían incluir en el espectro de interés del grupo. Para participar de la reunión sin costo es necesario crear una cuenta en el Datatracker de IETF, hacer un registro de participación remota a la reunión 116, y pedir una exención de pago.

Derechos humanos en el credit scoring

Es probable que usted conozca a alguien que haya tenido un problema derivado de su puntaje de crédito (credit scoring). Esta ha sido una herramienta muy utilizada por bancos y comercios en general para evaluar la capacidad de pago de una persona. A pesar de ser útil para muchas personas a la hora de dar acceso al crédito en entidades financieras, poco se habla sobre los problemas relacionados con esta práctica.

Muchas veces no existe información adecuada sobre este registro. Es como una verdadera caja oscura con respecto a los datos personales: no se sabe de dónde provienen los datos, qué criterios se utilizan para su tratamiento y, principalmente, cómo se utilizan las técnicas de inteligencia artificial para determinar si una persona puede o no, por ejemplo, financiar un automóvil.

Esta columna analiza brevemente cómo el tema es cada vez más relevante para las personas, además de traer algunos ejemplos actuales de discusiones regulatorias y prácticas de mercado ante posibles denegaciones de crédito, discriminación, falta de transparencia, entre otros problemas encontrados.

Importantes discusiones de los EE.UU. a la Europa

El tema está regulado en Estados Unidos, principalmente por la Ley de informes crediticios justos (FCRA), modificada en gran medida por la Ley Dodd-Frank que trajo importantes medidas para la regulación del capital financiero y la protección del consumidor después de la crisis financiera de 2008.

Siguiendo la citada ley, la Oficina de Protección Financiera del Consumidor (CFPB), de EE.UU. publicó un reporte anual sobre los burós de crédito más grandes de EE.UU.: Experian, Equifax y TransUnion. Entre sus recomendaciones, se aconseja considerar cómo los procesos automatizados impactan a los clientes, particularmente aquellos que reportan un derecho deben considerar la carga del consumidor (consumer burden) y, sobre todo, si un cambio hacia la automatización requerirá que los consumidores tengan que sortear más obstáculos y lidiar con distintos organismos para ejercer sus derechos.

La medida cumple con algunas de las obligaciones establecidas en la ley FCRA, pero la CFPB quiere ampliar la discusión, tratando de entender cómo opera el mercado y cuáles son las posibles prácticas que pueden lesionar los derechos de las personas. Esta semana, en el día mundial del consumidor, la CFPB publicó un llamado solicitando informaciones sobre los data brokers y otras prácticas comerciales que involucran la recopilación y venta de información del consumidor. Además de supervisar las agencias de informes del consumidor, incluidas las tres agencias más grandes del país, la CFPB se esfuerza por obtener información sobre el alcance completo de la industria de data brokers.

En Europa, la Corte de justicia europea analizará un caso importante sobre este tema. El caso C-634/21 trata acerca de una agencia privada de información crediticia alemana (SCHUFA) que proporciona información sobre la solvencia de los consumidores a sus socios contractuales. SCHUFA establece puntajes de crédito donde la probabilidad del comportamiento futuro de una persona se predice sobre la base de ciertas características de esa persona, utilizando métodos estadísticos matemáticos.

Las organizaciones Algorithm Watch y Open Knowledge Fountation lanzaran la campaña OpenSCHUFA que, aparte de arrojar luz sobre el tema y visibilizar la conducta poco transparente de la empresa, también condujo a la evaluación de datos de más de 2000 consumidores por parte de periodistas de datos de BR Data y SPIEGEL Data. La investigación concluye que muchas personas son declaradas caso de riesgo sin culpa propia.

El caso europeo pretende definir cuestiones tales como si la calificación crediticia es una decisión basada únicamente en el procesamiento automatizado, incluida la elaboración de perfiles, y los límites de la ley europea de datos (RGPD) para aplicar el credit scoring. La Corte de Justicia va a analizar la aplicación del artículo 22 del RGPD, que trata del derecho del interesado a “no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar”. Esta semana, el Abogado General publicó su opinión en el caso de que, entre otros puntos, la conservación de datos por una agencia privada de información comercial no puede ser lícita “a partir del momento en que los datos personales relativos a una insolvencia se hayan suprimido de los registros públicos”.

Brasil: múltiples leyes para la protección de los derechos

En Brasil, la discusión también está caliente. A mediados de febrero, Idec publicó el libro “El consumidor en la era del puntaje de crédito”, coordinado por Juliana Oms y disponible en versión digital. El libro trae varios artículos que exploran cómo se puede entender el interés económico en relación con la protección de datos personales y la privacidad, además de profundizar en la producción de la regulación en Brasil sobre el tema en los últimos años, y analizar la perspectiva de defensa del consumidor sobre el tema.

Por un lado, la legislación brasileña, a pesar de estar inspirada en la legislación europea, define de manera muy amplia la protección del crédito como una de las hipótesis para el tratamiento de datos personales. Por otro lado, la ley específica sobre la materia (Lei do Cadastro Positivo) prohíbe el registro de información excesiva que no esté vinculada al análisis del riesgo crediticio del consumidor; e información sensible, como origen social y étnico, salud, información genética, orientación sexual; y creencias políticas, religiosas y filosóficas. Tal como lo entiende la jurisprudencia brasileña, el uso de este tipo de información sería un abuso de derecho, lo que está prohibido por el Código de Protección del Consumidor.

La inteligencia artificial, datos crediticios y sus riesgos

El tema aún está en discusión y, actualmente, se está abordando el riesgo de utilizar sistemas de inteligencia artificial (IA) para este propósito. En el marco brasileño de las discusiones del Proyecto de Ley sobre inteligencia artificial, la comisión de juristas encargada de analizar los proyectos de ley propuso la adopción de un sistema de calificación de riesgos, que debe ser un paso previo a la publicación de la oferta de estos productos ante los consumidores. Por lo tanto, los sistemas de IA considerados de alto riesgo han de adoptar medidas de mitigación, como realizar una evaluación de impacto algorítmico y adoptar medidas de gobernanza, y medidas de gestión de datos para aminorar y prevenir sesgos discriminatorios. El sistema de calificación crediticia, según la propuesta, sería un sistema de alto riesgo y, por ende, requiere del cumplimiento de las medidas mencionadas.

La solución propuesta por la comisión brasileña de juristas brinda mayor protección a los derechos humanos involucrados en este caso: la privacidad y la no discriminación. Sin embargo, aún queda un largo camino para que la ley sea aprobada y, posteriormente, sea aplicada efectivamente por las instituciones.

Hay mucho por hacer

Si, por un lado, hay un discurso que avala el uso de este tipo de herramienta, en tanto puede servir para tener un acceso más fácil al crédito con tasas más bajas, por otro lado, hay muchos riesgos que deben ser tomados en cuenta: denegaciones indebidas de acceso a crédito, discriminación, violación sistemática de la privacidad, uso indebido de datos sensibles, entre otros. Los factores se vuelven más complejos cuando se observa la falta de transparencia respecto de varios factores importantes de los sistemas utilizados, además de los problemas relacionados con el uso de herramientas automáticas para la evaluación.

Vemos que el análisis de algunas de las jurisdicciones apunta a la complejidad de este tema, en vista de las múltiples leyes de consumo, protección de datos y otros temas que están involucrados con el cumplimiento de los numerosos derechos humanos que se evidencia en este caso. Junto con ello, la existencia de varias instituciones encargadas de la supervisión, además del uso intensivo de herramientas de inteligencia artificial en este análisis, también son otras cuestiones que agregan complejidad al tema. Necesitamos ser conscientes de la necesidad de una mejor regulación y actuación de las autoridades sobre los datos crediticios, por el alto impacto que su uso y tratamiento tienen en la vida de las personas.

¿Por qué la privacidad y la protección de datos son clave para la igualdad de género?

Cuando hablamos de protección de datos y privacidad en el ámbito digital es necesario comprender que la temática es compleja y que cuenta con una multiplicidad de debates que intentan abarcarlo de la mejor forma posible. Es necesario tener un espacio para cuestionar por qué esta temática es importante a nivel individual y general, y cómo estas reflexiones podrían generar cambios para que mujeres y personas pertenecientes a la comunidad LGBTQIA+ puedan aprovechar de forma libre y segura plataformas digitales y, en general, su día a día.

¿A qué nos referimos cuando hablamos de la privacidad y protección de datos?

La privacidad y la protección de datos, son usualmente temas vistos de la mano. El derecho a tener una vida privada asegura la libertad y dignidad de las personas, y a su vez está directamente relacionado con garantías tan importantes como la libertad de expresión y protección de datos personales.

Esta relación usualmente es vista en simples palabras, que definen la privacidad de datos como el medio por dónde se define quién accede a los datos; mientras que la protección de datos refiere a la provisión de herramientas y políticas dedicadas a establecer cómo se accede a los datos. Es crucial estar conscientes de que esto tiene mayor profundidad, ya que las definiciones sustantivas varían dependiendo de los marcos normativos de cada país, e instrumentos internacionales a los cuales se asocian.

En la medida en que nuestras vidas se asocian a la actividad online, es más sencillo identificarnos y recolectar información sobre nuestros cuerpos, datos biométricos, gustos, opiniones, entre otros. Y esto, finalmente, pasa por procesos en los cuales las personas consienten o no, a entregar estos datos, sea desde una firma electrónica hasta hacer “clic” al aceptar los términos y condiciones de alguna página web o app.

En este sentido, el cómo se obtienen los datos, y cómo estos se utilizan posteriormente es clave para entender estas temáticas.

Por ejemplo, existen hoy en día aplicaciones que se utilizan para hacer tracking de salud reproductiva de mujeres, que ayudan a monitorear la regularidad menstrual, entre otros temas, que han sido denunciadas por compartir datos con terceras partes, sin protección de privacidad y generando beneficios económicos a partir de esto.

¿Por qué es importante considerar esta temática desde una perspectiva feminista?

El estado actual de desigualdad a nivel socio-económico que afecta a mujeres y comunidades LGTBIQIA+ atraviesa el espacio digital.

El derecho a la privacidad desde una perspectiva de género es particularmente crucial porque el acceso a plataforma digitales permite comúnmente limitaciones que derivan desde una estructura patriarcal. Un ejemplo de esto es la asimetría de poderes, pérdida de privacidad, violencias digitales, discriminación y falta de consideración de la intersección de raza, clase, género, entre otros.

La noción de privacidad ha sido un tema clave desde las perspectivas feministas, sobre todo desde la división entre lo privado y lo público. De esta forma, después de varias décadas abogando por la importancia de considerar lo que pasaba en el ámbito “privado” y no sólo en el público, fue posible comenzar a indagar en temáticas de violencia para tratar con estas temáticas desde lo público. Y es así, como hay que considerar también la dicotomía de lo “online” y lo “offline”. Aunque estas temáticas sean pertinentes a lo “online” y a lo privado, no deben dejar de ser importantes de considerar desde una perspectiva feminista.

En este sentido, un reciente estudio del proyecto alemán llamado Forum Privacy, presenta diferentes perspectivas que se han presentado para considerar perspectivas feministas, destacando sobre todo el cuestionamiento de la noción de “protección”, donde se deben dejar de lados las dinámicas asimétricas de poder, y se debe trabajar formas implementar estas dinámicas desde el respeto y empoderamiento.

La importancia de considerar perspectivas que se integren desde el respeto horizontal y el empoderamiento permite preguntarse quiénes están asegurando la protección de datos y la privacidad, reflexionar quién obtiene beneficios de estos procesos; y sobre todo, como podemos asegurar que nuestras acciones del día a día sean en pos de justicia social y los derechos humanos.

¿Qué está pasando hoy en día en Latinoamérica en cuanto a estas temáticas?

En nuestra región la protección efectiva de datos no es una realidad concreta ya que muchos países no poseen marcos regulatorios generales en la materia, y en temáticas de privacidad a veces no se encuentran actualizadas para que sean consideradas en el área digital. Sin embargo, varios países han considerado el habeas data en sus constituciones y marcos legales, y otros han tomado como ejemplo el caso de la Unión Europea siguiendo los ejemplos del GDPR (General Data Protection Regulation).

Todavía existen muchas oportunidades a futuro para seguir trabajando con estos temas, en esta línea Derechos Digitales ofreció el 2022 un resumen de las legislaciones vigentes en países Latinoamericanos en temáticas de protección de datos.

Abarcando la complejidad

La mayor dificultad, que bien aprovechada presenta una oportunidad, es que esta temática no es un tema que concierne solamente políticas públicas, o leyes, si no, concierne una gran complejidad de variables y actores que lo involucran. Una perspectiva feminista en estas temáticas puede otorgar visiones que comprendan las vivencias desde diversas perspectivas, dónde, por ejemplo, el consentimiento informado y activo – considerando igualdad de poderes – puede representar autonomía, libertad y privacidad.

Desde Derechos Digitales se han creado varias campañas para acompañar a las personas en cuanto a la concientización de la importancia de proteger su privacidad y datos, tanto como la Amistosa Caja Anti-Vigilancia, El Anonimato Nos Defiende, No Temas a Internet, entre varias iniciativas.

Para avanzar hacia la igualdad de género sustantiva es necesario reflexionar desde esta perspectiva que comprende a toda la sociedad, invitando a la creación de marcos normativos que garanticen transparencia e igualdad permitiendo considerar la privacidad y protección de datos.

Un FRR para el 8M

En el mundo digital se replica el contexto presente en el mundo off line: las mujeres y niñas son de los grupos más vulnerables a situaciones de violencia basada en género, que además puede ser incrementada por otras condiciones, como ser migrante, pertenecer a una comunidad indígena, o a comunidades de bajos recursos. Al mismo tiempo y tal como pasa en situaciones fuera de la pantalla, mujeres con un perfil público desde el activismo o por trabajar en la política o periodismo también se ven vulneradas y atacadas por su género en espacios digitales. Es así como las mujeres y niñas navegan el mundo social que muchas veces normaliza y ve como positivo desarrollar piel gruesa, siendo responsabilidad de ellas las estructuras sociales que sistemáticamente buscan oprimirlas.

Ante este contexto, se hace necesario tener opciones para dar respuestas e intervenir en la prevención y defensa de los derechos de mujeres y niñas y el Fondo de Respuesta Rápida es una herramienta que apoya a la sociedad civil para atender estas situaciones urgentes en entornos digitales.

Las iniciativas que se apoyan desde el FRR son variadas en las dimensiones que intervienen, desde la prevención entre jóvenes universitarias y migrantes a través de mecanismos de alerta temprana, estrategias de reacción frente a situaciones de peligro en línea hasta litigio estratégico en casos de extorsión digital. Estos proyectos tienen en común el objetivo de protección de mujeres y niñas en actividades cotidianas y rutinarias, que son parte de su vida y de su identidad, que es donde residen las potenciales amenazas.

Las amenazas en la cotidianidad

La Fundación Datos Protegidos en Chile trabaja para brindar apoyo para víctimas de violencia de género y extorsión digital, sentando un precedente importante en el país y para la región. Con el apoyo del FRR, llevaron adelante el caso de José Miguel Zárate quien fue acusado de los delitos de amenaza, extorsión, sabotaje informático y difusión sin consentimiento de imágenes íntimas de más de 18 mujeres. El impacto de esta intervención obliga a la discusión más profunda del sistema y sobre lo que ocurre con la violencia digital en Chile en donde “se requiere instalar el debate sobre las sanciones, reparación y garantías respecto a la vida privada de cada mujer, adolescente y niñas ante la gravedad de las circunstancias y el impacto social que este tipo de violencia ha generado por el uso masivo de nuevas herramientas tecnológicas”.

Igual de cotidiana es la situación crítica que la Red Interuniversitaria Seguras y Educadas de Guatemala atendió através de Tecnofeministas para desarrollar alertas tempranas y sistemas de cuidado y protección de las universitarias para hacerle frente a la violencia machistas en las universidades del país. Es una forma de reclamar su espacio y dar una respuesta que ninguna otra institución da: “que nadie diga que nosotras no pertenecemos a este lugar. Que lo escuchen las universidades y las autoridades del país, porque las mujeres hacemos uso de la Internet y merecemos hacerlo sin ninguna amenaza.” Tecnofeministas ofrece una escuela de formación digital en la que las participantes puedan aproximarse a los parámetros técnicos del internet e identificar estrategias de acción ante situaciones de ciberacoso sexual.

Por otra parte, para que en las comunidades las mujeres y niñas puedan tener una presencia en internet segura a pesar del contexto, la corporación Cambio Sostenible en Colombia ha estado trabajando con ellas en el proyecto Digitalmente Seguras, que busca reducir la vulnerabilidad de este grupo en entornos digitales, especialmemte como consecuencia de la pandemia de la COVID-19 que afectó duramente la economía de muchos grupos y comunidades. En su trabajo evidenciaron “un aumento de 1000% de los índices de explotación sexual y reclutamiento forzado en el contexto covid 19, de las cuales 7 de cada 10 víctimas son niñas y mujeres” mientras que la inmigración a este país mantenía su ritmo.

Sólo una muestra

Los proyectos presentados son una muestra de las intervenciones que hacen organizaciones y activistas en la región para que el entorno digital sea un espacio de oportunidades para el libre goce de derechos para las mujeres y niñas. Estas iniciativas que se multiplican de país a país, resaltan la carencia de una respuesta institucional contundente en forma de marco legal, formación e implementación que brinde protección, reparación y justicia necesarias para lograr un mundo más justo y seguro.