Inteligencia Artificial en América Latina: Regulación no significa protección

Ha pasado medio año desde la última vez que observamos lo que ocurre en América Latina en materia de regulación de inteligencia artificial. Al igual que las tecnologías, que se expanden, desarrollan y se popularizan, aunque no a la misma velocidad, las regulaciones en la región también han progresado. Como es esperable, no se trata de sucesos aislados en el mundo, sino parte de una tendencia global que ya tiene algunos hitos significativos en el primer mundo, que amenazan con convertirse en modelos para realidades muy distintas.

Europa: ¿modelos a seguir?

A mediados de mayo, el Consejo de Europa adoptó el primer tratado internacional sobre inteligencia artificial, marcando un hito significativo en la regulación de esta tecnología emergente.

El Convenio establece requisitos de transparencia y supervisión adaptados a riesgos específicos, incluyendo la identificación de contenidos generados por IA. Las partes deben identificar, evaluar, prevenir y mitigar riesgos, y considerar moratorias o prohibiciones si la IA es incompatible con los derechos humanos. También se garantiza la rendición de cuentas y el respeto a la igualdad y la privacidad. Además, deben asegurar recursos legales y garantías procesales para las víctimas de violaciones de derechos humanos e informar a quienes interactúan con estos sistemas. El tratado requiere medidas para que la IA no socave las instituciones democráticas. El convenio incluye un mecanismo de seguimiento mediante una Conferencia de las Partes y exige un mecanismo de supervisión independiente, sensibilización pública y consultas con múltiples partes interesadas.

En tanto, después de una larga y tensa negociación, en marzo el Parlamento Europeo aprobó una ley histórica para regular la inteligencia artificial en la Unión Europea, en un movimiento pionero a nivel global. Este acto legislativo, conocido como la Ley de Inteligencia Artificial o «AI Act», tiene como objetivo establecer un marco regulatorio robusto para la inteligencia artificial, abordando preocupaciones tanto de innovación como de ética y derechos.

 La nueva reglamentación prohíbe ciertas aplicaciones de inteligencia artificial que violan los derechos ciudadanos, como sistemas biométricos invasivos y la creación de bases de datos de reconocimiento facial mediante la captura indiscriminada de imágenes. Además, los sistemas de IA de alto riesgo deben evaluar y mitigar riesgos, ser transparentes y sujetos a supervisión humana.

Sin embargo, no todo es celebración. Críticas desde la sociedad civil han dado cuenta de que la AI Act está llena de vacíos legales y defectos que podrían socavar su eficacia en la protección del espacio cívico y el Estado de derecho. En particular, se han destacado fallas, excepciones y vacíos que podrían convertir las prohibiciones contenidas en la Ley en meras declaraciones vacías, sin efecto real.  

América Latina y los “nuevos” modelos

Volviendo a la realidad regional, ha sido medio año de interesantes y preocupantes sucesos. Algunas de las propuestas que ya hemos mencionado han seguido su curso, con la continuación de la discusión en Brasil y una propuesta de reemplazo en Costa Rica, que simplifica y mantiene la propuesta más bien como un proyecto marco. Más de un proyecto en Argentina y alguno en México dan cuenta de la tendencia a presentar iniciativas, con muy variables contenidos y perspectivas de convertirse en ley.

Otros han avanzado más. El Perú, ejemplo de la primera ley sobre inteligencia artificial en la región a mediados de 2023, de limitado alcance por sí sola, ha visto recientemente la publicación de un reglamento para la ley, sometido a comentarios públicos. El especialista Carlos Guerrero destacaba las carencias técnicas de la propuesta reglamentaria, dando cuenta de las dificultades prácticas en la implementación de medidas que hagan efectivas las obligaciones asociadas al desarrollo de la IA.

En Colombia, en tanto, logró algo de tracción un proyecto de ley, originado en la Cámara de Representantes para regular la inteligencia artificial. En audiencia ante la Comisión primera, la Fundación Karisma destacó la necesidad de mejor comprensión del panorama antes de regular, como también la conveniencia de una mayor interacción con distintas partes interesadas, en línea con su profundo llamado a la participación ciudadana en estos procesos. Por cierto, un llamado que vale la pena reforzar frente a la serie de proyectos de ley sobre IA que han proliferado también en el Senado.

En Chile, en tanto, después de un proyecto de ley de la Cámara que había encontrado críticas y resistencia, el Ejecutivo envió su propio proyecto de ley de regulación integral de la inteligencia artificial, suscrito por once ministerios. El proyecto define los sistemas de IA de manera amplia para aplicar sus obligaciones a proveedores, implementadores, importadores, distribuidores y representantes autorizados en el país, definiendo distintos roles en la cadena de suministro de IA y centrándose más en el uso que en tecnologías específicas.

En comparación con la legislación de la Unión Europea y la regulación de los Estados Unidos, el proyecto establece un enfoque reactivo en lugar de preventivo. Se clasifican los sistemas de IA en categorías de riesgo, desde inaceptable hasta sin riesgo evidente, y se aplican prohibiciones y reglas específicas para cada categoría, incluyendo casos como la prohibición de análisis biométrico en tiempo real en espacios públicos. Se promueve la autorregulación de las empresas en la evaluación, de manera que cada empresa clasifique el riesgo de sus sistemas en base al listado que elabore un nuevo Consejo Asesor de IA.

El proyecto incluye medidas para incentivar la innovación, especialmente entre las pymes y las startups. Se proponen sandboxes regulatorios, como espacios de pruebas y validación para sistemas de IA, gestionados por entidades públicas como la eventual Agencia de Protección de Datos Personales. El Consejo Asesor de IA tendría así un papel clave en la identificación de sistemas de alto riesgo y limitado riesgo, así como en la elaboración de normativas. La eventual Agencia también tendría responsabilidad en la supervisión y aplicación de la ley.

Si bien buena parte del proyecto chileno suena heredado de otros esfuerzos como la AI Act, el gobierno chileno ha reconocido que tanto los intereses económicos como la seguridad pública son factores clave en la aproximación a la adaptación local. Esto es causal de alarma: aunque hay un criterio pragmático en no fijar obligaciones estrictas previas al funcionamiento en un mercado reducido como el chileno, se abandona una aproximación precautoria de derechos fundamentales. El problema se exacerba al notar la excepción a las reglas de la ley que se extiende, de manera general, a la seguridad nacional, y separadamente, a la aplicación en la seguridad pública para usos tales como el reconocimiento facial automatizado. Así, la oportunidad de una moratoria protectora de derechos no solo es desaprovechada, sino expresamente rechazada.

Las disputas que vienen

A medida que la regulación de la inteligencia artificial avanza en América Latina, surgen preocupaciones sobre la protección de los derechos fundamentales. La excepción a las reglas de la ley para la seguridad nacional y la falta de participación cívica en la implementación y supervisión podrían debilitar la capacidad de la regulación para salvaguardar los derechos de los ciudadanos.

Es fundamental trabajar en la promoción de regulaciones que fomenten la transparencia, la rendición de cuentas y la participación ciudadana en la toma de decisiones sobre el desarrollo y uso de esta tecnología emergente, con el objetivo de garantizar un equilibrio adecuado entre la innovación tecnológica y la protección de los derechos humanos. Derechos Digitales se encargará de participar activamente en las discusiones legislativas relacionadas con la inteligencia artificial, por lo que puedes esperar análisis más detallados sobre varias de estas propuestas.

Inteligencia artificial más allá de la polarización

La edad avanza y llegamos a un punto en la vida en que vemos con curiosidad que las cosas se repiten. Convivimos por décadas con un tecno-optimismo que nos hizo ciegas a la complejidad implicada en el desarrollo tecnológico. Discursos sobre el potencial de internet para facilitar el acceso a todo – la cultura, el conocimiento, la información, la educación, etc. – olvidaban que esas mismas tecnologías no se diseñan, ni se implementan en el vacío. Un escándalo tras la exposición de cómo las principales potencias mundiales utilizaban la misma infraestructura de internet para meterse en las comunicaciones privadas de todo el mundo – incluidos jefes de Estado – fue necesario para traernos de vuelta a la tierra. Sí, las tecnologías digitales pueden y han generado mayor democratización en algunos ámbitos de la vida y para algunas personas. Pero no, no se trata de una panacea que nos va a salvar de todos los males del mundo. Al contrario, puede exacerbar algunos de esos males.

Entra 2024 – 11 años desde las lecciones dejadas por las revelaciones de Snowden –, pero parece que retrocediéramos en el tiempo. Se reemplaza “internet” por “IA” y nuevamente se multiplican expectativas sobre los potenciales beneficios (en este caso, rara vez comprobados) de esta innovadora tecnología. Incluso, frente a críticas sobre su implementación y crecientes evidencias de sus impactos en el ejercicio de derechos, se apuesta a cómo nos ayudará a superar problemas históricos y estructurales que van desde la crisis climática hasta el acceso a salud de calidad y la inclusión de personas con discapacidad. Hay quienes dicen, incluso, que la IA ayudará a combatir la desinformación – quizás ignorando u olvidando que las decisiones algorítmicas automatizadas por detrás de la priorización de contenidos en las plataformas de redes sociales están entre las raíces del caos informativo en la esfera pública digital.

Una “inteligencia” socialmente construida

Lo que se conoce como IA hoy se refiere, en gran medida, a un conjunto de procesos y técnicas que permiten a un sistema computacional hacer cálculos estadísticos capaces de identificar patrones y a partir de ellos, predecir comportamientos. Podría parecer obvio, pero es importante resaltar que pese a la referencia a la inteligencia humana, este tipo de sistema está lejos de tener una capacidad crítica o empática, por ejemplo.

Ellos dependen de al menos (i) la disponibilidad de bases de datos que permitan “entrenar” determinados modelos matemáticos para sacar inferencias, (ii) la existencia de masas de trabajadoras clasificando y etiquetando estas bases de datos según diferentes criterios, (iii) el desarrollo de los modelos algorítmicos responsables de los cálculos, y (iv) una interfaz para la interacción con las usuarias finales o con otros sistemas. Para que la IA exista es necesaria también una infraestructura física, compuesta por cables de telecomunicación, satélites, centros de datos, súper computadoras con extrema capacidad de procesamiento, baterías, etc.

Más allá de la idea de automatización, cada uno de esos procesos implica un conjunto de decisiones humanas influidas por aspectos culturales, éticos, históricos y sociales y, en algunos casos, afectada por factores políticos y económicos. Como en el caso de cualquier tecnología, la IA no es neutral y tampoco fruto de cualquier tipo de magia.

Como sintetiza el investigador de la Universidad de Edinburg, Ben Williamson: esos sistemas materializan formas particulares de percibir el mundo y a su vez pueden influenciar y modelar la manera como las personas actúan en el mundo. Académicas feministas hace mucho apuntan a ese aspecto. La australiana Judy Wajcman, por ejemplo, ha explorado ampliamente cómo las relaciones de género se encuentran materializadas en las tecnologías – que no solo incorporan nociones de masculinidad y femineidades socialmente construidas, sino que luego pasan a ser parte en la construcción del significado de tales conceptos. Y Ruha Benjamin, profesora en la Universidad de Princeton, a su vez, presenta la idea de diseño discriminatorio al identificar cómo las jerarquías raciales son normalizadas en la producción tecnológica.

Por otro lado, tal como el diseño y la implementación de las tecnologías y la IA son permeadas por factores culturales y sociales, también lo son sus usos. Aplicaciones y sistemas desarrollados para ciertos fines, pueden muy bien ser utilizados para otros y los ejemplos abundan. Al contrario de una idea determinista de que los sistemas producirían por sí mismos ciertos resultados – positivos o negativos – en la sociedad, se trata de pensar que los usos de las tecnologías son múltiples y que están en constante interacción con los contextos en que son implementadas.

IA: ¿para el bien, o para el mal?

No es posible, por lo tanto, hablar de una AI for good, o “IA para el bien”. Ese tipo de idea además de mostrar como los aprendizajes, aunque dolorosos, pueden no ser duraderos, refleja nociones deterministas y simplistas sobre las tecnologías que perjudican las importantes discusiones sobre su gobernanza.

El énfasis en el (supuesto) objetivo de determinado sistema – como si hubiera fines legítimos “para el bien” que justificaran el no cumplimiento de determinadas obligaciones –, opera como una cortina de humo que nos distrae de los procesos productivos por detrás de su desarrollo y despliegue. Antes de emprender la imposible tarea de enumerar despliegues positivos o negativos de IA, como si las mismas nociones de “bien” y “mal” fueran estáticas y universales, nuestros líderes deberían reforzar los principios acordados en el marco internacional de derechos humanos a todas las etapas de producción de IA.

Eso implica garantizar que las bases de entrenamiento cumplan con estándares de protección de datos; que las personas que trabajan en la cadena de producción de la IA – sea en la extracción de minerales usados para la creación de productos tecnológicos, sea en el etiquetado de datos – reciban una compensación justa por su trabajo y tengan observados sus derechos laborales; que los data centers obedezcan la legislación ambiental; que las personas indígenas sean consultadas de manera previa antes de intervenciones que puedan impactar sus derechos. Algunas de estas recomendaciones incluimos en el insumo de Derechos Digitales al reporte intermedio del Órgano Asesor sobre IA de la Organización de las Naciones Unidas.

No hay magia

Ningún “bien” puede derivar de la vulneración indebida de derechos garantizados. Adoptar una perspectiva de derechos humanos al enfrentar los desafíos de la gobernanza de IA significa avanzar en mecanismos para lidiar con situaciones complejas y concretas. Tal compromiso debe ir mucho más allá de la creación de principios éticos o declaraciones vacías, pero garantizar, por ejemplo, que las empresas y los Estados sean debidamente responsabilizados en el caso de abusos derivados del desarrollo o despliegue de IA.

El marco de legalidad, necesidad y proporcionalidad es una buena referencia tanto para la resolución de conflictos, como para guiar la digitalización de manera que dichos procesos no impliquen ni un incremento en el deterioro ambiental o reemplacen necesarias inversiones en infraestructura básica de educación, salud, entre otras. Además, resulta fundamental llevar a cabo estudios de impacto en derechos humanos con una participación amplia y diversa para guiar decisiones de diseño y despliegue.

El avance de los Objetivos de Desarrollo Sostenible, la “modernización”, “progreso” o la “participación en la economía digital” no pueden ser excusas para la promoción de tecnología de manera irresponsable. La transformación social y la superación de desigualdades siempre dependerá de compromisos sostenidos de los Estados y del apoyo y participación de las distintas partes interesadas. La realidad muestra y reitera que no existen las fórmulas mágicas.

Encontrar lo bueno en la primera resolución de la Asamblea General de la ONU sobre inteligencia artificial

Nosotros, las organizaciones de la sociedad civil abajo firmantes, damos la bienvenida a la resolución de la Asamblea General de las Naciones Unidas (ONU) liderada por los Estados Unidos Aprovechar las oportunidades de sistemas de inteligencia artificial seguros y confiables para el desarrollo sostenible”.

Las partes interesadas alejadas de los terrenos de la ONU se benefician cuando los Estados aclaran su posición sobre las tecnologías nuevas y emergentes y cómo el derecho internacional, incluido el derecho internacional de los derechos humanos, y los compromisos de desarrollo sostenible se aplican a campos como la inteligencia artificial. Esto es especialmente cierto con toda la exageración, las definiciones turbias y los impulsores egoístas que rodean la inteligencia artificial.

Elogiamos fuertemente el lenguaje operativo de la resolución que llama a los estados, y lo que es más importante, a otras partes interesadas, a “abstenerse o cesar el uso de sistemas de inteligencia artificial que sean imposibles de operar de conformidad con el derecho internacional de los derechos humanos o que representen riesgos indebidos para el disfrute de derechos humanos, especialmente de quienes se encuentran en situaciones vulnerables”.

La sociedad civil señala que ese tipo de mensajes ha sido “una batalla cuesta arriba” y, por lo tanto, esta resolución unánime debe verse como un paso positivo en la dirección correcta. Instamos a los estados a poner en práctica dicha recomendación y a prestar atención a este llamado de consenso en las próximas negociaciones, particularmente en el Pacto Digital Global (GDC) de las Naciones Unidas, donde la semana pasada se publicó el borrador cero, con el objetivo de fomentar la cooperación digital y mejorar la gobernanza de tecnologías emergentes, incluida la inteligencia artificial, y otras iniciativas de establecimiento de estándares. Además, instamos a los estados a que impulsen dichos llamados para incluir prohibiciones de ciertas tecnologías, incluidas las llamadas tecnologías de reconocimiento de emociones y detección de género, que no respetan la dignidad humana y, en cambio, infringen los derechos humanos, intencionadamente.

Nos complace ver que en todo el texto se hacía referencia consistente al lenguaje relacionado con la inteligencia artificial confiable y los derechos humanos. La larga lista de medidas técnicas, regulatorias y educativas promovidas ofrece un menú útil de opciones para los estados y las empresas mientras claman por formas de prevenir daños a lo largo del ciclo de vida de los sistemas de inteligencia artificial, que van desde las evaluaciones de riesgos e impactos en la etapa de diseño hasta las posteriores. Mecanismos de retroalimentación del despliegue. Además, para su implementación práctica se debe seguir fomentando el reconocimiento de la necesidad de involucrar y permitir la participación de todas las comunidades, particularmente de los países en desarrollo.

No obstante, existen preocupaciones con la resolución:

-En primer lugar, los párrafos que piden cerrar la brecha digital simplemente se formulan como si exigieran “asociaciones más fuertes”, cuando son urgentes mayores compromisos, incluso en relación con la financiación. Las convocatorias y los detalles para su implementación serán clave. Lamentablemente, los detalles no se detallan en la resolución y actualmente no se abordan en el informe provisional del Órgano Asesor de Alto Nivel de las Naciones Unidas sobre Inteligencia Artificial.

– En segundo lugar, estamos profundamente preocupados por cómo la resolución diferencia entre los ámbitos militar y no militar/civil por varias razones: (1) las exenciones generales militares/de seguridad nacional no son consistentes con el derecho internacional; (2) el lenguaje que rodea a la inteligencia artificial segura, confiable, protegida, etc. debería aplicarse a las aplicaciones militares tanto, si no más, como a los usos civiles; y (3) no existe un estándar para las diferencias, especialmente para los sistemas de IA de doble uso. Esto no es hipotético: la UE. La Ley de IA crea lagunas peligrosas para el uso de la IA por parte de las autoridades policiales, de control migratorio y de seguridad nacional, y la ONU necesita establecer estándares más altos.

– En tercer lugar, el marco de gobernanza de la IA propuesto no refleja un verdadero modelo de múltiples partes interesadas y podría ser más sólido cuando se trata de una participación significativa y la inclusión, particularmente de la sociedad civil, los grupos vulnerables y marginados, las comunidades locales e indígenas que participan en decisiones relacionadas con la IA que los afectan.  Por ejemplo, el párrafo dispositivo seis utiliza un lenguaje que protege contra el llamado a una participación “inclusiva y equitativa”.

– En cuarto lugar, la resolución se hace eco de otras conversaciones globales sobre inteligencia artificial al apoyarse en gran medida en el tecno-solucionismo para abordar los Objetivos de Desarrollo Sostenible (ODS) de la ONU en situaciones donde la falta de voluntad política y cooperación son las verdaderas barreras para el progreso. Sin una cooperación global sostenida y poderosa para abordar desafíos como el cambio climático, la inteligencia artificial no puede lograr los objetivos establecidos en la resolución.

– Finalmente, si bien la resolución se centra en el impacto de algunas tecnologías de IA para el progreso socioeconómico y ambiental hacia el cumplimiento de los ODS, lamentablemente no incluye suficientemente otra dimensión integral de la Agenda 2030 para el Desarrollo Sostenible, a saber, la protección de los derechos humanos. Si bien las implicaciones para los derechos humanos se mencionan brevemente en otras secciones, es crucial que se enfaticen en relación con los ODS.

El desafío de las futuras negociaciones sobre la gobernanza de la IA será promover el desarrollo sostenible junto con una transformación digital que respete los derechos, sin dejar de ser diligentes en afirmar la centralidad de los derechos humanos y la seguridad, normas que todos los Estados han acordado defender. Alentamos a los estados a trabajar con la sociedad civil y otras partes interesadas para desarrollar una resolución sobre IA en el contexto del sistema de derechos humanos de la ONU, que complemente este texto centrado en el desarrollo sostenible. Además, la resolución no se desarrolló en los procesos habituales de colaboración y basados en comités de la Asamblea General, sino únicamente en el plenario; Recomendamos encarecidamente que cualquier versión futura de esta resolución se aparte de este enfoque individual.

Será necesario asumir compromisos respecto de la rendición de cuentas de las empresas privadas que operan a nivel global y, a menudo, evaden la responsabilidad en ciertos países. También serán necesarios estándares y mecanismos adicionales para impedir la circulación de tecnología que no cumpla con los derechos humanos. Las consideraciones laborales y ambientales deberían ser una parte clave de tales esfuerzos y de la evaluación del cumplimiento por parte de dichos actores empresariales.

La sociedad civil señala que, si bien la resolución no es vinculante y no incluye un mecanismo de aplicación, es digna de mención por ayudar a avanzar al proporcionar una adopción unánime que los estados pueden utilizar para trabajar hacia el establecimiento de barreras globales para la inteligencia artificial. Por lo tanto, hacemos un llamado a todas las partes interesadas, en particular a los Estados, a utilizar esta resolución junto con otras resoluciones relevantes e iniciativas de la ONU, que se centren particularmente en los impactos de la inteligencia artificial en los derechos humanos en las próximas discusiones, especialmente las negociaciones relacionadas con el GDC de la ONU. Un buen punto de partida es consultar los recursos existentes de la ONU, incluidos: 1) las recomendaciones de los Relatores Especiales de la ONU que se han centrado en las implicaciones de la inteligencia artificial para los derechos humanos desde sus respectivos mandatos; (2) resoluciones como la “Promoción y protección de los derechos humanos en el contexto de las tecnologías digitales” , que se introdujo por primera vez a finales del año pasado, y la resolución bianual “Derecho a la privacidad en la era digital”; y (3) el trabajo en curso del Alto Comisionado de las Naciones Unidas para los Derechos Humanos, incluidas sus declaraciones sobre la IA generativa en el contexto de su visita a Silicon Valley y en la Oficina del Alto Comisionado para los Derechos Humanos B-Tech Generative AI and Human Rights Summit y el trabajo continuo del proyecto de IA generativa B-Tech.

Firmantes:

Access Now

Article 19

Association for Progressive Communications

Derechos Digitales

Digital Action

European Center for Not-For-Profit Law Stichting

Global Partners Digital

International Center for Not-for-Profit Law

Privacy International

Perspectiva de Género en el Pacto Global Digital (1 de marzo, 2024)

Aportes de Derechos Digitales sobre una perspectiva efectiva de género en el Pacto Mundial Global, basados en los principios feministas para inclusión de género en el Pacto, además de investigaciones y contribuciones realizadas por Derechos Digitales y otras organizaciones de la sociedad civil: Brecha digital de género y acceso equitativo a la tecnología; necesidad de alfabetización y construcción de capacidades digitales para mujeres y niñas.

Cuando algoritmo rima con racismo

El racismo algorítmico es un término que se ha vuelto cada vez más relevante en la era digital. Se refiere a la forma en que los algoritmos y sistemas de inteligencia artificial (IA) pueden perpetuar o incluso exacerbar sesgos y discriminación racial. Aunque la tecnología se presenta a menudo como objetiva y neutral, la realidad es que puede reflejar y amplificar las desigualdades sociales existentes.

Un ejemplo cotidiano de esto se encuentra en las búsquedas en internet. Al buscar términos como «mujer bonita» u «hombre exitoso», los resultados tienden a mostrar imágenes de personas blancas, excluyendo la diversidad racial. Este sesgo se extiende a otras áreas, desde la selección de empleados hasta el reconocimiento facial. En este último caso, los algoritmos muestran preferencias hacia ciertos grupos raciales y discriminan a otros.

El problema radica en cómo se entrenan los algoritmos de IA. Estos sistemas aprenden a partir de grandes conjuntos de datos que, si no son lo suficientemente diversos o están sesgados, pueden llevar a conclusiones erróneas. Otro ejemplo a mano está en los algoritmos de contratación de personal. Estos tradicionalmente son entrenados con datos históricos que favorecen a los candidatos blancos, perpetuando entonces dicha tendencia.

Estereotipos racistas

Como se indicó al comienzo, un experimento revelador consiste en solicitar a un sistema de IA texto-a-imagen que genere ilustraciones de «hombres exitosos» o «mujeres exitosas». Los resultados suelen ser de personas blancas en contextos profesionales. En cambio, al pedir imágenes de “hombres pobres en Latinoamérica”, el sistema asume que son indígenas. Del mismo modo, al solicitar la creación de una imagen de «hombres negros trabajando, su representación visual es la de obreros”, mientras que para «hombres blancos trabajando» los muestra en una oficina y con trajes.

Las imágenes a continuación fueron creadas con DALL-E, incorporado en la versión 4.0 del sistema de IA ChatGPT. Haz clic en cada una de ellas para verlas en alta resolución.

“Hombre exitoso”: lo crea como un hombre alto, delgado, blanco y con barba.
“Mujer bonita”: tiene cabello claro, es blanca y con ojos claros.
“Hombres pobres de Ecuador”: asume que son indígenas.
Sucede lo mismo cuando solicitamos la una imagen de “mujeres pobres de Latinoamérica”.
“Mujeres de Latinoamérica trabajando”: son representadas, del mismo modo: como indígenas y en actividades relacionadas al campo.
“Hombres negros trabajando”: los crea como obreros…
 
pero si le pedimos que cree una imagen de “hombres blancos trabajando” los representa en una oficina.

Lo que subyace al racismo algorítmico

Entre las causas apuntadas para tales situaciones, están:

  • Datos de entrenamiento sesgados: los algoritmos de IA aprenden a partir de datos históricos. Si estos datos reflejan desigualdades raciales o no representan adecuadamente la diversidad de la población, el algoritmo puede aprender y reproducir estos sesgos. Un estudio de 2019 mostró que los sistemas de reconocimiento facial tenían tasas de error más altas para personas de piel oscura, especialmente mujeres negras, debido a la falta de representación en los conjuntos de datos de entrenamiento.
  • Diseño algorítmico: la inteligencia artificial no es magia. Quienes diseñan y desarrollan los algoritmos y sistemas de IA pueden, con o sin intencionalidad, incorporar sus propios prejuicios en la creación de algoritmos. Las decisiones sobre cuáles variables incluir, cómo ponderarlas y de qué manera interpretarlas pueden influir en los resultados finales.
  • Interpretación y uso de resultados: incluso si un algoritmo es técnicamente imparcial, la forma en que se utilizan sus resultados puede conducir a prácticas discriminatorias.

La investigación de Tarcízio Silva aborda el impacto del racismo algorítmico en la visión computacional, destacando cómo los sistemas de inteligencia artificial (IA) y aprendizaje automático pueden perpetuar y amplificar prejuicios raciales a través de sus mecanismos de reconocimiento y clasificación de imágenes. Silva examina la construcción y expresión del racismo en la infraestructura online y las interfaces digitales, argumentando que tanto los algoritmos (el «back end») como las representaciones visuales y textuales (el «front end») son materializan estereotipos invisibles que afectan a grupos racializados.

A través de un análisis fundamentado en la Teoría Racial Crítica y estudios sobre la blanquitud, Silva propone un marco para comprender y desmantelar la opresión algorítmica, subrayando la necesidad de abrir las «cajas negras» de la tecnología para revelar y confrontar los sesgos raciales inherentes en los sistemas de visión computacional. Su trabajo resalta la importancia de abordar tanto los aspectos técnicos como los culturales y sociales en la lucha contra el racismo algorítmico, instando a una mayor diversidad e inclusión en los campos de la ciencia y la tecnología. 

El racismo algorítmico es un desafío significativo en la era de la IA. Es crucial que las personas en roles de desarrollo, investigación e, incluso, las usuarias sean conscientes de estos sesgos y trabajen activamente para crear algoritmos más inclusivos y equitativos. Esto implica diversificar los conjuntos de datos, y también cuestionar y revisar constantemente los supuestos subyacentes en el desarrollo de tecnologías. El fiasco de Google Gemini, por citar un ejemplo reciente, nos enseña que no se trata de corregir el racismo con más racismo, sino de desarrollar colectivamente algoritmos igualitarios.

La lucha contra el racismo algorítmico y la creación de tecnologías más equitativas se basa en un principio clave: aprender y enseñar cómo funcionan realmente los sistemas tecnológicos por dentro. Comprender el funcionamiento interno de los algoritmos y los sistemas de IA es esencial para identificar y corregir los sesgos y prejuicios que estos pueden perpetuar. Esto requiere un enfoque educativo y formativo que no solo se centre en las habilidades técnicas —necesarias para desarrollar y programar software— sino también en la sensibilización respecto de los impactos sociales y culturales de la tecnología. En este sentido, la educación en tecnología debe incluir un currículo que aborde la ética en IA, la justicia social y los estudios sobre el racismo y la discriminación, proporcionando a los estudiantes las herramientas para construir sistemas más justos y representativos.

Desde Latinoamérica y entre los grupos minoritarios, la creación de capacidades en tecnología es especialmente crucial para desafiar y cambiar las narrativas dominantes en el campo de la IA. Al empoderar a estos grupos para que participen activamente en el desarrollo tecnológico, se abre la puerta a una diversidad de perspectivas y experiencias que pueden informar y enriquecer el proceso de diseño de algoritmos.

Fomentar la inclusión de voces marginadas en la ciencia y la tecnología contribuye a reducir los estereotipos raciales y sesgos en los sistemas de IA, y promueve la creación de soluciones innovadoras que atienden a las necesidades y desafíos de todas las personas. Por último, construir una comunidad tecnológica inclusiva y diversa, en nuestra región y más allá, es un paso fundamental hacia la eliminación de estereotipos raciales y la creación de algoritmos que sirvan equitativamente a toda la sociedad.

Solo así podremos asegurar que la IA sea un aporte al desarrollo.

Aprende Inteligencia artificial con ayuda de la Inteligencia Artificial

Inteligencia Artificial: la promesa de más ideas y menos trabajo. Desde el texto para detallar una idea, hasta los fragmentos de código que componen una gran solución informática, todo se puede consultar con algún modelo de IA. Incluso, se ha pensado como un validador de ideas, por veces como la fuente principal de consulta.

Es verdad que los modelos generativos basados en el procesamiento de miles de datos son capaces de responder a una infinidad de preguntas sin llegar a garantizar la veracidad de sus respuestas, particularmente si se ven enfrentados con interrogantes que demanden análisis.  Esto es debido a que están diseñados para relacionar información según las entradas dadas por quienes lo usan.

En el caso de las ciencias exactas, estos modelos pueden ser un poco más precisos. Eso porque la complejidad de las entradas se reduce a especificar el tipo de operación y los valores con los cuáles trabajar. Por ejemplo, las operaciones aritméticas, cálculos físicos o desarrollo de código, abriendo nuevas posibilidades para la exploración curiosa y experta.

¿Es posible aprender IA con ayuda de la IA? 

Una manera de hacer tal exploración es preguntarse como utilizar la IA para aprender sobre la misma IA. Lo primero a tener en cuenta es la necesidad de escribir prompts o preguntas que contengan la información necesaria con claridad e intentando evitar que el sistema llegue a un exceso de datos.

La información que un modelo devuelve no es más que el contenido resultante de conectar parámetros según la instrucción dada. Por ejemplo, en las próximas dos cadenas se observan énfasis que harán que una IA devuelva resultados diferentes:

  • Describe un cielo estrellado
  • Describe un cielo estrellado como lo haría un poeta

En el segundo caso, se incluye un contexto que guía el estilo de la respuesta que se debe generar.

Sabiendo que la calidad de los resultados depende de la calidad de la pregunta, se puede preguntar al mismo modelo la mejor forma de escribir un prompt.

Así, aplicando la siguiente pregunta en diferentes modelos se pueden obtener recomendaciones: ¿cómo escribir un buen prompt para pedir ayuda a la IA?
Existen diferentes (y válidas) respuestas para esa pregunta:

  • ChatGPT: Necesito ayuda para solucionar un error de sintaxis en mi código Python. Estoy intentando escribir una función que calcule la suma de una lista de números, pero estoy recibiendo un mensaje de error ‘SyntaxError: invalid syntax’. ¿Puedes ayudarme a identificar y corregir el error?
  • Gemini: Genera un código que imprima ‘Hola mundo’. Escribe un resumen de este artículo, Ayúdame a encontrar una receta para un pastel de chocolate.

Teniendo en cuenta estas recomendaciones, se puede pedir a un modelo de IA ayuda para comprender las funciones que componen un fragmento de código, un proyecto open source, un API o el ejemplo publicado en la documentación de algún método de PHP.

Desde niveles macro hasta condiciones de bajo nivel, es posible obtener de los modelos de IA generativa explicaciones, sugerencias de cambios, mejoras, refactorizar y hasta recibir soluciones a distintos problemas.

Pero, ¿puede la IA explicar un modelo de IA?

La explicación dada a un método que forma parte de un modelo de IA contendrá información de tipos de datos que ingresan, tipos de datos de salida y el proceso que hace de los mismos.

Tener un modelo funcional no es lo único que requiere una IA. Eso también depende de los datos que integran su entrenamiento, el valor de estos, diversidad y otros factores que pueden incidir en las respuestas que genere. La calidad del algoritmo y de los datos son los factores determinantes de la calidad de las respuestas.

En la práctica, se propone un ejemplo sobre el modelo de Inteligencia Artificial generativa ChatGPT. Para empezar, se puede preparar el ambiente del chat indicando el tipo de comportamiento esperado, por ejemplo: Usted es un profesional de la informática. Responda sin ambigüedades, esto da un contexto y carácter a la conversación. Siguiendo la propuesta práctica: en el sitio web de ChatGPT se encuentra la documentación técnica útil para su implementación en desarrollos propios. Se puede usar al mismo modelo de lenguaje para comprender estos fragmentos.

Al tomar un ejemplo y pedir que explique su función devolverá una explicación general al respecto.

También, se puede pedir una explicación más detallada si fuese necesario

Explique el siguiente fragmento de código:
import OpenAI from "openai"; const openai = new OpenAI(); async function main() { const completion = await openai.chat.completions.create({ messages: [{"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "Who won the world series in 2020?"}, {"role": "assistant", "content": "The Los Angeles Dodgers won the World Series in 2020."}, {"role": "user", "content": "Where was it played?"}], model: "gpt-3.5-turbo", }); console.log(completion.choices[0]); } main();
¿Podría darme más detalles?

Lo anterior funciona si lo que se busca es entender el funcionamiento de modelos desarrollados permitiendo una comprensión de los métodos disponibles y los datos de entrada para así modificar.

Si lo que se quiere es desarrollar un modelo de IA, lo mejor quizá sea revisar documentación, libros o foros. Otra forma de hacerlo es usando IA. Definiendo el objetivo, el resto puede ser guiado con un modelo generativo. Desde la selección de una base de datos (o la preparación de esta) hasta las funciones y métodos que deberían conformar el desarrollo.

Necesito desarrollar un modelo de Inteligencia Artificial para reconocimiento facial con Python.
Da recomendaciones sobre el tipo de base de datos y librerías que debo utilizar.

.

¿Ahora quién programa?

Con la cantidad de proyectos de código abierto y ejemplos disponibles, los modelos son capaces de proponer soluciones reflejadas en código que se pueden probar en cualquier editor de código o en cuadernos de trabajo como Jupyter . Por ejemplo, al digitar la siguiente instrucción en un modelo de IA, el resultado será un fragmento de código funcional: 

Ayúdame a desarrollar el modelo, desarrolla las primeras funciones para que pueda
probarlas en Jupyter. 

Si el resultado no es claro se puede pedir una explicación detallada que ayude a mejorar la prueba obteniendo información sobre cada función y cada operación a realizar.

Por favor, explícame

Al probar otros ejemplos dentro del mismo chat, también se observa como el modelo se ajusta al tipo de respuesta que se pidió con anterioridad, lo que explica cómo los modelos siguen aprendiendo y usando ese aprendizaje. Así cada vez dará respuestas más efectivas en menos pasos.

Ayúdame a desarrollar un modelo para traducir documentos
-Ahora, código para usar en Jupyter
Vamos a desarrollar un modelo para el reconocimiento de voz
Ayúdame a desarrollar la arquitectura del modelo

Enseñando la IA

Los modelos de Inteligencia Artificial pueden ser comparados con infantes en su etapa de aprendizaje y al igual que ellos requieren que la información y/o datos que alimentan su instrucción sean de calidad, reales y que no incluyan sesgos.

Al usar un modelo de IA generativa proporcionando detalles importantes respecto al tipo de respuesta requeridas se obtendrán resultados más exactos y menos ambiguos.

Y lo más importante: la creatividad y las ideas siguen siendo humanas. Usar IA, lejos de ser una amenaza laboral debería convertirse en una alianza para efectivizar el trabajo, reducir esfuerzo y tiempo. Y poder seguir creando y pensando desde nuestra inteligencia natural.


	

Dominio público y deberes de autor

Internet es colonial. No hay ninguna novedad en ello ni tampoco drama en decirlo: es la principal razón por la que Mickey Mouse adquirió (más) protagonismo durante los primeros días de este año que comienza. La pérdida de protección por derechos de autor de Steamboat Willie (1928) que, en la práctica, marca su llegada al dominio público es tema porque así es, en efecto, en los Estados Unidos de América.

Nuestra región, provista de sus propias legislaciones sobre derechos de autor, ofrece algunas pistas sobre cómo se percibe este hito en la Mayoría Global: en Brasil, un buen ejemplo, la primera iteración de Mickey Mouse que protagoniza esta cinta es libre desde el 1 de enero de 1999; Bolivia, Argentina y Uruguay, en tanto, podrán contar con cuantas reproducciones de este ratón permita la creatividad humana, aunque bajo la figura de dominio público pago, es decir, de todas maneras hay que pagar una comisión, solo que esta no va a las arcas de Disney, la compañía, sino que al Estado, a través de una entidad de gestión cultural.

De estos temas nos encargamos usualmente en la Alianza para el Acceso Justo al Conocimiento, en asociación con Fundación Karisma, Fundación Vía Libre, InternetLab, Hiperderecho, Red en Defensa de los Derechos Digitales, Datysoc e IBDAutoral, y cuyo fin es defender y promover el dominio público y los bienes comunes culturales en América Latina. Las últimas noticias provenientes del norte sobre Mickey Mouse, sin embargo, permiten abrir el espacio de discusión sobre autores, titulares y gestoras hacia otros ámbitos. Uno de ellos tiene que ver con el actual panorama de los famosos derechos de autor, que los devela insuficientes para los desafíos del siglo XXI.

El afortunado

Alguna vez, un joven caricaturista de Chicago llamado Walt Disney, junto con el igualmente joven animador Ub Iwerks, fueron empleados de alguien. Por encargo de sus jefes, crearon a un conejo proclive a meterse en problemas y, a la vez, salir de estos gracias a su buena suerte. Oswald, su nombre en inglés, nació en 1927 y protagonizó un par de producciones con éxito moderado. Modesto y todo, sin embargo, dicho éxito despertó la codicia de un par de ejecutivos de la compañía distribuidora, Charles B. Mintz y George Winkler, quienes —según la versión más difundida— lograron hacerse con la propiedad intelectual del conejo.

Este suceso, dicen, es la génesis del ratón animado conocido en el planeta entero y actual rostro principal de una compañía multimillonaria. Su estreno es un hito tanto en la historia de la animación como en la del cine: es el primer cortometraje animado con sonido simultáneo. Como explica en esta entrevista un no-tan-joven Walt Disney, su proceso creativo implicó la sincronía, prolijidad y voluntad de un vasto equipo de artistas; no solo de dibujantes sino también de una orquesta completa que debió ejecutar tanto la música como los efectos sonoros del corto en tiempo real.

Lo que siguió es relativamente conocido: parques de diversiones, un imperio audiovisual cuya punta de lanza, hoy en día, es su plataforma de streaming, millones y millones de dólares generados por The Walt Disney Company. No obstante, entre toda esta maraña corporativa y las diversas alusiones que se han realizado en estos días al golpe que significaría, contra la avaricia de Disney®, la liberación de Steamboat Willie hay dos temas muy importantes: el primero es que las grandes producciones animadas de la compañía están inspiradas, de hecho, en obras que habitan el dominio público: Blanca Nieves, Pinocho y El Rey León son algunos de los ejemplos más ubicuos; el segundo es que, de acuerdo con documentos oficiales, el mismísimo Walt Disney solía decir que esperaba nunca perder de vista que todo comenzó con un ratón.

La autoría es una responsabilidad

Diversas definiciones del derecho de autor suelen relevar su función social para “alimentar la rueda de la creatividad”, al otorgar protección jurídica a los autores y creadores por el solo hecho de haber creado una obra, cualquiera sea su forma de expresión, ya sea literaria o artística, esté publicada o inédita. Así, suponen redacciones como esta, el resguardo legal que tienen las y los titulares les posibilita obtener beneficios morales y patrimoniales derivados de sus creaciones. Esta justa retribución fomentaría, entonces, el surgimiento de nuevos creadores, nuevas obras, etcétera.

No obstante, Mickey Mouse nació de un movimiento opuesto y de una apuesta osada. En 1928 no había forma de prever el éxito que tuvo Steamboat Willie. Del mismo modo, es evidente el parecido que hay entre este y su antecesor: hasta se podría esbozar que el primero es un remix del segundo. Azar o no mediante, la filosofía detrás del ejercicio de los derechos de autor, esto es, la presunta promoción de la creatividad humana al garantizar compensación económica y moral de lo que resulte de ella a sus ejecutoras, no tiene mucho sentido al presumir que la autoría —el arte, inclusive— es tan solo un medio para un fin.

En esta organización se ha defendido históricamente la necesidad de más derechos para que todas puedan participar de la vida cultural y la eficacia incomprobable del derecho de autor respecto del fomento de la creatividad. En el presente, como parte de la Alianza para el Acceso Justo al Conocimiento, lanzamos un Informe sobre Políticas de Inteligencia Artificial y Derechos de Autor en América Latina que subraya la necesidad de una excepción para utilizar grandes volúmenes de libros, artículos, imágenes, bases de datos y otros materiales protegidos por derechos de autor para la investigación académica mediante recursos como minería de texto y datos, y mecanismos de aprendizaje automático.

La entrega de una obra original al acervo cultural del planeta no debería contemplar solamente protecciones para su autor sino también responsabilidades. El concepto de uso justo tiene mucho que ver con esto: en un mundo ideal, la autoría no es una cuestión de vanidad; por el contrario, debería entenderse desde la generosidad. Aun cuando cualquiera puede ser titular de derechos de autor, no cualquiera llega a ser un autor. A su vez, si bien tales derechos protegen a personas naturales o jurídicas, su concepción anglosajona no alcanza para extender dichas garantías a grupos culturales, como es el caso al que se enfrentó el pueblo maorí en relación con la “propiedad” y destino de su lengua o lo discutido en Colombia, en 2013, a partir de un proyecto de Conocimiento Tradicional y Agrobiodiversidad que visibilizó los límites de la ley occidental en cuanto a la protección de saberes ancestrales. Este tema también es trabajado por Salvador Millaleo, en Chile, en la publicación Conocimiento Mapuche y Derechos de Propiedad Intelectual.  

Dominio público para todas las personas

No es posible afirmar ni negar que Walt Disney estaría de acuerdo (en 2024, si estuviera vivo) con el ímpetu litigante que caracteriza actualmente a su compañía, asidua a retirar contenido que infringe el derecho de autor en motores de búsqueda y plataformas. No obstante, y recordando los inicios de Disney®, sí se puede sostener que es el dominio público el que de todas maneras garantiza la regeneración y reproducción de la creatividad humana. Existe antes de la invención del derecho de autor, es para todas e internet —bien lo sabemos— es crucial en el acceso a y distribución de las obras que están amparadas en esta figura.

Hasta ahora, se han anunciado películas de terror y videojuegos de acción donde el protagonista, al igual que en esta columna, es el Mickey de Steamboat Willie. Con certeza surgirán muchas obras más cuya principal razón de ser, aventuramos a decir, es la fama del personaje, pero quién sabe los rumbos que tomará la creatividad y cómo terminará por trenzarse con el uso de la inteligencia artificial en las artes. La pregunta por si lo que deriva de un prompt o comando es titular de derechos, sin embargo, es materia para una columna aparte.

Será decisión de la humanidad, entonces, determinar dónde reside el poder y la responsabilidad que viene de la mano con la capacidad de crear, sea en sus autores, como ya se entiende hasta ahora, o desde el dominio público, como se levanta sin pausa desde los activismos de la cultura libre hace mucho tiempo atrás. En cuanto a Mickey Mouse, hemos de ver cómo actuará Disney, considerando su comportamiento previo, ahora que el inspirador de su marca es patrimonio de todas y que seguramente abrirá nuevos debates en torno a la frontera entre la propiedad industrial y los derechos de autor.

Finalmente, son imperativas más instancias donde se resuelva el destino del dominio público frente a esta encrucijada: si acaso terminará siendo nada más que un repositorio para modelos de inteligencia artificial generativa o si, de una vez por todas, los Estados asumirán el deber de invertir en preservarlo y expandirlo para el bien común.

El 2023 en retrospectiva: ¿qué fue de la defensa de los derechos humanos en la era digital?

De crisis en crisis

Parecería ser que no conseguimos salir de situaciones dramáticas. A la emergencia climática y las persistentes consecuencias económicas de la pandemia del COVID-19 y del capitalismo global, debemos sumar los constantes riesgos a nuestras frágiles democracias.

La crisis bélica con que terminó 2022 en lugares lejanos a América Latina, se esparció por el mundo, incluidas amenazas en nuestra región. La violencia en los territorios ocupados de Palestina se extendió al entorno digital, en forma de censura y acoso. A la vez, la atención de usuarias de redes sociales se volcó en solidaridad no solo con Gaza, sino también con el Congo y Sudán. Vimos protestas en toda la región, incluyendo la continuación de protestas contra el gobierno en el Perú, y el surgimiento de violenta represión contra las protestas en Panamá y Guatemala, además del escenario que hoy se abre en Argentina.

A pesar de los cuestionamientos a las plataformas sociales como espacios de desinformación y frivolidad, internet sigue siendo  un lugar para el activismo, la denuncia de violaciones de derechos humanos y el periodismo.

Más tecnologías, más vigilancia

En América Latina pasamos de un año marcado por la vigilancia mediante tecnologías a un año en que, bueno, sucedió lo mismo y a menudo peor. La repetida historia de la vigilancia a través de Pegasus tuvo nuevas revelaciones sobre espionaje en México, El Salvador (a una jueza en una extensión de las revelaciones de 2022) y República Dominicana. Y más spyware fue detectado en México.

A ello se suman los riesgos de moverse de un lado a otro en un cuerpo tangible, en una región con creciente adopción de sistemas de vigilancia biométrica. San Pablo, en Brasil, anunciaba una adquisición millonaria de un nuevo sistema de vigilancia pese a las victorias contra sistemas de reconocimiento facial en el pasado reciente; el transporte público en Bogotá y la policía en Medellín anunciaban nuevas capacidades en Colombia; el nuevo gobierno argentino anunció vigilancia de rostros para identificar y castigar a participantes en protestas. La biometría siguió su expansión para los movimientos entre países: organizaciones de sociedad civil denunciaron el uso en fronteras y sobre personas migrantes. Y mientras en Ecuador se fortalecen capacidades con fines de seguridad y hasta la figura de un agente encubierto digital, languidece la esperanza de hacer aplicable la ley de datos personales aprobada hace años.

Expresión y protesta bajo asedio: dentro y fuera de internet

La situación argentina, una de las secuelas de la elección presidencial de fines de 2023, es parte de una fuerte acción gubernamental contra la protesta social, que merecerá cercana atención en 2024. Con la misma preocupación por la capacidad de trabajo en asociaciones de sociedad civil levantamos la alerta por la regulación de organizaciones en Venezuela.

Vimos  aumentar y profundizarse parte de la discusión sobre desinformación, acentuada en nuestra región por actos de violencia en Brasilia a principios de año, con la preocupación adicional por la desinformación política en ese país. Mientras tanto, en Chile se inauguraba una comisión experta para formular recomendaciones pese a la incertidumbre sobre el real efecto de las mentiras digitales. El traslado de la preocupación hacia una discusión más amplia sobre la regulación de empresas de internet también tuvo énfasis en Brasil, donde el proyecto de ley que partió como uno sobre fake news se convirtió en un debate mayor sobre la regulación de plataformas digitales.

Una importante sentencia de la Corte Constitucional en Colombia, dio importantes luces sobre el rol del Estado en la garantía del acceso a internet, como elemento crucial en el ejercicio de derechos fundamentales.

Nuestra seguridad en el marco vigente de derechos humanos como la referencia directa para exigir deberes de los Estados se mantiene firme, por lo que seguiremos trabajando en el reconocimiento institucional de aquello que sabemos que son nuestras prerrogativas como titulares de derechos fundamentales.

Tecnologías para todas

Sabemos que hay un fuerte énfasis en producir nuevas formas de gobernanza para la inteligencia artificial, incluyendo esfuerzos regulatorios en la región. También nuestro trabajo de este año dio cuenta de la necesidad de integrar perspectivas feministas al desarrollo tecnológico, y publicamos un informe en la materia con contribución significativa de especialistas de toda América Latina, además de coorganizar un taller sobre justicia de datos para recabar más perspectivas de personas expertas de la región.

Nuevas actividades dentro de nuestra línea programática sobre inteligencia artificial e inclusión se proyectarán hacia los próximos años para dar cuenta de la necesidad de aprovechar la oportunidad histórica de incidir en el desarrollo tecnológico futuro, con respeto a la democracia, los derechos fundamentales, el medio ambiente, y la inclusión. Es cierto que la tecnología es una fuente de riesgos y oportunidades, pero materializar estas últimas requiere una actitud vigilante y proactiva.

Solidaridad en tiempos de crisis

Este año, el trabajo de Derechos Digitales se vio fuertemente marcado por nuestra dedicación a la colaboración y el fortalecimiento de la sociedad civil en toda la región. Condujimos regionalmente acciones dentro del proyecto Greater Internet Freedom, para generar evidencias, reforzar activismo y construir capacidades en varios países de la región, dando lugar así a la publicación de una nueva versión de Latin America in a Glimpse, dedicada la conectividad en distintas áreas de la Amazonía.

También apoyamos financieramente al trabajo de activistas en la región, entregando fondos a 20 iniciativas de 13 países de la región, a través de nuestro Fondo de Respuesta Rápida y nuestro nuevo Fondo de Derechos Digitales, cuyo sistema de gestión sigue recibiendo el registro de postulantes y de proyectos. Apoyamos la formación de capacidades para personas en etapas iniciales o con interés en el trabajo por los derechos digitales, mediante un curso introductorio a fines del año. Examinamos el rol de la evaluación en el trabajo del activismo de sociedad civil.

Este año, inauguramos el Programa LaREDD, para la resiliencia y la defensa digital, mientras mantenemos nuestro trabajo de formación de confianza con personas expertas en seguridad digital en la región. Recibimos al primer par de pasantes con énfasis de inclusión en materias de seguridad y resiliencia digitales.

Fuimos parte del lanzamiento de una nueva Red Global para la Justicia Social y la Resiliencia Digital. Mantuvimos nuestra participación en nuestras múltiples redes, como el consorcio AlSur, la Asociación para el Progreso de las Comunicaciones (APC), IFEX, la Global Network Initiative (GNI), el Movimiento para una Mejor Internet (MFABI), la Red de Datos para el Desarrollo (D4D) y más.

Creemos en la cooperación como vía para el fortalecimiento mutuo, y seguiremos en ese camino.

Los desafíos globales de 2023 y 2024

Nuestra misión regional reconoce la necesidad de poner atención en procesos y eventos globales relacionados con los derechos humanos en la sociedad digitalizada. Seguimos con fuerte involucramiento en lugares como: el Comité Especial que discute un nuevo tratado de cibercrimen en el Tercer Comité de la ONU; el Grupo de Trabajo de Composición Abierta del Primer Comité, dedicado a la seguridad y el uso de las tecnologías, especialmente por los Estados. Continuamos el seguimiento de procesos en foros técnicos que inciden en el desarrollo de las redes y el impacto de las mismas en las posibilidades de los derechos humanos; la atención a tratados de libre comercio que por la vía del intercambio comercial pueden comprometer los derechos de las personas o transarlos por ventajas económicas.

También en  la Comisión de la Condición Jurídica y Social de la Mujer de la ONU, dedicada a las tecnologías y la superación de las brechas; en el seguimiento de las discusiones en la Organización Mundial de la Propiedad Intelectual con posible impacto en el futuro del acceso al conocimiento; todo sumado a la atención dada a espacios como la UNESCO y sus iniciativas en IA y en gobernanza de plataformas, el Foro de Gobernanza de Internet, la Freedom Online Coalition, y mucho más.

En 2024 seremos testigos de la celebración de una Cumbre para el Futuro, organizada por Naciones Unidas, que incluirá un Pacto Digital Global, cuya elaboración ha traído múltiples preocupaciones para una sociedad civil global con renuencia a dejar el futuro digital a la decisión entre estados. Sabemos que se trata de una oportunidad de retomar el futuro a favor de los derechos humanos, por sobre los intereses gubernamentales.

Y en todos estos espacios, actuales y futuros, locales y globales, confiamos en el poder de la sociedad civil para cambiar la sociedad. La defensa de una perspectiva latinoamericana de los derechos humanos en la era digital requiere también la visibilización de la misma en múltiples espacios, gubernamentales e intersectoriales, con alcance global y con solidaridad transregional con el resto de la Mayoría Global.

El 2024 será un intenso año electoral, incluso para varios países de la región. Estaremos atentas a los procesos de cambio y a las posibles amenazas a nuestras democracias.

También, con una preponderancia de las personas, como tú y yo, y de grupos y comunidades, como todas nosotras, como verdaderas agentes de cambios que no tengan al poder estatal o empresarial como los grandes ganadores del futuro. Puedes confiar, como siempre, que desde Derechos Digitales seguiremos trabajando para que el futuro sea de todas.

Derechos humanos, placeres artificiales: sobre la necesidad de pensar a la humanidad en entornos digitales

Hace casi una década, se popularizó el concepto de «valle inquietante», traducción aproximada de uncanny valley. Se trata de cierta incomodidad en las personas ante androides altamente realistas o, mejor dicho, de la respuesta emocional que provoca la apariencia “casi humana” de un robot. Luego, en 2017, un usuario de Reddit con el seudónimo «deepfakes» subió contenido audiovisual lascivo con los rostros de Emma Watson, Jennifer Lawrence y otras celebridades.

Sin saberlo, bautizó a uno de los fenómenos más perturbadores del último tiempo. Actualmente, el 98% de todas las imágenes simuladas a través de sistemas de inteligencia artificial consisten en pornografía, de acuerdo con datos de un estudio de Home Security Heroes.

Si bien el material publicado por el original “deepfakes” se basaba en una técnica rudimentaria llamada faceswapping, en pocos años, el avance de la tecnología transformó aquello que resultaba inquietante en algo casi indistinguible de la realidad.

Con la popularización de tales tecnologías, la violencia de género facilitada por las tecnologías encontró su herramienta perfecta. En la plataforma Discord y, a través de Midjourney, un prompt (enunciado con términos clave) puede hacer casi realidad cualquier retrato ficticio de otra persona, con o sin su autorización. “Casi” pues, a pesar su sofisticación, esta tecnología no es perfecta: sutilezas como los pequeños pliegues de los dedos de las manos o el iris del ojo son demasiado humanas para la máquina. Aun así, el uso de prompts para generar imágenes pornográficas no consentidas no dejará de ocurrir, ya que siempre habrá consumidores de este tipo de material a quienes podrían escapárseles tales matices. La misma gracia que está fuera del alcance de la inteligencia artificial también está ausente de la percepción de este segmento.

Nuevas tecnologías, violencias antiguas

América Latina no ha estado excluida del avance de este tipo de violencia. En octubre de 2023, un grupo de estudiantes del Instituto Politécnico Nacional (IPN) de México, específicamente de la Escuela Superior de Comercio y Administración (ESCA), denunció a uno de sus compañeros, Diego N, por violencia digital, porque utilizó inteligencia artificial (IA) para alterar y crear imágenes sexuales de las estudiantes y comercializarlas a través de grupos de Telegram. Estas imágenes fueron creadas a partir de fotografías de las redes sociales. Luego de una investigación, se dio a conocer que el dispositivo del estudiante contenía alrededor de 166 mil fotografías y 20 mil videos, tanto reales como modificados con IA. Alrededor de 40% del contenido estaba relacionado con alumnas del IPN.

Además de la denuncia y expulsión del estudiante del IPN, se inició una investigación y un proceso legal en la fiscalía general de Justicia de la Ciudad de México. Al tratarse de un caso de violencia digital, las estudiantes apelaron a la Ley Olimpia, que tipifica como delito la difusión de imágenes de contenido sexual sin consentimiento.

La ley Olimpia ha sido utilizada en diversos casos en los estados de la república, pero esta vez toma una relevancia distinta por tratarse de una nueva tecnología utilizada para efectuar el delito, la IA. A pesar de la existencia de tal marco de protección, la diputada Guadalupe Morales confirmó que propondrá una iniciativa de ley para que se modifique el Código Penal de la Ciudad de México integrando una redacción que haga alusión los “deepfakes porno” como delitos contra la intimidad sexual.

La pregunta que queda es hasta cuándo será necesario criminalizar nuevas tecnologías y nuevos usos de tecnologías para intentar detener un tipo de violencia que tiene profundas raíces sociales.

En México, 70.1% de las mujeres mayores de 15 años han sufrido alguna forma de violencia a lo largo de su vida, de acuerdo con la última Encuesta Nacional sobre la Dinámica de las Relaciones en los Hogares del 2021. Casi la mitad de las mujeres han sufrido violencia sexual y más de un tercio alguna forma de violencia física. Más que un fenómeno nuevo y aislado, las deepfakes agregan una capa más en un contexto de máxima preocupación.

No hay vuelta atrás

«Todos los seres humanos nacen libres e iguales en dignidad y derechos y, dotados como están de razón y conciencia, deben comportarse fraternalmente los unos con los otros» reza el primer artículo de la Declaración Universal de Derechos Humanos – que cumple 75 años el próximo 10 de diciembre. Libres e iguales implica que todas las personas nos debemos respeto mutuo. La facilidad con la que las nuevas tecnologías proveen medios para vulnerar estas premisas nos obliga a darle más vueltas a los estándares mínimos que nos otorga la condición humana y sientan las bases para la convivencia en sociedad.En el ámbito físico (offline) de la vida, los límites deberían ser más claros: desde la postura corporal hasta la vestimenta, hay diversas estrategias para marcar distancia o proximidad de acuerdo con la voluntad de cada persona.

En el entorno digital, no obstante, las deepfakes derriban por completo dichas barreras. Además, y aunque correlación no implica causalidad, los datos son decidores: las nuevas generaciones reportan mayores índices de soledad que las anteriores, desarrollándose su vida social mayoritariamente en línea.

Las tácticas en el corto plazo para dar cuenta de este fenómeno pasan necesariamente por una educación sexual que promueva la equidad de género. Por otro lado, es necesario incluir una perspectiva interseccional de género al desarrollo de políticas públicas y a nivel legislativo: eso incluye las regulaciones sobre el tratamiento de datos personales. Además, en las discusiones sobre leyes de inteligencia artificial, es fundamental garantizar la participación efectiva de mujeres y personas LGBTQIA+, así como contar con evidencias específicas que ayuden a identificar abordajes efectivos y contextualizados para responder a las distintas formas de violencia.

Hay un importante avance en el reconocimiento de los derechos humanos desde la adopción de la Declaración Universal de los Derechos Humanos. Su carácter de universal implica que se aplica para todas las personas, sin excepción. Sin embargo, las brechas que persisten en su aplicación después de 75 años afectan particularmente las personas históricamente marginalizadas. La difusión de imágenes íntimas alteradas por medio de tecnologías de IA es una forma nueva de una vieja táctica que busca mantener un status quo en que las mujeres no tienen calidad de humanas y no pasan de meros objetos: sin derechos, sin agencia y plenamente manipulables según los deseos de terceros.

Desafortunadamente para quienes desean mantener controlada y sumisa la mitad de la población mundial, eso ya no es posible. No sólo está el sistema de derechos humanos como mecanismo de protección estable y consolidado, sino que también el movimiento feminista ha logrado visibilizar y denunciar vulneraciones y apropiarse de distintas tecnologías – no solo digitales – para protegerse, ejercer solidaridad y potenciar sus mensajes y luchas.

Como recuerdan los masivos movimientos desde América Latina, ninguna forma de violencia puede silenciar la voz colectiva que dice “ni una menos”. Frente al intento de retroceder, falta que los Estados e instituciones se comprometan, efectivamente, con un mundo más justo, equitativo y libre de violencia. Para todas, todos y todes.