Encontrar lo bueno en la primera resolución de la Asamblea General de la ONU sobre inteligencia artificial

Nosotros, las organizaciones de la sociedad civil abajo firmantes, damos la bienvenida a la resolución de la Asamblea General de las Naciones Unidas (ONU) liderada por los Estados Unidos Aprovechar las oportunidades de sistemas de inteligencia artificial seguros y confiables para el desarrollo sostenible”.

Las partes interesadas alejadas de los terrenos de la ONU se benefician cuando los Estados aclaran su posición sobre las tecnologías nuevas y emergentes y cómo el derecho internacional, incluido el derecho internacional de los derechos humanos, y los compromisos de desarrollo sostenible se aplican a campos como la inteligencia artificial. Esto es especialmente cierto con toda la exageración, las definiciones turbias y los impulsores egoístas que rodean la inteligencia artificial.

Elogiamos fuertemente el lenguaje operativo de la resolución que llama a los estados, y lo que es más importante, a otras partes interesadas, a “abstenerse o cesar el uso de sistemas de inteligencia artificial que sean imposibles de operar de conformidad con el derecho internacional de los derechos humanos o que representen riesgos indebidos para el disfrute de derechos humanos, especialmente de quienes se encuentran en situaciones vulnerables”.

La sociedad civil señala que ese tipo de mensajes ha sido “una batalla cuesta arriba” y, por lo tanto, esta resolución unánime debe verse como un paso positivo en la dirección correcta. Instamos a los estados a poner en práctica dicha recomendación y a prestar atención a este llamado de consenso en las próximas negociaciones, particularmente en el Pacto Digital Global (GDC) de las Naciones Unidas, donde la semana pasada se publicó el borrador cero, con el objetivo de fomentar la cooperación digital y mejorar la gobernanza de tecnologías emergentes, incluida la inteligencia artificial, y otras iniciativas de establecimiento de estándares. Además, instamos a los estados a que impulsen dichos llamados para incluir prohibiciones de ciertas tecnologías, incluidas las llamadas tecnologías de reconocimiento de emociones y detección de género, que no respetan la dignidad humana y, en cambio, infringen los derechos humanos, intencionadamente.

Nos complace ver que en todo el texto se hacía referencia consistente al lenguaje relacionado con la inteligencia artificial confiable y los derechos humanos. La larga lista de medidas técnicas, regulatorias y educativas promovidas ofrece un menú útil de opciones para los estados y las empresas mientras claman por formas de prevenir daños a lo largo del ciclo de vida de los sistemas de inteligencia artificial, que van desde las evaluaciones de riesgos e impactos en la etapa de diseño hasta las posteriores. Mecanismos de retroalimentación del despliegue. Además, para su implementación práctica se debe seguir fomentando el reconocimiento de la necesidad de involucrar y permitir la participación de todas las comunidades, particularmente de los países en desarrollo.

No obstante, existen preocupaciones con la resolución:

-En primer lugar, los párrafos que piden cerrar la brecha digital simplemente se formulan como si exigieran “asociaciones más fuertes”, cuando son urgentes mayores compromisos, incluso en relación con la financiación. Las convocatorias y los detalles para su implementación serán clave. Lamentablemente, los detalles no se detallan en la resolución y actualmente no se abordan en el informe provisional del Órgano Asesor de Alto Nivel de las Naciones Unidas sobre Inteligencia Artificial.

– En segundo lugar, estamos profundamente preocupados por cómo la resolución diferencia entre los ámbitos militar y no militar/civil por varias razones: (1) las exenciones generales militares/de seguridad nacional no son consistentes con el derecho internacional; (2) el lenguaje que rodea a la inteligencia artificial segura, confiable, protegida, etc. debería aplicarse a las aplicaciones militares tanto, si no más, como a los usos civiles; y (3) no existe un estándar para las diferencias, especialmente para los sistemas de IA de doble uso. Esto no es hipotético: la UE. La Ley de IA crea lagunas peligrosas para el uso de la IA por parte de las autoridades policiales, de control migratorio y de seguridad nacional, y la ONU necesita establecer estándares más altos.

– En tercer lugar, el marco de gobernanza de la IA propuesto no refleja un verdadero modelo de múltiples partes interesadas y podría ser más sólido cuando se trata de una participación significativa y la inclusión, particularmente de la sociedad civil, los grupos vulnerables y marginados, las comunidades locales e indígenas que participan en decisiones relacionadas con la IA que los afectan.  Por ejemplo, el párrafo dispositivo seis utiliza un lenguaje que protege contra el llamado a una participación “inclusiva y equitativa”.

– En cuarto lugar, la resolución se hace eco de otras conversaciones globales sobre inteligencia artificial al apoyarse en gran medida en el tecno-solucionismo para abordar los Objetivos de Desarrollo Sostenible (ODS) de la ONU en situaciones donde la falta de voluntad política y cooperación son las verdaderas barreras para el progreso. Sin una cooperación global sostenida y poderosa para abordar desafíos como el cambio climático, la inteligencia artificial no puede lograr los objetivos establecidos en la resolución.

– Finalmente, si bien la resolución se centra en el impacto de algunas tecnologías de IA para el progreso socioeconómico y ambiental hacia el cumplimiento de los ODS, lamentablemente no incluye suficientemente otra dimensión integral de la Agenda 2030 para el Desarrollo Sostenible, a saber, la protección de los derechos humanos. Si bien las implicaciones para los derechos humanos se mencionan brevemente en otras secciones, es crucial que se enfaticen en relación con los ODS.

El desafío de las futuras negociaciones sobre la gobernanza de la IA será promover el desarrollo sostenible junto con una transformación digital que respete los derechos, sin dejar de ser diligentes en afirmar la centralidad de los derechos humanos y la seguridad, normas que todos los Estados han acordado defender. Alentamos a los estados a trabajar con la sociedad civil y otras partes interesadas para desarrollar una resolución sobre IA en el contexto del sistema de derechos humanos de la ONU, que complemente este texto centrado en el desarrollo sostenible. Además, la resolución no se desarrolló en los procesos habituales de colaboración y basados en comités de la Asamblea General, sino únicamente en el plenario; Recomendamos encarecidamente que cualquier versión futura de esta resolución se aparte de este enfoque individual.

Será necesario asumir compromisos respecto de la rendición de cuentas de las empresas privadas que operan a nivel global y, a menudo, evaden la responsabilidad en ciertos países. También serán necesarios estándares y mecanismos adicionales para impedir la circulación de tecnología que no cumpla con los derechos humanos. Las consideraciones laborales y ambientales deberían ser una parte clave de tales esfuerzos y de la evaluación del cumplimiento por parte de dichos actores empresariales.

La sociedad civil señala que, si bien la resolución no es vinculante y no incluye un mecanismo de aplicación, es digna de mención por ayudar a avanzar al proporcionar una adopción unánime que los estados pueden utilizar para trabajar hacia el establecimiento de barreras globales para la inteligencia artificial. Por lo tanto, hacemos un llamado a todas las partes interesadas, en particular a los Estados, a utilizar esta resolución junto con otras resoluciones relevantes e iniciativas de la ONU, que se centren particularmente en los impactos de la inteligencia artificial en los derechos humanos en las próximas discusiones, especialmente las negociaciones relacionadas con el GDC de la ONU. Un buen punto de partida es consultar los recursos existentes de la ONU, incluidos: 1) las recomendaciones de los Relatores Especiales de la ONU que se han centrado en las implicaciones de la inteligencia artificial para los derechos humanos desde sus respectivos mandatos; (2) resoluciones como la “Promoción y protección de los derechos humanos en el contexto de las tecnologías digitales” , que se introdujo por primera vez a finales del año pasado, y la resolución bianual “Derecho a la privacidad en la era digital”; y (3) el trabajo en curso del Alto Comisionado de las Naciones Unidas para los Derechos Humanos, incluidas sus declaraciones sobre la IA generativa en el contexto de su visita a Silicon Valley y en la Oficina del Alto Comisionado para los Derechos Humanos B-Tech Generative AI and Human Rights Summit y el trabajo continuo del proyecto de IA generativa B-Tech.

Firmantes:

Access Now

Article 19

Association for Progressive Communications

Derechos Digitales

Digital Action

European Center for Not-For-Profit Law Stichting

Global Partners Digital

International Center for Not-for-Profit Law

Privacy International

Perspectiva de Género en el Pacto Global Digital (1 de marzo, 2024)

Aportes de Derechos Digitales sobre una perspectiva efectiva de género en el Pacto Mundial Global, basados en los principios feministas para inclusión de género en el Pacto, además de investigaciones y contribuciones realizadas por Derechos Digitales y otras organizaciones de la sociedad civil: Brecha digital de género y acceso equitativo a la tecnología; necesidad de alfabetización y construcción de capacidades digitales para mujeres y niñas.

Cuando algoritmo rima con racismo

El racismo algorítmico es un término que se ha vuelto cada vez más relevante en la era digital. Se refiere a la forma en que los algoritmos y sistemas de inteligencia artificial (IA) pueden perpetuar o incluso exacerbar sesgos y discriminación racial. Aunque la tecnología se presenta a menudo como objetiva y neutral, la realidad es que puede reflejar y amplificar las desigualdades sociales existentes.

Un ejemplo cotidiano de esto se encuentra en las búsquedas en internet. Al buscar términos como «mujer bonita» u «hombre exitoso», los resultados tienden a mostrar imágenes de personas blancas, excluyendo la diversidad racial. Este sesgo se extiende a otras áreas, desde la selección de empleados hasta el reconocimiento facial. En este último caso, los algoritmos muestran preferencias hacia ciertos grupos raciales y discriminan a otros.

El problema radica en cómo se entrenan los algoritmos de IA. Estos sistemas aprenden a partir de grandes conjuntos de datos que, si no son lo suficientemente diversos o están sesgados, pueden llevar a conclusiones erróneas. Otro ejemplo a mano está en los algoritmos de contratación de personal. Estos tradicionalmente son entrenados con datos históricos que favorecen a los candidatos blancos, perpetuando entonces dicha tendencia.

Estereotipos racistas

Como se indicó al comienzo, un experimento revelador consiste en solicitar a un sistema de IA texto-a-imagen que genere ilustraciones de «hombres exitosos» o «mujeres exitosas». Los resultados suelen ser de personas blancas en contextos profesionales. En cambio, al pedir imágenes de “hombres pobres en Latinoamérica”, el sistema asume que son indígenas. Del mismo modo, al solicitar la creación de una imagen de «hombres negros trabajando, su representación visual es la de obreros”, mientras que para «hombres blancos trabajando» los muestra en una oficina y con trajes.

Las imágenes a continuación fueron creadas con DALL-E, incorporado en la versión 4.0 del sistema de IA ChatGPT. Haz clic en cada una de ellas para verlas en alta resolución.

“Hombre exitoso”: lo crea como un hombre alto, delgado, blanco y con barba.
“Mujer bonita”: tiene cabello claro, es blanca y con ojos claros.
“Hombres pobres de Ecuador”: asume que son indígenas.
Sucede lo mismo cuando solicitamos la una imagen de “mujeres pobres de Latinoamérica”.
“Mujeres de Latinoamérica trabajando”: son representadas, del mismo modo: como indígenas y en actividades relacionadas al campo.
“Hombres negros trabajando”: los crea como obreros…
 
pero si le pedimos que cree una imagen de “hombres blancos trabajando” los representa en una oficina.

Lo que subyace al racismo algorítmico

Entre las causas apuntadas para tales situaciones, están:

  • Datos de entrenamiento sesgados: los algoritmos de IA aprenden a partir de datos históricos. Si estos datos reflejan desigualdades raciales o no representan adecuadamente la diversidad de la población, el algoritmo puede aprender y reproducir estos sesgos. Un estudio de 2019 mostró que los sistemas de reconocimiento facial tenían tasas de error más altas para personas de piel oscura, especialmente mujeres negras, debido a la falta de representación en los conjuntos de datos de entrenamiento.
  • Diseño algorítmico: la inteligencia artificial no es magia. Quienes diseñan y desarrollan los algoritmos y sistemas de IA pueden, con o sin intencionalidad, incorporar sus propios prejuicios en la creación de algoritmos. Las decisiones sobre cuáles variables incluir, cómo ponderarlas y de qué manera interpretarlas pueden influir en los resultados finales.
  • Interpretación y uso de resultados: incluso si un algoritmo es técnicamente imparcial, la forma en que se utilizan sus resultados puede conducir a prácticas discriminatorias.

La investigación de Tarcízio Silva aborda el impacto del racismo algorítmico en la visión computacional, destacando cómo los sistemas de inteligencia artificial (IA) y aprendizaje automático pueden perpetuar y amplificar prejuicios raciales a través de sus mecanismos de reconocimiento y clasificación de imágenes. Silva examina la construcción y expresión del racismo en la infraestructura online y las interfaces digitales, argumentando que tanto los algoritmos (el «back end») como las representaciones visuales y textuales (el «front end») son materializan estereotipos invisibles que afectan a grupos racializados.

A través de un análisis fundamentado en la Teoría Racial Crítica y estudios sobre la blanquitud, Silva propone un marco para comprender y desmantelar la opresión algorítmica, subrayando la necesidad de abrir las «cajas negras» de la tecnología para revelar y confrontar los sesgos raciales inherentes en los sistemas de visión computacional. Su trabajo resalta la importancia de abordar tanto los aspectos técnicos como los culturales y sociales en la lucha contra el racismo algorítmico, instando a una mayor diversidad e inclusión en los campos de la ciencia y la tecnología. 

El racismo algorítmico es un desafío significativo en la era de la IA. Es crucial que las personas en roles de desarrollo, investigación e, incluso, las usuarias sean conscientes de estos sesgos y trabajen activamente para crear algoritmos más inclusivos y equitativos. Esto implica diversificar los conjuntos de datos, y también cuestionar y revisar constantemente los supuestos subyacentes en el desarrollo de tecnologías. El fiasco de Google Gemini, por citar un ejemplo reciente, nos enseña que no se trata de corregir el racismo con más racismo, sino de desarrollar colectivamente algoritmos igualitarios.

La lucha contra el racismo algorítmico y la creación de tecnologías más equitativas se basa en un principio clave: aprender y enseñar cómo funcionan realmente los sistemas tecnológicos por dentro. Comprender el funcionamiento interno de los algoritmos y los sistemas de IA es esencial para identificar y corregir los sesgos y prejuicios que estos pueden perpetuar. Esto requiere un enfoque educativo y formativo que no solo se centre en las habilidades técnicas —necesarias para desarrollar y programar software— sino también en la sensibilización respecto de los impactos sociales y culturales de la tecnología. En este sentido, la educación en tecnología debe incluir un currículo que aborde la ética en IA, la justicia social y los estudios sobre el racismo y la discriminación, proporcionando a los estudiantes las herramientas para construir sistemas más justos y representativos.

Desde Latinoamérica y entre los grupos minoritarios, la creación de capacidades en tecnología es especialmente crucial para desafiar y cambiar las narrativas dominantes en el campo de la IA. Al empoderar a estos grupos para que participen activamente en el desarrollo tecnológico, se abre la puerta a una diversidad de perspectivas y experiencias que pueden informar y enriquecer el proceso de diseño de algoritmos.

Fomentar la inclusión de voces marginadas en la ciencia y la tecnología contribuye a reducir los estereotipos raciales y sesgos en los sistemas de IA, y promueve la creación de soluciones innovadoras que atienden a las necesidades y desafíos de todas las personas. Por último, construir una comunidad tecnológica inclusiva y diversa, en nuestra región y más allá, es un paso fundamental hacia la eliminación de estereotipos raciales y la creación de algoritmos que sirvan equitativamente a toda la sociedad.

Solo así podremos asegurar que la IA sea un aporte al desarrollo.

Aprende Inteligencia artificial con ayuda de la Inteligencia Artificial

Inteligencia Artificial: la promesa de más ideas y menos trabajo. Desde el texto para detallar una idea, hasta los fragmentos de código que componen una gran solución informática, todo se puede consultar con algún modelo de IA. Incluso, se ha pensado como un validador de ideas, por veces como la fuente principal de consulta.

Es verdad que los modelos generativos basados en el procesamiento de miles de datos son capaces de responder a una infinidad de preguntas sin llegar a garantizar la veracidad de sus respuestas, particularmente si se ven enfrentados con interrogantes que demanden análisis.  Esto es debido a que están diseñados para relacionar información según las entradas dadas por quienes lo usan.

En el caso de las ciencias exactas, estos modelos pueden ser un poco más precisos. Eso porque la complejidad de las entradas se reduce a especificar el tipo de operación y los valores con los cuáles trabajar. Por ejemplo, las operaciones aritméticas, cálculos físicos o desarrollo de código, abriendo nuevas posibilidades para la exploración curiosa y experta.

¿Es posible aprender IA con ayuda de la IA? 

Una manera de hacer tal exploración es preguntarse como utilizar la IA para aprender sobre la misma IA. Lo primero a tener en cuenta es la necesidad de escribir prompts o preguntas que contengan la información necesaria con claridad e intentando evitar que el sistema llegue a un exceso de datos.

La información que un modelo devuelve no es más que el contenido resultante de conectar parámetros según la instrucción dada. Por ejemplo, en las próximas dos cadenas se observan énfasis que harán que una IA devuelva resultados diferentes:

  • Describe un cielo estrellado
  • Describe un cielo estrellado como lo haría un poeta

En el segundo caso, se incluye un contexto que guía el estilo de la respuesta que se debe generar.

Sabiendo que la calidad de los resultados depende de la calidad de la pregunta, se puede preguntar al mismo modelo la mejor forma de escribir un prompt.

Así, aplicando la siguiente pregunta en diferentes modelos se pueden obtener recomendaciones: ¿cómo escribir un buen prompt para pedir ayuda a la IA?
Existen diferentes (y válidas) respuestas para esa pregunta:

  • ChatGPT: Necesito ayuda para solucionar un error de sintaxis en mi código Python. Estoy intentando escribir una función que calcule la suma de una lista de números, pero estoy recibiendo un mensaje de error ‘SyntaxError: invalid syntax’. ¿Puedes ayudarme a identificar y corregir el error?
  • Gemini: Genera un código que imprima ‘Hola mundo’. Escribe un resumen de este artículo, Ayúdame a encontrar una receta para un pastel de chocolate.

Teniendo en cuenta estas recomendaciones, se puede pedir a un modelo de IA ayuda para comprender las funciones que componen un fragmento de código, un proyecto open source, un API o el ejemplo publicado en la documentación de algún método de PHP.

Desde niveles macro hasta condiciones de bajo nivel, es posible obtener de los modelos de IA generativa explicaciones, sugerencias de cambios, mejoras, refactorizar y hasta recibir soluciones a distintos problemas.

Pero, ¿puede la IA explicar un modelo de IA?

La explicación dada a un método que forma parte de un modelo de IA contendrá información de tipos de datos que ingresan, tipos de datos de salida y el proceso que hace de los mismos.

Tener un modelo funcional no es lo único que requiere una IA. Eso también depende de los datos que integran su entrenamiento, el valor de estos, diversidad y otros factores que pueden incidir en las respuestas que genere. La calidad del algoritmo y de los datos son los factores determinantes de la calidad de las respuestas.

En la práctica, se propone un ejemplo sobre el modelo de Inteligencia Artificial generativa ChatGPT. Para empezar, se puede preparar el ambiente del chat indicando el tipo de comportamiento esperado, por ejemplo: Usted es un profesional de la informática. Responda sin ambigüedades, esto da un contexto y carácter a la conversación. Siguiendo la propuesta práctica: en el sitio web de ChatGPT se encuentra la documentación técnica útil para su implementación en desarrollos propios. Se puede usar al mismo modelo de lenguaje para comprender estos fragmentos.

Al tomar un ejemplo y pedir que explique su función devolverá una explicación general al respecto.

También, se puede pedir una explicación más detallada si fuese necesario

Explique el siguiente fragmento de código:
import OpenAI from "openai"; const openai = new OpenAI(); async function main() { const completion = await openai.chat.completions.create({ messages: [{"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "Who won the world series in 2020?"}, {"role": "assistant", "content": "The Los Angeles Dodgers won the World Series in 2020."}, {"role": "user", "content": "Where was it played?"}], model: "gpt-3.5-turbo", }); console.log(completion.choices[0]); } main();
¿Podría darme más detalles?

Lo anterior funciona si lo que se busca es entender el funcionamiento de modelos desarrollados permitiendo una comprensión de los métodos disponibles y los datos de entrada para así modificar.

Si lo que se quiere es desarrollar un modelo de IA, lo mejor quizá sea revisar documentación, libros o foros. Otra forma de hacerlo es usando IA. Definiendo el objetivo, el resto puede ser guiado con un modelo generativo. Desde la selección de una base de datos (o la preparación de esta) hasta las funciones y métodos que deberían conformar el desarrollo.

Necesito desarrollar un modelo de Inteligencia Artificial para reconocimiento facial con Python.
Da recomendaciones sobre el tipo de base de datos y librerías que debo utilizar.

.

¿Ahora quién programa?

Con la cantidad de proyectos de código abierto y ejemplos disponibles, los modelos son capaces de proponer soluciones reflejadas en código que se pueden probar en cualquier editor de código o en cuadernos de trabajo como Jupyter . Por ejemplo, al digitar la siguiente instrucción en un modelo de IA, el resultado será un fragmento de código funcional: 

Ayúdame a desarrollar el modelo, desarrolla las primeras funciones para que pueda
probarlas en Jupyter. 

Si el resultado no es claro se puede pedir una explicación detallada que ayude a mejorar la prueba obteniendo información sobre cada función y cada operación a realizar.

Por favor, explícame

Al probar otros ejemplos dentro del mismo chat, también se observa como el modelo se ajusta al tipo de respuesta que se pidió con anterioridad, lo que explica cómo los modelos siguen aprendiendo y usando ese aprendizaje. Así cada vez dará respuestas más efectivas en menos pasos.

Ayúdame a desarrollar un modelo para traducir documentos
-Ahora, código para usar en Jupyter
Vamos a desarrollar un modelo para el reconocimiento de voz
Ayúdame a desarrollar la arquitectura del modelo

Enseñando la IA

Los modelos de Inteligencia Artificial pueden ser comparados con infantes en su etapa de aprendizaje y al igual que ellos requieren que la información y/o datos que alimentan su instrucción sean de calidad, reales y que no incluyan sesgos.

Al usar un modelo de IA generativa proporcionando detalles importantes respecto al tipo de respuesta requeridas se obtendrán resultados más exactos y menos ambiguos.

Y lo más importante: la creatividad y las ideas siguen siendo humanas. Usar IA, lejos de ser una amenaza laboral debería convertirse en una alianza para efectivizar el trabajo, reducir esfuerzo y tiempo. Y poder seguir creando y pensando desde nuestra inteligencia natural.


	

Dominio público y deberes de autor

Internet es colonial. No hay ninguna novedad en ello ni tampoco drama en decirlo: es la principal razón por la que Mickey Mouse adquirió (más) protagonismo durante los primeros días de este año que comienza. La pérdida de protección por derechos de autor de Steamboat Willie (1928) que, en la práctica, marca su llegada al dominio público es tema porque así es, en efecto, en los Estados Unidos de América.

Nuestra región, provista de sus propias legislaciones sobre derechos de autor, ofrece algunas pistas sobre cómo se percibe este hito en la Mayoría Global: en Brasil, un buen ejemplo, la primera iteración de Mickey Mouse que protagoniza esta cinta es libre desde el 1 de enero de 1999; Bolivia, Argentina y Uruguay, en tanto, podrán contar con cuantas reproducciones de este ratón permita la creatividad humana, aunque bajo la figura de dominio público pago, es decir, de todas maneras hay que pagar una comisión, solo que esta no va a las arcas de Disney, la compañía, sino que al Estado, a través de una entidad de gestión cultural.

De estos temas nos encargamos usualmente en la Alianza para el Acceso Justo al Conocimiento, en asociación con Fundación Karisma, Fundación Vía Libre, InternetLab, Hiperderecho, Red en Defensa de los Derechos Digitales, Datysoc e IBDAutoral, y cuyo fin es defender y promover el dominio público y los bienes comunes culturales en América Latina. Las últimas noticias provenientes del norte sobre Mickey Mouse, sin embargo, permiten abrir el espacio de discusión sobre autores, titulares y gestoras hacia otros ámbitos. Uno de ellos tiene que ver con el actual panorama de los famosos derechos de autor, que los devela insuficientes para los desafíos del siglo XXI.

El afortunado

Alguna vez, un joven caricaturista de Chicago llamado Walt Disney, junto con el igualmente joven animador Ub Iwerks, fueron empleados de alguien. Por encargo de sus jefes, crearon a un conejo proclive a meterse en problemas y, a la vez, salir de estos gracias a su buena suerte. Oswald, su nombre en inglés, nació en 1927 y protagonizó un par de producciones con éxito moderado. Modesto y todo, sin embargo, dicho éxito despertó la codicia de un par de ejecutivos de la compañía distribuidora, Charles B. Mintz y George Winkler, quienes —según la versión más difundida— lograron hacerse con la propiedad intelectual del conejo.

Este suceso, dicen, es la génesis del ratón animado conocido en el planeta entero y actual rostro principal de una compañía multimillonaria. Su estreno es un hito tanto en la historia de la animación como en la del cine: es el primer cortometraje animado con sonido simultáneo. Como explica en esta entrevista un no-tan-joven Walt Disney, su proceso creativo implicó la sincronía, prolijidad y voluntad de un vasto equipo de artistas; no solo de dibujantes sino también de una orquesta completa que debió ejecutar tanto la música como los efectos sonoros del corto en tiempo real.

Lo que siguió es relativamente conocido: parques de diversiones, un imperio audiovisual cuya punta de lanza, hoy en día, es su plataforma de streaming, millones y millones de dólares generados por The Walt Disney Company. No obstante, entre toda esta maraña corporativa y las diversas alusiones que se han realizado en estos días al golpe que significaría, contra la avaricia de Disney®, la liberación de Steamboat Willie hay dos temas muy importantes: el primero es que las grandes producciones animadas de la compañía están inspiradas, de hecho, en obras que habitan el dominio público: Blanca Nieves, Pinocho y El Rey León son algunos de los ejemplos más ubicuos; el segundo es que, de acuerdo con documentos oficiales, el mismísimo Walt Disney solía decir que esperaba nunca perder de vista que todo comenzó con un ratón.

La autoría es una responsabilidad

Diversas definiciones del derecho de autor suelen relevar su función social para “alimentar la rueda de la creatividad”, al otorgar protección jurídica a los autores y creadores por el solo hecho de haber creado una obra, cualquiera sea su forma de expresión, ya sea literaria o artística, esté publicada o inédita. Así, suponen redacciones como esta, el resguardo legal que tienen las y los titulares les posibilita obtener beneficios morales y patrimoniales derivados de sus creaciones. Esta justa retribución fomentaría, entonces, el surgimiento de nuevos creadores, nuevas obras, etcétera.

No obstante, Mickey Mouse nació de un movimiento opuesto y de una apuesta osada. En 1928 no había forma de prever el éxito que tuvo Steamboat Willie. Del mismo modo, es evidente el parecido que hay entre este y su antecesor: hasta se podría esbozar que el primero es un remix del segundo. Azar o no mediante, la filosofía detrás del ejercicio de los derechos de autor, esto es, la presunta promoción de la creatividad humana al garantizar compensación económica y moral de lo que resulte de ella a sus ejecutoras, no tiene mucho sentido al presumir que la autoría —el arte, inclusive— es tan solo un medio para un fin.

En esta organización se ha defendido históricamente la necesidad de más derechos para que todas puedan participar de la vida cultural y la eficacia incomprobable del derecho de autor respecto del fomento de la creatividad. En el presente, como parte de la Alianza para el Acceso Justo al Conocimiento, lanzamos un Informe sobre Políticas de Inteligencia Artificial y Derechos de Autor en América Latina que subraya la necesidad de una excepción para utilizar grandes volúmenes de libros, artículos, imágenes, bases de datos y otros materiales protegidos por derechos de autor para la investigación académica mediante recursos como minería de texto y datos, y mecanismos de aprendizaje automático.

La entrega de una obra original al acervo cultural del planeta no debería contemplar solamente protecciones para su autor sino también responsabilidades. El concepto de uso justo tiene mucho que ver con esto: en un mundo ideal, la autoría no es una cuestión de vanidad; por el contrario, debería entenderse desde la generosidad. Aun cuando cualquiera puede ser titular de derechos de autor, no cualquiera llega a ser un autor. A su vez, si bien tales derechos protegen a personas naturales o jurídicas, su concepción anglosajona no alcanza para extender dichas garantías a grupos culturales, como es el caso al que se enfrentó el pueblo maorí en relación con la “propiedad” y destino de su lengua o lo discutido en Colombia, en 2013, a partir de un proyecto de Conocimiento Tradicional y Agrobiodiversidad que visibilizó los límites de la ley occidental en cuanto a la protección de saberes ancestrales. Este tema también es trabajado por Salvador Millaleo, en Chile, en la publicación Conocimiento Mapuche y Derechos de Propiedad Intelectual.  

Dominio público para todas las personas

No es posible afirmar ni negar que Walt Disney estaría de acuerdo (en 2024, si estuviera vivo) con el ímpetu litigante que caracteriza actualmente a su compañía, asidua a retirar contenido que infringe el derecho de autor en motores de búsqueda y plataformas. No obstante, y recordando los inicios de Disney®, sí se puede sostener que es el dominio público el que de todas maneras garantiza la regeneración y reproducción de la creatividad humana. Existe antes de la invención del derecho de autor, es para todas e internet —bien lo sabemos— es crucial en el acceso a y distribución de las obras que están amparadas en esta figura.

Hasta ahora, se han anunciado películas de terror y videojuegos de acción donde el protagonista, al igual que en esta columna, es el Mickey de Steamboat Willie. Con certeza surgirán muchas obras más cuya principal razón de ser, aventuramos a decir, es la fama del personaje, pero quién sabe los rumbos que tomará la creatividad y cómo terminará por trenzarse con el uso de la inteligencia artificial en las artes. La pregunta por si lo que deriva de un prompt o comando es titular de derechos, sin embargo, es materia para una columna aparte.

Será decisión de la humanidad, entonces, determinar dónde reside el poder y la responsabilidad que viene de la mano con la capacidad de crear, sea en sus autores, como ya se entiende hasta ahora, o desde el dominio público, como se levanta sin pausa desde los activismos de la cultura libre hace mucho tiempo atrás. En cuanto a Mickey Mouse, hemos de ver cómo actuará Disney, considerando su comportamiento previo, ahora que el inspirador de su marca es patrimonio de todas y que seguramente abrirá nuevos debates en torno a la frontera entre la propiedad industrial y los derechos de autor.

Finalmente, son imperativas más instancias donde se resuelva el destino del dominio público frente a esta encrucijada: si acaso terminará siendo nada más que un repositorio para modelos de inteligencia artificial generativa o si, de una vez por todas, los Estados asumirán el deber de invertir en preservarlo y expandirlo para el bien común.

El 2023 en retrospectiva: ¿qué fue de la defensa de los derechos humanos en la era digital?

De crisis en crisis

Parecería ser que no conseguimos salir de situaciones dramáticas. A la emergencia climática y las persistentes consecuencias económicas de la pandemia del COVID-19 y del capitalismo global, debemos sumar los constantes riesgos a nuestras frágiles democracias.

La crisis bélica con que terminó 2022 en lugares lejanos a América Latina, se esparció por el mundo, incluidas amenazas en nuestra región. La violencia en los territorios ocupados de Palestina se extendió al entorno digital, en forma de censura y acoso. A la vez, la atención de usuarias de redes sociales se volcó en solidaridad no solo con Gaza, sino también con el Congo y Sudán. Vimos protestas en toda la región, incluyendo la continuación de protestas contra el gobierno en el Perú, y el surgimiento de violenta represión contra las protestas en Panamá y Guatemala, además del escenario que hoy se abre en Argentina.

A pesar de los cuestionamientos a las plataformas sociales como espacios de desinformación y frivolidad, internet sigue siendo  un lugar para el activismo, la denuncia de violaciones de derechos humanos y el periodismo.

Más tecnologías, más vigilancia

En América Latina pasamos de un año marcado por la vigilancia mediante tecnologías a un año en que, bueno, sucedió lo mismo y a menudo peor. La repetida historia de la vigilancia a través de Pegasus tuvo nuevas revelaciones sobre espionaje en México, El Salvador (a una jueza en una extensión de las revelaciones de 2022) y República Dominicana. Y más spyware fue detectado en México.

A ello se suman los riesgos de moverse de un lado a otro en un cuerpo tangible, en una región con creciente adopción de sistemas de vigilancia biométrica. San Pablo, en Brasil, anunciaba una adquisición millonaria de un nuevo sistema de vigilancia pese a las victorias contra sistemas de reconocimiento facial en el pasado reciente; el transporte público en Bogotá y la policía en Medellín anunciaban nuevas capacidades en Colombia; el nuevo gobierno argentino anunció vigilancia de rostros para identificar y castigar a participantes en protestas. La biometría siguió su expansión para los movimientos entre países: organizaciones de sociedad civil denunciaron el uso en fronteras y sobre personas migrantes. Y mientras en Ecuador se fortalecen capacidades con fines de seguridad y hasta la figura de un agente encubierto digital, languidece la esperanza de hacer aplicable la ley de datos personales aprobada hace años.

Expresión y protesta bajo asedio: dentro y fuera de internet

La situación argentina, una de las secuelas de la elección presidencial de fines de 2023, es parte de una fuerte acción gubernamental contra la protesta social, que merecerá cercana atención en 2024. Con la misma preocupación por la capacidad de trabajo en asociaciones de sociedad civil levantamos la alerta por la regulación de organizaciones en Venezuela.

Vimos  aumentar y profundizarse parte de la discusión sobre desinformación, acentuada en nuestra región por actos de violencia en Brasilia a principios de año, con la preocupación adicional por la desinformación política en ese país. Mientras tanto, en Chile se inauguraba una comisión experta para formular recomendaciones pese a la incertidumbre sobre el real efecto de las mentiras digitales. El traslado de la preocupación hacia una discusión más amplia sobre la regulación de empresas de internet también tuvo énfasis en Brasil, donde el proyecto de ley que partió como uno sobre fake news se convirtió en un debate mayor sobre la regulación de plataformas digitales.

Una importante sentencia de la Corte Constitucional en Colombia, dio importantes luces sobre el rol del Estado en la garantía del acceso a internet, como elemento crucial en el ejercicio de derechos fundamentales.

Nuestra seguridad en el marco vigente de derechos humanos como la referencia directa para exigir deberes de los Estados se mantiene firme, por lo que seguiremos trabajando en el reconocimiento institucional de aquello que sabemos que son nuestras prerrogativas como titulares de derechos fundamentales.

Tecnologías para todas

Sabemos que hay un fuerte énfasis en producir nuevas formas de gobernanza para la inteligencia artificial, incluyendo esfuerzos regulatorios en la región. También nuestro trabajo de este año dio cuenta de la necesidad de integrar perspectivas feministas al desarrollo tecnológico, y publicamos un informe en la materia con contribución significativa de especialistas de toda América Latina, además de coorganizar un taller sobre justicia de datos para recabar más perspectivas de personas expertas de la región.

Nuevas actividades dentro de nuestra línea programática sobre inteligencia artificial e inclusión se proyectarán hacia los próximos años para dar cuenta de la necesidad de aprovechar la oportunidad histórica de incidir en el desarrollo tecnológico futuro, con respeto a la democracia, los derechos fundamentales, el medio ambiente, y la inclusión. Es cierto que la tecnología es una fuente de riesgos y oportunidades, pero materializar estas últimas requiere una actitud vigilante y proactiva.

Solidaridad en tiempos de crisis

Este año, el trabajo de Derechos Digitales se vio fuertemente marcado por nuestra dedicación a la colaboración y el fortalecimiento de la sociedad civil en toda la región. Condujimos regionalmente acciones dentro del proyecto Greater Internet Freedom, para generar evidencias, reforzar activismo y construir capacidades en varios países de la región, dando lugar así a la publicación de una nueva versión de Latin America in a Glimpse, dedicada la conectividad en distintas áreas de la Amazonía.

También apoyamos financieramente al trabajo de activistas en la región, entregando fondos a 20 iniciativas de 13 países de la región, a través de nuestro Fondo de Respuesta Rápida y nuestro nuevo Fondo de Derechos Digitales, cuyo sistema de gestión sigue recibiendo el registro de postulantes y de proyectos. Apoyamos la formación de capacidades para personas en etapas iniciales o con interés en el trabajo por los derechos digitales, mediante un curso introductorio a fines del año. Examinamos el rol de la evaluación en el trabajo del activismo de sociedad civil.

Este año, inauguramos el Programa LaREDD, para la resiliencia y la defensa digital, mientras mantenemos nuestro trabajo de formación de confianza con personas expertas en seguridad digital en la región. Recibimos al primer par de pasantes con énfasis de inclusión en materias de seguridad y resiliencia digitales.

Fuimos parte del lanzamiento de una nueva Red Global para la Justicia Social y la Resiliencia Digital. Mantuvimos nuestra participación en nuestras múltiples redes, como el consorcio AlSur, la Asociación para el Progreso de las Comunicaciones (APC), IFEX, la Global Network Initiative (GNI), el Movimiento para una Mejor Internet (MFABI), la Red de Datos para el Desarrollo (D4D) y más.

Creemos en la cooperación como vía para el fortalecimiento mutuo, y seguiremos en ese camino.

Los desafíos globales de 2023 y 2024

Nuestra misión regional reconoce la necesidad de poner atención en procesos y eventos globales relacionados con los derechos humanos en la sociedad digitalizada. Seguimos con fuerte involucramiento en lugares como: el Comité Especial que discute un nuevo tratado de cibercrimen en el Tercer Comité de la ONU; el Grupo de Trabajo de Composición Abierta del Primer Comité, dedicado a la seguridad y el uso de las tecnologías, especialmente por los Estados. Continuamos el seguimiento de procesos en foros técnicos que inciden en el desarrollo de las redes y el impacto de las mismas en las posibilidades de los derechos humanos; la atención a tratados de libre comercio que por la vía del intercambio comercial pueden comprometer los derechos de las personas o transarlos por ventajas económicas.

También en  la Comisión de la Condición Jurídica y Social de la Mujer de la ONU, dedicada a las tecnologías y la superación de las brechas; en el seguimiento de las discusiones en la Organización Mundial de la Propiedad Intelectual con posible impacto en el futuro del acceso al conocimiento; todo sumado a la atención dada a espacios como la UNESCO y sus iniciativas en IA y en gobernanza de plataformas, el Foro de Gobernanza de Internet, la Freedom Online Coalition, y mucho más.

En 2024 seremos testigos de la celebración de una Cumbre para el Futuro, organizada por Naciones Unidas, que incluirá un Pacto Digital Global, cuya elaboración ha traído múltiples preocupaciones para una sociedad civil global con renuencia a dejar el futuro digital a la decisión entre estados. Sabemos que se trata de una oportunidad de retomar el futuro a favor de los derechos humanos, por sobre los intereses gubernamentales.

Y en todos estos espacios, actuales y futuros, locales y globales, confiamos en el poder de la sociedad civil para cambiar la sociedad. La defensa de una perspectiva latinoamericana de los derechos humanos en la era digital requiere también la visibilización de la misma en múltiples espacios, gubernamentales e intersectoriales, con alcance global y con solidaridad transregional con el resto de la Mayoría Global.

El 2024 será un intenso año electoral, incluso para varios países de la región. Estaremos atentas a los procesos de cambio y a las posibles amenazas a nuestras democracias.

También, con una preponderancia de las personas, como tú y yo, y de grupos y comunidades, como todas nosotras, como verdaderas agentes de cambios que no tengan al poder estatal o empresarial como los grandes ganadores del futuro. Puedes confiar, como siempre, que desde Derechos Digitales seguiremos trabajando para que el futuro sea de todas.

Derechos humanos, placeres artificiales: sobre la necesidad de pensar a la humanidad en entornos digitales

Hace casi una década, se popularizó el concepto de «valle inquietante», traducción aproximada de uncanny valley. Se trata de cierta incomodidad en las personas ante androides altamente realistas o, mejor dicho, de la respuesta emocional que provoca la apariencia “casi humana” de un robot. Luego, en 2017, un usuario de Reddit con el seudónimo «deepfakes» subió contenido audiovisual lascivo con los rostros de Emma Watson, Jennifer Lawrence y otras celebridades.

Sin saberlo, bautizó a uno de los fenómenos más perturbadores del último tiempo. Actualmente, el 98% de todas las imágenes simuladas a través de sistemas de inteligencia artificial consisten en pornografía, de acuerdo con datos de un estudio de Home Security Heroes.

Si bien el material publicado por el original “deepfakes” se basaba en una técnica rudimentaria llamada faceswapping, en pocos años, el avance de la tecnología transformó aquello que resultaba inquietante en algo casi indistinguible de la realidad.

Con la popularización de tales tecnologías, la violencia de género facilitada por las tecnologías encontró su herramienta perfecta. En la plataforma Discord y, a través de Midjourney, un prompt (enunciado con términos clave) puede hacer casi realidad cualquier retrato ficticio de otra persona, con o sin su autorización. “Casi” pues, a pesar su sofisticación, esta tecnología no es perfecta: sutilezas como los pequeños pliegues de los dedos de las manos o el iris del ojo son demasiado humanas para la máquina. Aun así, el uso de prompts para generar imágenes pornográficas no consentidas no dejará de ocurrir, ya que siempre habrá consumidores de este tipo de material a quienes podrían escapárseles tales matices. La misma gracia que está fuera del alcance de la inteligencia artificial también está ausente de la percepción de este segmento.

Nuevas tecnologías, violencias antiguas

América Latina no ha estado excluida del avance de este tipo de violencia. En octubre de 2023, un grupo de estudiantes del Instituto Politécnico Nacional (IPN) de México, específicamente de la Escuela Superior de Comercio y Administración (ESCA), denunció a uno de sus compañeros, Diego N, por violencia digital, porque utilizó inteligencia artificial (IA) para alterar y crear imágenes sexuales de las estudiantes y comercializarlas a través de grupos de Telegram. Estas imágenes fueron creadas a partir de fotografías de las redes sociales. Luego de una investigación, se dio a conocer que el dispositivo del estudiante contenía alrededor de 166 mil fotografías y 20 mil videos, tanto reales como modificados con IA. Alrededor de 40% del contenido estaba relacionado con alumnas del IPN.

Además de la denuncia y expulsión del estudiante del IPN, se inició una investigación y un proceso legal en la fiscalía general de Justicia de la Ciudad de México. Al tratarse de un caso de violencia digital, las estudiantes apelaron a la Ley Olimpia, que tipifica como delito la difusión de imágenes de contenido sexual sin consentimiento.

La ley Olimpia ha sido utilizada en diversos casos en los estados de la república, pero esta vez toma una relevancia distinta por tratarse de una nueva tecnología utilizada para efectuar el delito, la IA. A pesar de la existencia de tal marco de protección, la diputada Guadalupe Morales confirmó que propondrá una iniciativa de ley para que se modifique el Código Penal de la Ciudad de México integrando una redacción que haga alusión los “deepfakes porno” como delitos contra la intimidad sexual.

La pregunta que queda es hasta cuándo será necesario criminalizar nuevas tecnologías y nuevos usos de tecnologías para intentar detener un tipo de violencia que tiene profundas raíces sociales.

En México, 70.1% de las mujeres mayores de 15 años han sufrido alguna forma de violencia a lo largo de su vida, de acuerdo con la última Encuesta Nacional sobre la Dinámica de las Relaciones en los Hogares del 2021. Casi la mitad de las mujeres han sufrido violencia sexual y más de un tercio alguna forma de violencia física. Más que un fenómeno nuevo y aislado, las deepfakes agregan una capa más en un contexto de máxima preocupación.

No hay vuelta atrás

«Todos los seres humanos nacen libres e iguales en dignidad y derechos y, dotados como están de razón y conciencia, deben comportarse fraternalmente los unos con los otros» reza el primer artículo de la Declaración Universal de Derechos Humanos – que cumple 75 años el próximo 10 de diciembre. Libres e iguales implica que todas las personas nos debemos respeto mutuo. La facilidad con la que las nuevas tecnologías proveen medios para vulnerar estas premisas nos obliga a darle más vueltas a los estándares mínimos que nos otorga la condición humana y sientan las bases para la convivencia en sociedad.En el ámbito físico (offline) de la vida, los límites deberían ser más claros: desde la postura corporal hasta la vestimenta, hay diversas estrategias para marcar distancia o proximidad de acuerdo con la voluntad de cada persona.

En el entorno digital, no obstante, las deepfakes derriban por completo dichas barreras. Además, y aunque correlación no implica causalidad, los datos son decidores: las nuevas generaciones reportan mayores índices de soledad que las anteriores, desarrollándose su vida social mayoritariamente en línea.

Las tácticas en el corto plazo para dar cuenta de este fenómeno pasan necesariamente por una educación sexual que promueva la equidad de género. Por otro lado, es necesario incluir una perspectiva interseccional de género al desarrollo de políticas públicas y a nivel legislativo: eso incluye las regulaciones sobre el tratamiento de datos personales. Además, en las discusiones sobre leyes de inteligencia artificial, es fundamental garantizar la participación efectiva de mujeres y personas LGBTQIA+, así como contar con evidencias específicas que ayuden a identificar abordajes efectivos y contextualizados para responder a las distintas formas de violencia.

Hay un importante avance en el reconocimiento de los derechos humanos desde la adopción de la Declaración Universal de los Derechos Humanos. Su carácter de universal implica que se aplica para todas las personas, sin excepción. Sin embargo, las brechas que persisten en su aplicación después de 75 años afectan particularmente las personas históricamente marginalizadas. La difusión de imágenes íntimas alteradas por medio de tecnologías de IA es una forma nueva de una vieja táctica que busca mantener un status quo en que las mujeres no tienen calidad de humanas y no pasan de meros objetos: sin derechos, sin agencia y plenamente manipulables según los deseos de terceros.

Desafortunadamente para quienes desean mantener controlada y sumisa la mitad de la población mundial, eso ya no es posible. No sólo está el sistema de derechos humanos como mecanismo de protección estable y consolidado, sino que también el movimiento feminista ha logrado visibilizar y denunciar vulneraciones y apropiarse de distintas tecnologías – no solo digitales – para protegerse, ejercer solidaridad y potenciar sus mensajes y luchas.

Como recuerdan los masivos movimientos desde América Latina, ninguna forma de violencia puede silenciar la voz colectiva que dice “ni una menos”. Frente al intento de retroceder, falta que los Estados e instituciones se comprometan, efectivamente, con un mundo más justo, equitativo y libre de violencia. Para todas, todos y todes.

 

América Latina ante la inteligencia artificial: mapeo de iniciativas regulatorias en la región

Alineada con las tendencias internacionales, América Latina ha hecho esfuerzos significativos por desarrollar principios y reglas para la inteligencia artificial (IA). En un primer momento, múltiples gobiernos desarrollaron instrumentos regulatorios a partir de la creación de estrategias, planes, o la adhesión a principios internacionales como los Principios de IA de la OCDE o los Principios de la Ética de la IA de UNESCO. Sin embargo, cambios de gestión gubernamental interrumpieron algunas de estas iniciativas, dada su relativa institucionalidad.

De manera paralela a la elaboración de estos instrumentos, la región también comenzó procesos para legislar sobre la implementación de IA a nivel parlamentario. Tales procesos no involucran prerrogativas emanadas desde el poder ejecutivo. En cambio, al estar en manos del poder legislativo, demandan un debate entre parlamentarios y, con ello, la creación de consensos políticos que estén en sintonía con los entramados normativos nacionales.

A continuación, repasamos la trayectoria normativa latinoamericana: desde las estrategias de IA de algunos países, hasta la revisión de algunos de los proyectos de ley que se discuten actualmente.

Estrategias de IA

Uno de los hitos que marca el inicio del proceso de regulación de la IA se encuentra en las estrategias y planes de IA publicadas entre 2019 y 2021 por gobiernos como los de Argentina, Brasil, México y Uruguay. Estas acciones fueron impulsadas desde los poderes ejecutivos de la región y buscaron dar un marco de referencia para el uso de este tipo de tecnologías.

Aun cuando, en varios casos, dichas políticas contemplaron una etapa de consulta pública, hemos identificado algunas falencias de los Estados en garantizar una discusión plural e inclusiva de forma efectiva al definir prioridades estratégicas en IA. Entre ellas están la falta de inclusión efectiva de grupos históricamente marginalizados y de mecanismos de transparencia que permitan comprender de qué manera se consideraron los comentarios presentados.

Algunas de estas iniciativas no encontraron continuidad para su implementación y, además, fueron criticadas por su falta de rumbo por defectos en la coordinación o ausencias de líneas de acción claras como para llevar el título de “estrategias”. Es que estas políticas, pese a basarse en procesos participativos y antecedentes internacionales como los Principios para la IA de la OCDE, fueron plasmadas en resoluciones administrativas –en buena parte de los casos– con una solidez institucional relativa. Además, carecían de métricas claras que permitieran el monitoreo de su implementación.

Así, estas limitaciones otorgaron mayor relevancia al debate legislativo. A la vez, y contando sus imperfecciones, la discusión y la posterior formulación de estas estrategias sentaron un precedente para los debates parlamentarios.

Discusiones legislativas para la regulación de la IA

Brasil

Desde 2019, han sido presentados muchos proyectos de ley en materia de IA. Los principales fueron los PLs 5.051/2019, 21/2020, y 872/2021. En 2021, la Cámara de Diputados brasileña aprobó el PL 21/2020, que contiene disposiciones sustentadas más en principios que en prerrogativas específicas, y que ha sido motivo de críticas por parte de la sociedad civil. A contar de la llegada de este proyecto en el Senado Federal, fue establecida una comisión de juristas para lograr un proyecto unificado, en conjunto con otros ya en tramitación en esta casa legislativa.

El extenso reporte final presentado por la comisión resultó en el desarrollo de un cuarto proyecto de ley, el PL 2338/23, presentado por el presidente del Senado y actualmente en discusión paralela a los demás proyectos sobre IA. Pese a que fue ideado como una continuidad de las discusiones previas, el PL 2338/23 guarda importantes diferencias con relación al proyecto aprobado por la Cámara.

Influenciado por los debates alrededor del AI Act europeo, el PL 2338/23 presenta un enfoque fundamentado en riesgos, en función de una tipología establecida en el proyecto mismo, además de crear derechos y determinar la creación de una autoridad centralizada de IA que debería ser apuntada por el Poder Ejecutivo y trabajada en conjunto con las demás autoridades sectoriales. Sobre el modelo de riesgos, el PL determina que, a mayor riesgo, mayores las obligaciones que corresponden a quien implemente este tipo de tecnologías. El proyecto es apoyado por la Coalición de Derechos en la Red, que lo considera un paso importante hacia el equilibrio entre el establecimiento de derechos y herramientas de gobernanza.

Chile

La discusión parlamentaria se centra en el Boletín 15869-19: un proyecto de ley que regula los sistemas de IA la robótica y las tecnologías conexas en sus distintos ámbitos de aplicación. El mismo ingresó en la Cámara de Diputados durante abril de 2023 y se encuentra en “primer trámite constitucional”, que es la forma en la que Chile denomina el proceso de discusión de un proyecto de ley donde fue presentado originalmente, sea en la Cámara de Diputados o en el Senado.

Tal como señala el texto en sus “considerandos”, el proyecto adopta un sistema de riesgos basado en la discusión existente en el parlamento de la Unión Europea. El proyecto contempla la creación de una Comisión Nacional de Inteligencia Artificial, y establece obligaciones para desarrolladores, proveedores y usuarios de sistemas de IA. Además de este proyecto, hay dos iniciativas, de orden punitivo, que buscan modificar el Código Penal. Se trata de los boletines 15935-07, para sancionar el mal uso de la inteligencia artificial (ingresado el 15 de mayo de 2023) y el 16021-07, que busca incorporar, como circunstancia agravante de la responsabilidad, el uso de inteligencia artificial en la comisión de un delito (ingresado el 13 de junio de 2023).

Costa Rica

El proyecto costarricense, que tomó cierta notoriedad en distintos medios por comenzar con una introducción realizada por ChatGPT, se encuentra en discusión en la Comisión de Tecnología y Educación de la Asamblea Legislativa de la República de Costa Rica, órgano unicameral del Poder Legislativo. Este proyecto, en trámite bajo el Expediente 23771, afirma desde su primer artículo su foco en la “protección y promoción de la dignidad, los derechos humanos y el bienestar de la persona humana”.

Si bien el proyecto habla de la existencia de riesgos, su abordaje no establece una tipología como los proyectos mencionados anteriormente. Su Capítulo VII se enfoca particularmente en la “Protección de los Derechos Humanos en la Regulación de la Inteligencia Artificial”, donde se establecen disposiciones sobre no discriminación, privacidad y protección de datos personales, transparencia y explicabilidad, acceso a la justicia, entre otras. El proyecto obliga a desarrolladores y usuarios de sistemas de IA a realizar evaluaciones de impacto en derechos humanos antes de su implementación. Estas evaluaciones, afirma el proyecto en su artículo 16, “deberán identificar y mitigar los posibles riesgos y efectos negativos en los derechos fundamentales de las personas”.

Rumbos posibles

La existencia de estos proyectos de ley no implica que vayan a ser aprobados tal como fueron formulados, o que presenten una continuidad en el debate parlamentario con regularidad. Sin embargo, presentan instrumentos que pueden modificar la gobernanza de estas tecnologías, como la creación de autoridades específicas o la obligación de generar evaluaciones de impacto.

También cabe resaltar la influencia que tienen en el debate parlamentario iniciativas internacionales como el proyecto de ley de Inteligencia Artificial del parlamento europeo, la IA Act, cuyo enfoque basado en riesgos sirvió de inspiración para la creación de algunos de los proyectos mencionados. La sanción de esta ley, aún en discusión, puede modificar el panorama y sentar un precedente de gran influencia para otros países latinoamericanos.

Por último, es necesario destacar que, más allá de estrategias y proyectos de ley específicos, la gobernanza de la IA incluye un conjunto de normas e instituciones que abarcan, incluso, el acceso a la información y la protección de datos, entre otras, que son cruciales para garantizar transparencia en su implementación y el respeto a los derechos de las personas potencialmente afectadas negativamente por ella. En ese sentido, es llamativo que países que aún no cuentan con marcos de protección de datos adecuados intenten legislar sobre IA.

Frente al avance de las discusiones internacionales sobre la regulación de IA, es fundamental que legisladores y legisladoras de América Latina estén atentas a las recomendaciones emitidas por autoridades y órganos de derechos humanos. Probablemente, 2024 sea un año donde estas discusiones avancen de la mano los avances tecnológicos en la potencialidad de estas tecnologías, sobre las que vemos novedades día a día. Estaremos atentos, monitoreando la evolución de los debates a nivel nacional.

Regulación de IA: los derechos humanos primero

En las últimas semanas fuimos inundados por debates sobre la regulación de la inteligencia artificial en diversos frentes. Un acuerdo de las grandes potencias sobre un código de conducta para las empresas que trabajan con IA, los riesgos y retos del uso de la IA para la seguridad y la paz social, y cómo afecta la IA generativa a los derechos de autor son algunos de los temas que han circulado en estos días. En los más diversos foros mundiales, como el Consejo de Seguridad de la ONU, el Grupo de los 7, el Grupo de los 20, la UNESCO, la Organización Mundial de la Propiedad Intelectual (la OMPI) y docenas de otras instiancias, la cuestión está aflorando a la superficie, como demuestra el reciente mapeo de Lea Kaspar, Maria Paz Canales y Michaela Nakayama.

En cierta medida, los diferentes debates se conectan y se solapan, pero también se integran a la maraña que conforman las referencias del derecho internacional en esta temática, como los principios de la OCDE y las recomendaciones de la UNESCO sobre la IA. Sin embargo, es urgente que este debate se base en los derechos humanos, tomando como ejemplo los recientes avances del Consejo de Derechos Humanos de la ONU, que deberían formar parte central de la discusión sobre cualquier regulación de la IA.

¿Discusión “Global”? Preocupaciones en torno a la participación desbalanceada

Las intenciones de la ONU de abordar la cuestión más general de la inteligencia artificial son cada vez mayores. Recientemente, Antonio Gutérres anunció la creación de un órgano asesor sobre IA que, paradójicamente, cuenta con una escasa participación de miembros de la sociedad civil y una sobrerrepresentación de las empresas tecnológicas. De este desequilibrio ha dado buena cuenta Juan Carlos Lara, quien argumenta que este órgano asesor deja en manos de quienes «más se benefician de las ventajas económicas de la IA» un papel preponderante en las recomendaciones sobre dicha gobernanza global, frente a quienes más sufren los efectos negativos de la IA, que es precisamente la sociedad civil.

Sin embargo, la falta de participación no solamente ocurre en el órgano asesor de la ONU, sino también en otros espacios como en las discusiones sobre el Pacto Digital Mundial, que sirve de preparación para la Cumbre del Futuro, evento que reunirá a líderes mundiales en Nueva York para “forjar un nuevo consenso internacional a fin de mejorar el presente y salvaguardar el futuro”.

En una carta, firmada por más de 30 organizaciones de la sociedad civil, se alerta sobre la falta de oportunidades de intervención de este sector, en tanto la palabra se concedió mayoritariamente a los Estados miembros, las agencias de la ONU y el sector privado, en detrimento de las organizaciones de derechos humanos de la sociedad civil durante las discusiones temáticas en línea. Lamentablemente, como afirma Gina Neff, «hemos visto cómo estas empresas se las arreglan hábilmente para establecer los términos de cómo debe ser el debate».

Riesgos inaceptables para los derechos humanos

Además de la participación, también es necesario pensar en las líneas sustantivas de estos procesos. En las últimas dos sesiones del Consejo de Derechos Humanos de la ONU, se han actualizado dos resoluciones de gran importancia. Así, las resoluciones se suman a otro importante texto aprobado por la Asamblea General de la ONU a finales del año pasado, siguiendo con fuerza una tendencia que hemos observado con anterioridad.

Tanto la resolución sobre nuevas tecnologías como la resolución sobre privacidad consolidan la necesidad de abordar a la IA desde la perspectiva de los derechos humanos. A pesar de constituir avances importantes en términos de resaltar riesgos inaceptables para los derechos humanos, estas resoluciones no son lo suficientemente explícitas a la hora de condenar el uso de la IA cuando a priori no cumplen con normativas de DD.HH., y cuya venta e implementación debe de ser prohibida o estar sujeta a una moratoria, conforme ya lo ha expresado mediante una resolución emitida por Michelle Bachelet, anterior Alta Comisionada de la ONU.

Un ejemplo claro de esto es que, si bien la resolución de privacidad deja claro que la utilización de medidas de reconocimiento facial de “vigilancia biométrica” suscitan gran preocupación en cuanto a su carácter de proporcionalidad, la resolución pierde a oportunidad de condenar la aplicación de IA en los sistemas de reconocimiento facial, dejando en manos de los Estados garantizar que la utilización de este tipo de tecnología no permita una “vigilancia masiva o ilegal”. Esto es especialmente preocupante, considerando las crecientes denuncias de vigilancia estatal en la región y a nivel global.

Sobre este punto, es importante hacer referencia al importante caso de reconocimiento facial promovido por el Observatorio Argentino de Derecho Informático (O.D.I.A) y el Centro de Estudios Legales y Sociales (CELS) resuelto recientemente por los tribunales argentinos. En 2020, tras una acción de amparo colectiva presentada por el O.D.I.A. mediante el cual se puso en discusión la constitucionalidad y convencionalidad de las normas que implementaron el sistema de reconocimiento facial en la CABA, se declaró la inconstitucionalidad del uso del sistema de reconocimiento facial por no haberse dado cumplimiento a los recursos legales de protección de los derechos personalísimos de la ciudadanía. Entre varias cuestiones, el fallo nota que el sistema se usó de manera ilegal para buscar a más de 15 mil personas que no estaban en la lista de prófugos del sistema de Consulta Nacional de Rebeldías y Capturas (CONARC). Además, la sentencia en cuestión recomienda cuestiones fundamentales como la necesidad de promover la transparencia y la explicación adecuada de los sistemas de IA, debiéndose considerar todo el ciclo de vida del sistema de IA.

La transversalidad de género, protección de datos e inteligencia artificial

Parte de la necesidad de colocar a los derechos humanos como centro de las discusiones alrededor de la implementación de sistemas de IA tiene que ver con el deber de considerar los impactos diferenciados de género que éstos causan.

En ese sentido, como ha sido constatado en la contribución conjunta sobre género presentada en el marco de las discusiones del Pacto Digital Mundial, para que los derechos de todas las personas puedan ser respetados de igual forma en el ecosistema digital global se requiere una protección efectiva y absoluta frente a la persecución, la discriminación, el abuso y la vigilancia; asegurar la igualdad de acceso a la información, las oportunidades y la comunidad, e igualdad de respeto a la privacidad, la identidad, la autoexpresión y la autodeterminación.

En la reciente resolución sobre privacidad, referida anteriormente, se realizan importantes avances en la materia. Por un lado, reconoce que las mujeres y niñas experimentan vulneraciones específicas en base al género a su derecho a la intimidad como parte de una desigualdad estructural que tiene efectos específicos en género, en tanto la implementación de tales sistemas puede reproducir, reforzar e incluso exacerbar las desigualdades raciales de género. Por otro lado, insta a los Estados a desarrollar e implementar políticas con perspectiva de género, a la par que alienta a todas las partes interesadas a que incorporen una perspectiva de género en la conceptualización, el desarrollo y la aplicación de las tecnologías digitales y las políticas conexas, y a que promuevan la participación de las mujeres para hacer frente a la violencia y la discriminación contra todas las mujeres y niñas que se producen a través del uso de la tecnología o son amplificadas por ella, instando a las empresas de tecnología digital, incluidos los proveedores de servicios de Internet, a que respeten las normas y apliquen mecanismos de información transparentes y accesibles.

Si bien celebramos dichos pronunciamientos, los que consideramos esenciales para el abordaje de esta problemática, observamos con preocupación que, tal como notamos en el análisis de la resolución proveniente de las discusiones del CSW67 del presente año, hay ausencias que implican retrocesos. En ese sentido, preocupa que el texto evite incluir a personas LGTBIQ+ en el ámbito de protección, considerando que esta exclusión tiene la potencialidad de profundizar desigualdades sobre una comunidad que ha sido históricamente vulnerada debido a cuestiones —relacionadas con desigualdades de género— y de legitimar políticas públicas discriminatorias.

A su vez, y en conexión con señalado previamente, aun cuando se reconoce el impacto negativo de la implementación de la IA sobre grupos en situación de vulnerabilidad, especialmente considerando factores de raza y género, las recomendaciones tenían la potencialidad de condenar la implementación de sistemas que ya han probado reproducir y profundizar desigualdades estructurales en ese sentido y de establecer líneas claras de protección que pongan foco en la obligación estatal de dotar protección efectiva de datos, entre otras cuestiones.

2024: agenda llena de acciones, altas expectativas

Los próximos pasos son aún inciertos y podrían conducir a una situación paradójica: las resoluciones aprobadas apuntan a la necesidad de más estudios y mayor acción efectiva en temas como la discriminación, la necesidad de regionalizar el tema, así como recomendaciones sobre cómo abordar el problema dentro del sistema de la ONU. No obstante, con la aprobación del órgano consultivo sobre IA, se han generado muchas prisas en toda la ONU. Todo ello para finalizar el trabajo en unos meses, de modo que esté listo a tiempo para la Cumbre del Futuro en septiembre del próximo año en Nueva York, donde todo lo relacionado con el Pacto Mundial Digital tendrá particular protagonismo.

Los pequeños (pero importantes) pasos que estamos dando en relación con la privacidad, los datos personales y la IA no pueden estar fuera de la concepción de esta discusión. El trabajo en curso de la Oficina del Alto Comisionado y de varios países que forman parte del Consejo de Derechos Humanos, llevado a cabo con la participación de diversas organizaciones de la sociedad civil, deberían ser un punto de partida fundamental para tomar medidas contra las repercusiones en los derechos humanos del uso indebido de los sistemas de IA por parte de Estados y empresas. La participación amplia de la sociedad civil también es un requisito necesario para esta discusión y, por nuestra parte, seguiremos en estos espacios para ampliar la voz de la sociedad latinoamericana.

Sin comunidad no hay comunes

El penacho del emperador Moctezuma da cuenta de la grandeza que alcanzó el imperio mexica. Consta de plumas azules, rosas, marrones y verdes, además de intervenciones de oro y piedras preciosas. Actualmente, se encuentra en el Museo de Etnología de Viena. Se dice que fue un regalo hecho por Moctezuma a Hernán Cortés, conquistador de México, razón por la que está en Europa. También se comenta que las noticias de su existencia datan de 1596, cuando fue hallado en la colección privada del archiduque Fernando II de Tirol.

Sea cual sea el caso, el penacho reside en un museo de Austria, cuyo boleto cuesta 17 dólares, y es promocionado como una atracción turística de ese país. El gobierno mexicano ha intentado traerlo de vuelta en 1991, 2011 y 2020. Sin embargo, científicos se han opuesto a este traslado debido a que las vibraciones propias de un largo periplo conllevan el riesgo de provocarle daños irreparables. Por lo tanto, se estima que es mejor que se quede donde está.

En el Museo Nacional de Antropología (MNA) de Ciudad de México es posible encontrar, entre su vasta colección, una réplica de la pieza. En este museo también está el monolito original de Tláloc, dios de la lluvia originario de los toltecas. La escultura fue descubierta en una localidad al sur de México y, tras negociaciones y conflictos con la población de San Miguel Coatlinchán, finalmente fue arrancada del lugar en 1964 para ser expuesta en la entrada del MNA. El boleto de este museo cuesta 5 dólares.

Ambas anécdotas evidencian la compleja relación entre cultura, patrimonio y poder, que se expresó igualmente en el desarrollo del Summit de Creative Commons (CC), realizado en Ciudad de México entre el 3 y el 6 de octubre. La edición de este año retomó por primera vez el formato presencial después de cuatro años y tuvo como tema central el advenimiento de la inteligencia artificial y su impacto en los bienes comunes.

No importa el momento histórico, ni el soporte físico, ni la localización geográfica: la decisión sobre el destino de las creaciones culturales no le pertenece ni a los imperios ni a los estados. El concepto de propiedad, una vez más, está impugnado y, como señala el periodista brasileño Leonardo Foletto, “las mejores ideas son de todos”.

Acceso justo en América Latina

En el marco del Summit tuvo lugar un taller de la Alianza Latinoamericana para el Acceso Justo al Conocimiento, articulación que se posiciona en la trinchera de la apertura del dominio público y los bienes comunes culturales a través de la incidencia en políticas nacionales e internacionales. La Alianza, de la que Derechos Digitales es miembro, participa activamente en instancias de la Organización Mundial de la Propiedad Intelectual (OMPI).

Entre las discusiones del taller tuvo especial importancia el acuerdo colectivo en torno a lo «justo». No es justa, por ejemplo, la disparidad existente en las excepciones y limitaciones al derecho de autor entre países. Aunque internet es una infraestructura global, tal como señala la Federación Internacional de Asociaciones de Bibliotecarios y Bibliotecas, estos desencuentros legislativos traen consigo barreras y fragmentación que amarran de pies y manos a investigadoras de la Mayoría Global al momento de realizar revisiones o publicaciones académicas, y el asedio constante a bibliotecas mediante acciones legales por su labor educativa. Tales son los escollos que sorteó Alexandra Elbakyan al momento de crear Sci-Hub y que padece Internet Archive desde abril de este año. 

Asimismo, en los paneles en que la Alianza estuvo presente se hizo énfasis en que, aun cuando se entiende que cambiar por completo el régimen legal internacional es una misión titánica y probablemente imposible en el mediano plazo, la colaboración entre actores de todo el mundo por este objetivo es fundamental para evidenciar que el derecho de autor tiene poco que ver con la protección y fomento de la creación cultural y más con salvaguardar el erario de entidades de gestión colectiva, de herederas y herederos, y de editoriales académicas.

En cuanto a la pregunta rectora sobre inteligencia artificial y los bienes comunes creativos del Summit, la Alianza se pronunció en febrero pasado, afirmando que la compatibilidad con los usos honrados y la apertura del uso de obras en investigación con minería de datos tienen que ser incluidos en las legislaciones de la región.

Lastimosamente para algunos, el derecho de autor parece tener fecha de vencimiento y el clavo en su ataúd, contrario a muchos pronósticos, no fue puesto por la piratería sino por la masificación de los sistemas de IA. Entre integrantes de la Alianza se abordó el tema de las recientes demandas interpuestas por artistas contra estos sistemas, cuando replican estilos creativos o utilizan obras protegidas, sin consentimiento, para su entrenamiento. Con el miedo a ser reemplazados por Midjourney, este problema dejó de ser una cuestión restringida al nicho del arte. Las artistas, por fin, ven que su trabajo es justamente eso: trabajo. Bienvenidas todas a la discusión por los derechos laborales en las próximas políticas de IA.

En español, por favor

El primer día del Summit fue constatada una situación recurrente: la del inglés como idioma por defecto en los diferentes encuentros de la gobernanza de internet a nivel global. Tiene sentido, por cierto, por su carácter de lengua vehicular de los entornos digitales. No tiene sentido en eventos desarrollados en América Latina y así fue expresado por las personas hispano y lusófonas. Así, y luego de años de insistir en la necesidad de justicia lingüística, a contar del segundo día el CC Summit 2023 de México tuvo traducción simultánea de inglés a español y viceversa*.

Este no fue el único ámbito donde se enfatizó que la lengua es también un bien común. La presentación central de la segunda jornada estuvo a cargo de Peter-Lucas Jones, quien preside, entre otras instituciones y asociaciones, Te Hiku Media: una radio maorí sin fines de lucro que, además, utiliza las grabaciones de sus transmisiones para entrenar sus propios algoritmos de procesamiento de este idioma.

Jones y otras activistas elaboraron una licencia especial, basada en la custodia o tutela entendida según el universo maorí, que solo concede acceso a quienes que respeten los valores de su cultura, mientras se mantenga dentro de los límites de consentimiento en sus usos. La licencia también apunta a que, para los casos en que su uso sea solicitado por gobiernos, corporaciones o cualquier organización o persona privilegiados, debe existir una retribución al pueblo maorí.

Según Jones, “los datos son el territorio” y, por lo tanto, deben ser protegidos de las nuevas formas que toma la dominación colonial. La licencia kaitiakitanga prohíbe expresamente su uso para fines de vigilancia, monitoreo, discriminación, persecución e injusticia. Ni Whisper, el sistema de reconocimiento de lenguaje de OpenAI, ni Duolingo han logrado obtener el acceso a estos conjuntos de datos recopilados por Te Hiku Media.

Pasado, presente y futuro de los comunes

Entre commoners de todo el planeta prevaleció cierta nostalgia por los primeros encuentros, hace más de una década. El ecosistema digital, en ese entonces, vibraba con el entusiasmo para empujar por la reforma del copyright. Ha pasado mucha agua bajo el puente y, en 2023, los problemas son otros. Con la insuficiencia demostrada del modelo de derechos de autor ante el arribo de la IA, y siendo la IA un nuevo problema en sí mismo, volvemos a cuestionamientos que se niegan a desaparecer. El colonialismo, aunque subterráneo y sutil, es patente todavía.

No obstante, otro de los aspectos destacados de este Summit fue el lugar que se le dio a la educación, infraestructuras, hardware y software libres. La transparencia y el acceso que garantizan las fuentes abiertas, la posibilidad de elaborar bifurcaciones y la confianza que otorga el desarrollo colectivo detrás de estos proyectos persisten en el espíritu de Creative Commons y en las personas que ejercen el derecho a compartir.

Silvia Federici, en su libro Reencantar el mundo. El feminismo y la política de los comunes, sistematiza algunos criterios para definir a los comunes: necesitan acceso equitativo a una propiedad compartida; son relaciones sociales y no cosas; comprenden derechos y obligaciones que regulan cómo ha de emplearse la riqueza común, derivados de decisiones colectivas, y requieren una comunidad. No hay tal cosa como “comunes globales”, pues este concepto presume la existencia de una colectividad global.

La polinización cruzada de ideas desde extremos opuestos de uno o más océanos, los intercambios culturales, el respeto por la diferencia, las respuestas y las preguntas encontradas dan cuenta de otros criterios señalados por la autora: la cooperación social, la reciprocidad y la responsabilidad en la reproducción de la riqueza compartida; la promoción del interés común, y la radical distinción de lo común y lo público, siendo esto último lo administrado y de propiedad del Estado (y por lo que, en ocasiones, cobra boletos en museos construidos sobre el expolio).

La riqueza aquí aludida no es monetaria, y lo común presente no se rige con base en criterios de escasez sino de abundancia. El mundo que nos rodea es una fuente inagotable de saberes, y la filosofía de los comunes es “un camino para transformar nuestra subjetividad”, citando nuevamente a Federici, y para adquirir la capacidad de reconocerlo y amarlo. Este Summit fue un recordatorio de que es la comunidad la que crea, reproduce y mantiene con vida a la cultura, y que no hay forma de resolver los múltiples desafíos que nos presenta la tecnología hoy sin las personas que construyen, para todas, el acervo digital del futuro.


Agradecimientos a Mayra Osorio, de Derechos Digitales, por enseñarme con cariño algunos misterios mexicanos; a las y los integrantes de la Alianza por el Acceso Justo al Conocimiento; a Fátima São Simão, de CC Portugal, y a toda la comunidad CC de América Latina.


* N/R: El texto original consignó que este fue el primer Summit que tuvo traducción simultánea inglés-español. Esto no es así: CC Summit 2013 (Buenos Aires, Argentina) sí contó con esta herramienta. La corrección fue incorporada el 13 de octubre de 2023.