No es una varita mágica

La prensa y el carácter mitológico de la tecnología

El tratamiento que la prensa ha hecho respecto de la Inteligencia Artificial crea expectativas que muchas veces están completamente desconectadas de sus condiciones materiales, dejando a la población mal posicionada para evaluar y entender mejor la implementación de sistemas que pueden impactar sus vidas de forma importante, para bien o para mal.

CC:BY ( opensource.com) SA

Reciente, hemos visto publicados estos tres titulares en medios de comunicación:

  • Inteligencia artificial: con algoritmos predicen qué liceales pueden abandonar o repetir y harán listas (El País, Uruguay).
  • Inteligencia Artificial demostró cómo se verán los humanos en un millón de años (Smart 13, Chile).
  • Cuadro generado por inteligencia artificial gana premio y desata polémica en el mundo del arte (Deutsche Welle, Alemania).

Esta pequeña y poco representativa muestra sirve para ilustrar algunas cuestiones relevantes respecto a la inteligencia artificial (IA) y las narrativas que se han creado en torno a ella.

Lo primero que salta a la vista es que se están usando sistemas de IA para un amplio abanico de tareas, que van desde cuestiones importantes en materia de política pública hasta otras  completamente absurdas e inconsecuentes.

Una forma de explicar esta variedad de aplicaciones dispares es que nos encontramos en un estado temprano del desarrollo de estas tecnologías y no somos capaces de comprender completamente su potencial y sus límites, cuestión que probablemente será definida en un largo proceso de ensayo, error y descarte.

Pensemos, por ejemplo, en el teléfono, una tecnología cotidinana y obvia, que en la actualidad no requiere mayor explicación de nuestra parte. Sin embargo, no lo era para las personas de fines del siglo XIX. Antes de asentarse como una tecnología de telecomunicación, los desarrollos iniciales de la telefonía avizoraban distintos usos potenciales, incluyendo la transmisión de música orquestal a larga distancia, los que eventualmente fueron abandonados.

En la medida en que los sistemas de inteligencia artificial comienzan a ser adoptados por los gobiernos y las empresas privadas para asistir la toma de decisiones de cuestiones cada vez más relevantes en las vidas de las personas, el impacto de sus errores puede ser devastador. Seguramente en un futuro no tan lejano miraremos nuestro actual uso de la inteligencia artificial de forma similar a cómo evaluamos hoy la frenología, con una mezcla de vergüenza e indignación.

Son los estados y los organismos internacionales los principales convocados a establecer límites, procedimientos y regulaciones que impidan desenlaces catastróficos asociados al uso de sistemas de IA. Pero la tarea de crear conciencia sobre la necesidad de una aproximación más cuidadosa y responsable en torno a esta tecnología la corresponde a todos los actores sociales, incluyendo a la prensa.

El carácter mitológico de la tecnología

Esa es otra cuestión que llama la atención: de las tres noticias presentadas más arriba, una es absolutamente ridícula y otra es una exageración. La idea de que una inteligencia artificial pueda predecir el modo en que lucirán los seres en un millón de años no solamente es absurda, sino que al leer la noticia nos enteramos de que se trata del ejercicio ocioso de un usuario de Tik Tok, que carece de cualquier fundamento sólido. Por su parte, si bien es cierto que una obra creada con IA ganó un concurso, afirmar que se ha desatado una polémica en “el mundo del arte” parece demasiado si consideramos que el concurso en cuestión es organizado en el marco de la “Colorado State Fair & Rodeo”, no exactamente una renombrada institución artística, y la polémica se desató principalmente en redes sociales.

A pesar de que ambas noticias no son más que entretenimiento y los hechos relatados no conllevan mayores consecuencias, la suma de noticias de este tipo generan un imaginario y unas expectativas respecto de lo que la inteligencia artificial es, completamente desconectadas de sus condiciones materiales, dejando a la población mal posicionada para evaluar y entender mejor aquellos proyectos que sí pueden impactar sus vidas de forma importante, como es el caso del sistema anunciado en Uruguay.

Esta aparente disonancia entre el modo en que socialmente pensamos en las tecnologías y sus capacidades técnicas reales no puede ser simplemente descartada como ignorancia o falta de claridad, sino que es parte de lo que podríamos denominar el carácter mitológico de la tecnología, que lejos de constituir una fantasía inocua, tiene repercusiones bastante reales: cada vez que un político promete solucionar un problema social complejo por medio de un algoritmo, está apelando a esta mitología; y si el proyecto se concreta, dependiendo de cómo sea implementado, puede tener consecuencias importantes en la vida de las personas, para bien y para mal.

No es una varita mágica

Hay una cita de Arthur C. Clarke que se ha convertido en un cliché a la hora de hablar de tecnología: “Cualquier tecnología suficientemente avanzada es indistinguible de la magia”, que ha suscitado distintas interpretaciones. La frase parece ser particularmente acertada a la luz de una problemática común en el mundo de la inteligencia artificial, donde la trazabilidad de la toma de decisiones por parte de los sistemas no siempre está garantizada, convirtiéndolos en una verdadera caja negra a la que se alimenta con grandes volúmenes de datos esperando obtener alguna respuesta, pero sin ninguna capacidad de entender cómo se ha llegado a ella.

Los sistemas de inteligencia artificial muchas veces se parecen más a un oráculo que a los postulados racionalistas y empiristas sobre los que se sustenta el método científico. No solamente los resultados no son replicables, sino que además el proceso es misterioso.

Por eso es bueno leer que Héctor Bouzón, director ejecutivo de Gestión Institucional de la Administración Nacional de Educación Pública (ANEP) de Uruguay que el sistema que están implementando no es una “varita mágica”, sino que un instrumento más de diagnóstico, y que es necesario enseñar a leer los resultados que el sistema arroja —“ Hay que tener cuidado para no estigmatizar alumnos, alerta Bouzón: “Yo tengo una nómina, ¿pero qué significa?”—.

Existen experiencias anteriores en la región donde la toma de decisiones por medio de sistemas automatizados ha generado respuestas estigmatizantes. El caso más notorio es el de la Provincia de Salta en Argentina, donde se pretendió usar un algoritmo para predecir embarazos adolescentes, con resultados deplorables y que violaba derechos fundamentales de las niñas más pobres de la provincia.

Menos visible que el anterior, pero relevante para la evaluación, es el caso del Sistema Alerta Niñez en Chile, implementado en modalidad piloto y que tiene como objetivo estimar y predecir el nivel de riesgo de niñas, niños y adolescentes de sufrir alguna vulneración en sus derechos en el futuro, mediante un análisis de datos de diferentes fuentes administrativas.

Del análisis realizado por Matías Valderrama en el marco del proyecto “Inteligencia Artificial e Inclusión” de Derechos Digitales, se determina que el sistema no explica cabalmente explicar el tipo de tratamiento de datos al que son sujetos los NNA con el Sistema Alerta Niñez; la opacidad con la que el sistema ha funcionado hasta ahora, sin documentación pública sobre el funcionamiento, rendimientos y efectos de los modelos predictivos, y la ausencia de procesos de participación o consulta ciudadana en el desarrollo e implementación del sistema, entre otros varios problemas asociados a su implementación.

Las alertas levantadas por Bouzón y otros funcionarios involucrados con el desarrollo del sistema de predicción de deserción escolar consultados por el artículo de El País demuestra un nivel de conciencia poco común respecto de los problemas y desafíos de lidiar con una tecnología de este tipo, lo que, en alguna medida, es tranquilizador.

Sin embargo, es tarea de la sociedad en su conjunto velar y exigir que la implementación de este sistema cumpla con los más altos estándares en la materia, incluyendo políticas de participación, transparencia y evaluación.