Giro en la regulación de la IA

Una vez en la Casa Blanca, Donald Trump no esperó a barrer cientos de políticas del gobierno anterior, incluidas las decisiones que buscaban regular a la inteligencia artificial (IA) en ese país. En especial, fue revocada la Orden Ejecutiva N°14110 del 30 de octubre de 2023 sobre el “desarrollo y uso seguro, protegido y confiable de la inteligencia artificial” por, supuestamente, asfixiar a la innovación, imponer barreras innecesarias a la industria tecnológica y amenazar el liderazgo norteamericano en la materia. Así también, fueron eliminadas a través de una nueva Orden Ejecutiva todas las demás políticas, órdenes y directivas existentes en esa materia.

Breve contexto de la vieja Orden Ejecutiva de la IA

Hasta la emisión de esa Orden Ejecutiva, en Estados Unidos no existían a nivel nacional –aunque sí en los distintos estados del país– previsiones regulatorias sobre cómo debían responder las autoridades al despliegue de la IA, y qué aspectos deberían ser evaluados por éstas en la adopción de esta tecnología. Y esto es relevante porque se trata del país sede de las Big Tech, lo que da un peso, si se quiere mayor, a este tipo de iniciativas.

La Orden, que es muy extensa, le metía el diente a ciertos aspectos cruciales en las discusiones regulatorias sobre la IA, como el abordaje sobre el eventual uso dual de los sistemas de IA para aplicaciones civiles y militares, previsiones de transparencia que atravesaran su ciclo de vida, y la creación e implementación de protocolos de testeo rigurosos de los sistemas de IA adoptados por el Estado, entre otros.

Desde luego, la Orden tenía limitaciones serias. Se apoyaba en buena medida en los compromisos voluntarios de las empresas desarrolladoras de IA; y podía ser eliminada o modificada en cualquier momento por otro gobierno que expidiese otra Orden Ejecutiva que afectara su vigencia o alcance. No era perfecta, pero era una respuesta del Poder Ejecutivo de ese país ante la inacción del Congreso frente a una tecnología de alto impacto social que representa riesgos serios, actuales y presentes.

De hecho, en un año de vigencia, la emisión de esa Orden se tradujo en la práctica en:

  • La creación del Instituto de Seguridad de la IA (AISI, por sus siglas en inglés) que, por ejemplo, ha articulado, con colaboración de las empresas tecnológicas, pruebas de “red team” -o simulaciones de ataques de seguridad- para identificar y mitigar riesgos de los modelos de IA.
  • La creación, por el Departamento de Justicia, de una línea de ayuda 24/7 para prestar asistencia especializada a víctimas de la distribución no consentida de imágenes con contenido sexual que hubiese sido generada por sistemas de IA generativa–como los deepfakes-.
  • La creación, por el Departamento de Educación, de lineamientos para la introducción transparente y responsable de sistemas de IA en las escuelas y su uso por docentes.
  • La creación del deber de reporte a cargo de los desarrolladores de IA que ofrezcan sus tecnologías al sector defensa para que informen sobre la seguridad de sus modelos.

Desde luego, la Orden Ejecutiva hacía muy poco para abordar retos incluso más complejos como la creciente monopolización del desarrollo de esta tecnología por muy pocas empresas poderosas -dependientes de las subvenciones estatales-, que solo hasta hace unos días dominaban el panorama de la IA de manera exclusiva, hasta la llegada de la competidora china DeepSeek. O a su vez retos más allá de las fronteras internas, como su rendición de cuentas frente a los reguladores de otros países en donde estas empresas operan, pero no se domicilian. Y claro, se quedaba aún más corta en abordar la pregunta sobre las vías o mecanismos para la judicialización y reparación de derechos de las personas afectadas por la IA en ese país.

La nueva Orden Ejecutiva: avanzar a una IA sin “sesgos ideológicos”

Ahora bien, ¿por qué una regulación, condicionada en buena medida a la voluntad de los sujetos regulados, suponía en efecto una amenaza para el liderazgo de ese país en la carrera de la IA? El gobierno actual no justifica su decisión en evidencias de ningún tipo que permitan entender qué aspectos obstaculizaban la innovación.

Con todo y esto, Trump firmó una nueva Orden Ejecutiva que enfatiza en la necesidad de avanzar en el desarrollo de sistemas de IA sin “sesgo ideológico” o “agendas sociales manipuladas”, sin mayor contenido que declaraciones aspiracionales y vagas dirigidas a hacer de EE.UU. una potencia de la IA, sin ahondar en el cómo o a través de qué estrategias, más allá de la derogación de esta reglamentación del Poder Ejecutivo.

Como sea, lo que sí es claro es que en esa carrera donde Silicon Valley ya no compite sola, la guerra oficial y paralela contra las políticas de Diversidad, Equidad e Inclusión (DEI, en inglés), van a significar, en el marco del fraseo de esa nueva Orden Ejecutiva, la búsqueda por posicionar una tecnología que, pese a su alto impacto social, estará abiertamente desconectada de problemas estructurales como el racismo, la pobreza, la discriminación, la inequidad y un extenso listado de problemas fruto de la desigualdad social. Un problema que, de hecho, ya existía, pero que ahora se verá agravado.

¿Qué podemos esperar de los esfuerzos regulatorios de este nuevo gobierno? Parece, por declaraciones del nuevo Zar de las Criptomonedas y la IA, que la regulación de la IA girará en torno a dos premisas.

La primera, en la expedición de regulaciones minimalistas en el contenido de las obligaciones exigibles en materia de seguridad, transparencia o responsabilidad en el desarrollo de sistemas de IA; y maximalistas, que traigan grandes beneficios comerciales en materia internacional y subvenciones estatales para estas grandes empresas tecnológicas. que

Y la segunda, que cualquiera que sea el enfoque regulatorio del Poder Ejecutivo, es previsible un enfoque aislacionista diseñado para eliminar a posibles competidores y sancionar a sus aliados, una estrategia que sin duda ahonda la concentración del poder dominante de las empresas tecnológicas locales.

De hecho, ya hay voces del Congreso de ese país que piden avanzar en restricciones en la venta de Chips de IA, de manufactura local, a países como China, especialmente ahora que el lanzamiento reciente de DeepSeek probó que para competirle a ChatGPT no hace falta quemar miles de millones de dólares en el proceso.

¿Y qué pasará con América Latina frente a este panorama?

Ahora, la pregunta crítica para quienes vemos este panorama desde América Latina es ¿cómo va a impactar todo este contexto en los procesos regulatorios de la IA que avanzan en algunos países de la región? Al respecto, y con la precaución que exige toda futurología, surgen dos impresiones.

La primera impresión es que las empresas de Silicon Valley van a oponerse abiertamente a los esfuerzos de regulación por parte de nuestros países, amparados por el gobierno de su país que, además, graduó a los CEO de las Big Tech de asesores no oficiales durante su investidura. No hace falta ir muy lejos para ver cómo lucirá esto en la práctica. Recordemos el anuncio reciente de Meta sobre los cambio de sus políticas de verificación de noticias y moderación de contenidos, en donde el CEO de la compañía acusó a Europa de asfixiar la innovación a través de la regulación, y de ver en las supuestas “cortes secretas” de América Latina una amenaza. Todo un discurso coronado por el pedido a su gobierno de acentuar la defensa y protección de la industria tecnológica local.

Además, esta última premisa se encuentra apoyada en el discurso oficialista -enmarcado en un discurso ideológico de extrema derecha- inclinado a la protección y defensa de la innovación norteamericana como vehículo para el regreso a una época dorada, donde los “Estados Unidos está primero”; sino también en la más clara narrativa según la cual América Latina necesita a Estados Unidos, y no al contrario. Desde esta perspectiva, cualquier intento regulatorio de otros países puede que sea visto automáticamente como una amenaza.

La segunda, que persiste el reto de avanzar en la aplicación rigurosa de la ley sin que las autoridades sean “dejadas en visto” por esas empresas extranjeras, tal y como le pasó hace poco a las de Brasil, en el marco de una audiencia a la que fue invitada Meta para explicar los cambios recientes de sus políticas, pero no asistió. O como ha sucedido en otros casos, donde las empresas tecnológicas deciden amenazar abiertamente con el apagón de sus servicios en caso de que las autoridades apliquen la ley local.

Ahora, ¿es posible que nuestros países puedan posicionarse más allá de los dos extremos geopolíticos en la carrera por la IA? Más aún, ¿hay esperanza de que nuestros países puedan desarrollar soluciones basadas en IA que respondan a nuestros contextos sociopolíticos y sociotécnicos?

Una investigación reciente publicada por Derechos Digitales muestra cómo no solo es posible y viable, sino necesario especialmente ahora. De la mano de grupos sociales, y con enfoques que se interesan en el bienestar social, no solo es posible desmarcarse de las narrativas corporativistas de la innovación, sino del valor inestimable de la tecnología cuando mantiene a las personas en el centro.

En su desarrollo y promoción, desde luego, urge el apoyo de los Estados, aun cuando es cierto que enfrentamos tiempos difíciles en la relación que vincula a grupos sociales y las autoridades que las estigmatizan. Pero cualquiera que sea el rumbo de la región en la carrera regulatoria, conviene afirmar el valor del ejercicio de la soberanía tecnológica -como jurisdiccional-, y pensar y desarrollar la IA por y para la región.

2024: el año en que la protección de datos nos recordó su lado político

El 2024 fue un año de progresos esperados en materia de protección de datos para nuestra región. Se aprobó en Chile, luego de seis años de debate regulatorio, la ley de protección de datos; El Salvador también aprobó su ley, y Perú reformó la suya para adaptarla al estándar europeo, un referente que muchos países de América Latina intentan adoptar. Por su parte, Paraguay avanzó en la discusión del proyecto de ley, y se espera que este año suceda su aprobación.

El año pasado también observamos retrocesos significativos, como la eliminación del INAI, autoridad garante del derecho a la protección de datos y el acceso a la información pública en México. Esto ocurrió en el marco de una reforma constitucional que, bajo el argumento de reducir costos operativos, eliminó a distintos entes autónomos. Una supresión que se produce en tiempos en que las Big Tech acrecientan su poder para amasar y explotar nuestros datos bajo condiciones cada vez más asimétricas.

Frente a esos avances y retrocesos regulatorios, en nuestro trabajo en Derechos Digitales hemos observado algunas tendencias regionales preocupantes. Algunas de ellas son nuevas, mientras que otras representan la continuidad de prácticas de explotación de nuestros datos que se expanden y masifican de cara a nuevas y emergentes tecnologías, las cuales amplían el alcance a las tareas de recolección y procesamiento de nuestros datos y con ello, intensifican su impacto en la protección de los mismos. Veamos una por una.

La protección de datos y las tareas estatales de seguridad: una desconexión peligrosa

La primera tendencia tiene que ver con la creciente adopción de prácticas y tecnologías para la extracción de datos por parte de los Estados para fines que, en particular, se enfocan en la seguridad ciudadana y nacional.Se trata de finalidades que las regulaciones de protección de datos han excluido tradicionalmente de su aplicación, bajo una visión arcaica que sugiere que el resguardo de la ciudadanía no es algo que deba consentir esta última.

Enmarcado en esta tendencia vimos con preocupación la expedición de la resolución que en Argentina habilita al ciberpatrullaje, una tarea de seguridad emprendida por el Estado para patrullar (o vigilar) internet “de la manera en que se patrullan las calles” para, en teoría, facilitar la identificación y prevención de los delitos en línea.

Se trata de una resolución que no fija límites claros, respetuosos y garantes de la privacidad y la libertad de expresión en línea. De manera similar, el ciberpatrullaje se despliega también en Colombia, Bolivia, México, Brasil y Uruguay. En cada caso, al parecer, las autoridades se dedican a explorar y observar de cerca lo que publicamos y con quién interactuamos en línea -en ocasiones, con ayuda de algoritmos para automatizar dicha tarea-, para determinar si lo que decimos o con quién conectamos amerita ser perseguido por la vía penal.

Lo cierto es que, pese a la desconexión que persiste entre la regulación de la protección de datos y las tareas de seguridad, y a que sea cierto que el consentimiento no sea propiamente la base jurídica que da pie al tratamiento de los datos en estos casos, los Estados sí deberían observar los principios y obligaciones que garantizan que la recolección de los datos de la ciudadanía sucede de manera responsable, lícita, leal, transparente, segura y, sobre todo, de manera compatible con los derechos humanos.

Pero además, bajo ciertas condiciones, los titulares de los datos deberían conservan el ejercicio de los derechos de actualización, rectificación, y cancelación de su información inclusive en esas tareas. Esto último, de hecho, lo reiteró por su cuenta el fallo Cajar vs. Colombia emitido en 2024 por la Corte Interamericana de Derechos Humanos respecto a las tareas de inteligencia estatal, y cuyas repercusiones en la regulación de la protección de datos frente a las tareas de seguridad aún están por verse.

Biometría ¿para qué?: el valor vs. el precio de los datos

La segunda tendencia que observamos, tiene que ver con la recolección transaccional de datos sensibles para la realización de modelos de negocio muy poco claros o transparentes. Por ejemplo, identificamos la masificación de los servicios de empresas como Tools for Humanity (TfH) desarrolladora de World –antes Worldcoin– que prometen entregar a las personas criptomonedas a cambio del escaneo de su iris, un dato biométrico que será usado para ayudar a resolver los problemas asociados a la identidad en línea.

La empresa TfH desplegó operaciones en Argentina, Brasil, Chile, Colombia, Ecuador, Guatemala, México, Perú y República Dominicana. Solo las autoridades de protección de datos de Argentina, Colombia, Brasil y Perú abrieron investigaciones a World, entre otras cosas por las condiciones de recolección del consentimiento de las personas, que no parece estar precedido de información clara y transparente sobre las condiciones del tratamiento de los datos biométricos capturados, así como las condiciones del ejercicio de los derechos de acceso, rectificación, cancelación u oposición. Sobre el desarrollo de esas investigaciones sabemos poco al día de hoy.

Ahora bien, el contenido transaccional de este tipo de prácticas resulta problemático por dos motivos. En primer lugar, porque asignan un valor económico a la entrega de un dato cuyo valor identificatorio es inestimable por su naturaleza inmodificable, así como profundamente personal, y que por los riesgos de ser instrumentalizado en contra de su titular ha merecido un estatus de protección especial en la mayoría de legislaciones que regulan esta materia. En segundo lugar, porque además de explotar la vulnerabilidad económica de ciertos sectores de la población, se trata de empresas que operan de manera poco transparente frente a los reguladores y los titulares de los datos.

Todo esto para aceitar el modelo de negocio de la identidad digital del que todavía no sabemos mucho, pero frente al cual otras autoridades de protección de datos en el mundo han actuado de manera mucho más contundente y preventiva prohibiendo las operaciones de World, tal y como sucedió en España, Francia, India, Corea del Sur, Hong Kong e incluso Kenia.

Las Big Techs y la IA: nuestros datos a merced de políticas injustas

Y la tercera tendencia, tiene que ver con los cambios poco claros y transparentes de las políticas de privacidad impuestas de manera abusiva en América Latina por distintas plataformas que transitaron a la adopción de sistemas de IA con diversos propósitos, y que asumen, al contrario de lo indicado por los principios de finalidad, transparencia o lealtad en el tratamiento de los datos, que los titulares aceptan por defecto los nuevos términos y condiciones impuestos.

El caso de Meta es quizá uno de los más representativos, pues desplegó un cambio global de su política de privacidad que autoriza de manera retroactiva al uso de los datos de los usuarios de Facebook e Instagram para entrenar a su IA. Un cambio que dejó a sus usuarios en América Latina sin ninguna opción válida para negarse u oponerse.

Solo la autoridad de protección de datos de Brasil (ANPD) reaccionó al emitir una medida cautelar que prohibía desplegar dicho cambio en tanto que dejaba a los titulares de los datos de ese país sin opciones para rechazar la nueva política en cuestión. Con posterioridad, Meta desplegó en ese país su política de manera mucho más clara con autorización de la autoridad, y habilitó -a diferencia del resto de países de la región- canales para el ejercicio del derecho a rechazar los cambios propuestos.

Cambios similares sucedieron en las políticas de otras plataformas como X, Linkedin, Adobe y Google, entre otras, que además habilitan a que terceros puedan usar los datos de sus usuarios para entrenar a sus sistemas de IA. Se trata de cambios que, en la mayoría de los casos, se han introducido de manera subrepticia y silenciosa, algo que la Comisión Federal de Comercio en Estados Unidos (FTC por sus siglas en inglés) ha calificado como una práctica injusta y engañosa.

Frente a este panorama ¿hay motivos para la esperanza?

Estas tendencias están acompañadas de un panorama regulatorio que, en gran medida, todavía limita a las pocas autoridades activas de la región a desempeñar roles de simple monitoreo preventivo y vigilancia pasiva. Aún queda pendiente avanzar hacia un rol sancionador más robusto donde, por ejemplo, las multas ejemplarizantes puedan ayudar a generar nuevas pautas de conducta para actores del sector privado y público; o donde las autoridades asuman un rol activo y oficioso, en el cual la imposición a iniciativa propia de medidas cautelares pueda ayudar a prevenir la afectación de los derechos de las personas.

Hay motivos para la esperanza, pero debemos moderar nuestras expectativas. Es cierto que, cada vez más, el listado de países sin regulación de protección de datos se reduce. Y aunque esto es importante, no es motivo para cantar victoria, pues hace falta todavía cambiar visiones arcaicas como aquellas que sugieren que los Estados, cuando realizan cierto tipo de tareas -como las de seguridad- tienen un cheque en blanco que les habilita a dar tratamiento a los datos personales de la ciudadanía de cualquier manera.

También es cierto que las regulaciones vigentes en protección de datos precisan de un balance necesario cuando su ejercicio se enfrenta a otros derechos, como el de libertad de expresión o acceso a la información. Y que persisten otros retos igualmente urgentes para que las regulaciones aprobadas y vigentes cobren vida y sirvan como verdaderas herramientas de protección a las personas.

Por ejemplo, urge el robustecimiento de las capacidades humanas y técnicas de las autoridades de protección de datos, así como establecerlas en países donde aún no existen. Además, es fundamental garantizar los recursos necesarios para su funcionamiento, y dotarlas de la independencia y autonomía que las habiliten para actuar frente a otras dependencias estatales así como frente a las Big Tech que, cada vez más, buscan eludir o intimidar a las normativas y autoridades que ejercen su poder regulatorio.

Desde luego, el trabajo de organizaciones como Derechos Digitales será aportar a esto último, y vigilar para que las promesas de regulación no se queden en el papel, sino que se traduzcan en verdaderas garantías para los derechos humanos en el entorno digital. El 2024 nos recordó que la protección de los datos personales no es solo una cuestión técnica o legal, sino una lucha política que enfrenta intereses poderosos, ya sean estatales o corporativos.

Nos encontramos frente a un panorama complejo, pero también un momento clave para definir el futuro del derecho a la protección de datos en nuestra región. Las decisiones que tomemos hoy serán cruciales para establecer un equilibrio entre el avance tecnológico y la protección de los derechos fundamentales. Solo si mantenemos la vigilancia activa, exigimos mayor transparencia y contribuimos a fortalecer las capacidades regulatorias de las autoridades, podremos garantizar que los datos personales de millones de personas no se conviertan en una mercancía desprotegida, sino en una herramienta que potencie su dignidad y autonomía. El desafío es enorme, pero no podemos darnos el lujo de detenernos ahora.

Fuera del algoritmo: Cómo comunicar más allá de las redes sociales

Recuerdo cuando abrir una cuenta de Twitter era casi un acto revolucionario. En aquellos días, la plataforma prometía algo cercano a la igualdad: un lugar donde las ideas, más que las jerarquías, definían el alcance de tu voz. Para muchas organizaciones de la sociedad civil, Twitter, Facebook e Instagram (un poco después) fueron herramientas esenciales para denunciar injusticias, movilizar comunidades y visibilizar problemas que los medios tradicionales pasaban por alto. A lo largo de los años, lo que parecía un espacio inclusivo se fue desmoronando hasta convertirse en algo muy distinto.

Por ejemplo, desde que Elon Musk tomó las riendas de X, la antes llamada Twitter, el ambiente en la plataforma se ha vuelto insostenible. Con el discurso de odio en auge, los insultos racistas, misóginos, edadistas y homofóbicos no solo han aumentado, sino que se han normalizado. El regreso de cuentas previamente suspendidas por incitar a la violencia ha amplificado estos problemas. Lo que alguna vez fue un refugio para voces críticas ahora se siente como un espacio hostil, especialmente para quienes defienden los derechos humanos.

Meta tampoco se queda atrás. En un giro reciente, la empresa ha anunciado el fin de su programa de verificación de datos en Facebook, Instagram y Threads. La medida, presentada como un paso hacia una supuesta “libertad de expresión”, amenaza con convertir estas plataformas en un terreno aún más fértil para la desinformación. Esto ocurre justo antes del regreso de Donald Trump a la Casa Blanca, en un momento político clave que no parece una coincidencia.

Finalmente, esta medida elimina una de las pocas herramientas que intentaban, al menos en teoría, mitigar los daños del contenido falso o malintencionado. Esto no es solo preocupante, es alarmante: en una época en la que las sociedades enfrentan desafíos como la polarización y la crisis de confianza en la información, la decisión de Meta puede tener consecuencias devastadoras. Si bien un sistema de notas comunitarias podría aumentar la confianza en la verificación de hechos, también existe un riesgo de manipulación de esos sistemas.

El dilema de abandonar las redes

En este panorama, las organizaciones de la sociedad civil enfrentan un dilema. Las redes sociales, a pesar de todos sus problemas, siguen siendo el lugar donde ocurre la conversación pública, donde figuras públicas como presidentes, congresistas y periodistas intercambian información e ideas, y donde todavía se discuten noticias a medida que ocurren. Dejar de usarlas podría significar perder el alcance y la relevancia necesarios para incidir en los debates globales. Sin embargo, quedarse muchas veces implica navegar en un espacio cada vez más tóxico, donde el riesgo de ser acosado, doxeado o atacado es constante. ¿Es posible encontrar un punto medio?

The Engine Room, realizó un estudio llamado “Explorando una transición hacia plataformas alternativas de redes sociales para organizaciones de justicia social en el Sur Global”, donde señala que las redes sociales tradicionales presentan preocupaciones significativas relacionadas con la recolección intrusiva de datos, la vigilancia y la propagación de desinformación. También destacan que plataformas alternativas, como Mastodon y BlueSky, ofrecen experiencias más comunitarias y menos extractivas, permitiendo a los usuarios crear y gestionar sus propios espacios en línea. Varias organizaciones nos hemos sumado a una tendencia por relevar el rol de tecnologías que devuelven al menos algo de control a sus usuarios.

Las alternativas, aunque prometedoras, aún no están listas para reemplazar por completo a las grandes plataformas, porque su alcance sigue siendo limitado. Migrar hacia ellas implica convencer a nuestras audiencias de hacer lo mismo, algo que no es fácil en un entorno donde los “efectos de red” (o si prefieres, la inercia y la comodidad) mantienen a las personas atadas a las plataformas tradicionales. Pero estas alternativas son un recordatorio de que otras formas de comunicación digital son posibles, aunque todavía estén en construcción. The Guardian o La Vanguardia se aventuraron a cerrar para siempre las puertas en redes como X. Mucho antes, en el 2021, la marca Lush dejó de usar redes sociales, declarándose “antisocial”.

Mientras tanto, surge la pregunta: ¿es posible que las organizaciones de la sociedad civil se desvinculen de las redes sociales más populares hoy? La respuesta no es sencilla, pero es evidente que diversificar los canales de comunicación es imprescindible. No podemos depender exclusivamente de plataformas que priorizan la extracción y el lucro, persiguen objetivos políticos orientados a ganar poder, o imponen narrativas autoritarias y conservadoras sobre los derechos humanos.

Además, las organizaciones de la sociedad civil suelen publicar de manera orgánica, con poca o nula inversión en publicidad, lo que dificulta aún más que su contenido llegue a las audiencias. Por ello, los boletines por correo electrónico, las páginas web actualizadas y las colaboraciones con medios de comunicación independientes siguen siendo herramientas valiosas para alcanzar a las audiencias más allá de tuits e historias. Es también el momento de explorar nuevos formatos: podcasts, videos documentales y eventos híbridos que combinen lo digital con lo presencial. En un ambiente donde los algoritmos deciden qué contenido llega a quién, recuperar el control sobre nuestras audiencias también se convierte en un acto de resistencia.

Regulación y responsabilidad

Sin embargo, estas soluciones son insuficientes si no se aborda el problema de fondo: la falta de contrapesos efectivos al control sobre las plataformas tecnológicas. Mientras las empresas continúen operando sin rendir cuentas sobre sus decisiones y sobre su modelo de negocios, la violencia digital y la explotación de datos seguirán siendo el modelo predominante de los gigantes de internet. Aquí es donde los Estados deben intervenir, en ningún caso para censurar, sino para proteger. Necesitamos políticas públicas que garanticen entornos digitales seguros, mecanismos efectivos para denunciar el acoso y sanciones claras contra quienes promuevan el odio. Necesitamos regulación que permita de manera efectiva que, a mayor poder, exista mayor también responsabilidad.

Las plataformas tecnológicas, por su parte, tienen una deuda importante con sus usuarias y usuarios. La implementación de medidas contra el acoso, la protección de datos personales y la transparencia en la moderación de contenido no deberían ser opcionales. En lugar de priorizar el crecimiento a cualquier costo, es hora de que estas empresas asuman su responsabilidad en la creación de un ecosistema digital que no perpetúe la violencia y el abuso. Que no se escude en la seguridad para promover la censura, ni en la libertad de expresión para descuidar a sus usuarios.

Meta, por ejemplo, hace algunos meses anunció que utilizará datos personales de sus usuarios para entrenar sus sistemas de inteligencia artificial, sin ofrecer una manera clara de oponerse a esta práctica. En muchas jurisdicciones, simplemente no hay opciones para negarse a este uso de los datos personales. Sin embargo, países como Brasil y los de la Unión Europea, con legislaciones más robustas, han logrado plantear regulaciones que limitan o frenan estos abusos. Pero ¿qué ocurre en el resto del mundo, donde las protecciones legales son débiles o inexistentes?

La desigualdad en la capacidad de los Estados para hacer frente a estos problemas agrava las brechas digitales. Mientras algunos países avanzan en la defensa de los derechos digitales, otros quedan expuestos a los abusos de grandes corporaciones que operan sin restricciones.

Más allá del algoritmo

Es imprescindible repensar colectivamente el diseño y la dinámica de estas plataformas. Cada vez que el discurso de odio se normaliza o el ciberpatrullaje queda sin consecuencias, el entorno digital se deteriora aún más. Este problema no debe recaer en las usuarias y usuarios, sino en quienes tienen el poder de cambiar las reglas del juego: las plataformas tecnológicas y los Estados.

Construir un ecosistema digital ético y seguro no será rápido ni fácil. Requiere creatividad, paciencia y voluntad política, pero el esfuerzo vale la pena. Porque al final, comunicar más allá del algoritmo no es solo una cuestión de supervivencia para las organizaciones de la sociedad civil; es una apuesta por un futuro donde las voces sean amplificadas, no silenciadas, y donde la tecnología sea una herramienta de inclusión, no de exclusión.

Comunicar en un entorno hostil no es sólo un desafío técnico; es una cuestión de principios. Rechazar un modelo digital basado en el odio y la explotación abre la posibilidad de transformar cómo conectamos, construimos y luchamos en el mundo digital, creando espacios más justos y seguros para todas las personas.

Transformaciones y desafíos en los derechos digitales en América Latina: un balance de 2024

En 2024, la intersección entre tecnología y derechos humanos ha cobrado una relevancia sin precedentes en América Latina. En un panorama global que anticipaba decenas de elecciones, pero que está todavía marcado por los horrores del genocidio y la guerra, como también por autoridades locales embelesadas con las promesas por la IA y pugnas políticas globales sobre el futuro de las redes digitales, vale la pena hacer una breve retrospectiva de lo que nos ha tocado enfrentar este año.

Encerrando en la lámpara al genio de la IA

La discusión sobre la regulación de la inteligencia artificial (IA) se intensificó en América Latina en 2024. Diversos países de la región han estado explorando marcos regulatorios para controlar los riesgos de estas tecnologías sin impedir su desarrollo ni excluir a los países de la economía global. El reciente avance en Brasil de un proyecto de larga discusión parece acercar esa regulación a la realidad.

En este contexto, Derechos Digitales ha enfatizado la importancia de poner los derechos humanos en el centro de la regulación y del desarrollo de la inteligencia artificial, destacando la necesidad de una participación ciudadana efectiva en su desarrollo e implementación. También hemos avanzado significativamente en demostrar, a través de la evidencia situada, cuáles son las características de la implementación en la región por entidades públicas, más allá de los compromisos declarados. A pesar de los desafíos, nuestra más reciente edición de Latin America in a Glimpse ofrece una luz de esperanza para un desarrollo comunitario, situado y feminista de estas tecnologías, en lugar de rendirnos a la voluntad de algunos gigantes de la tecnología.

Pactos mundiales, pero sin todo el mundo

El Pacto Digital Mundial (GDC, por sus siglas en inglés) aparecía como uno de los hitos más significativos del año, con una importante búsqueda de incidencia por incontables activistas de todo el mundo, para sumar sus voces a las de los Estados representados en la Organización de las Naciones Unidas (ONU). En los escasos espacios de participación abiertos, Derechos Digitales hizo valer sus expectativas sobre el GDC, enfatizando la necesidad de una perspectiva efectiva de género en el GDC, basada en principios feministas para la inclusión de género, y recomendando un enfoque basado en derechos humanos que considere intersección de género y derechos en áreas clave. No obstante, un resultado decepcionante en esas materias y de muy difícil participación para actores no estatales, nos hace sumarnos a la preocupación global sobre el proceso de implementación, que seguiremos con celo.

Otro proceso preocupante terminó de manera casi trágica: tras más de dos años de negociaciones, la ONU aprobó el texto final de un nuevo tratado internacional para combatir el ciberdelito. Organismos expertos y activistas alrededor del mundo advirtieron por años que el texto contiene falencias importantes que pueden ser utilizadas para validar abusos contra los derechos humanos, incluida la falta de salvaguardas suficientes en materia de protección de derechos frente a la cooperación internacional.

Libertad de expresión, siempre bajo ataque

En un año que vio nuevas preocupaciones no solo por los usuales bloqueos, sino también por la siempre presente violencia contra periodistas y por la posible promulgación de leyes mordaza en distintos países, o el levantamiento de restricciones y cierres contra organizaciones activistas, el uso de internet para la libre expresión parece ser cada vez más un riesgo que una oportunidad.

Independiente de las decisiones de ciertos gobiernos, recientes cambios como la compra de Twitter (ahora X) por un magnate controvertido, han complicado aún más el panorama para el ejercicio de la expresión en plataformas privadas. Así, el bloqueo de lo que era Twitter en Brasil levantó preocupación por el efecto aparentemente desproporcionado, como consecuencia de actos de autoridad legalmente tramitados por la falta de colaboración de la plataforma con procesos judiciales. Eso, sin siquiera discutir la decadencia de una plataforma que sigue siendo relevante para una minoría, y su incapacidad de mantenerse como un espacio seguro.

La arbitrariedad para la censura de contenidos en plataformas digitales quedó además validada en México, por medio de la sentencia de la Suprema Corte de Justicia de la Nación que validó el sistema de notificación y retirada, cuestionado por su facilidad para lesionar derechos humanos en línea en nombre del derecho de autor y sin real efecto sobre la “piratería”.

Tecnologías para la vigilancia: un paso adelante, diez atrás

En 2024, la Corte Interamericana de Derechos Humanos emitió un fallo histórico en el caso presentado por el Colectivo de Abogados José Alvear Restrepo (CAJAR), destacando que las actividades de inteligencia deben respetar la privacidad y la protección de datos personales. Esta decisión expuso la vigilancia sistemática ejercida sobre defensores de derechos humanos en Colombia, incluyendo el monitoreo de comunicaciones privadas, y estableció un precedente crucial para limitar abusos en las tareas de inteligencia en toda la región. Esto es especialmente relevante en un contexto en que los Estados latinoamericanos continúan utilizando herramientas intrusivas, como el software Pegasus, sin mecanismos efectivos de supervisión democrática, a pesar de los aprendizajes de la última década. Aunque el fallo representa un avance normativo, la persistencia de prácticas de espionaje y monitoreo masivo refleja la urgencia de fortalecer marcos regulatorios que protejan los derechos humanos.

Por otra parte, el ciberpatrullaje se ha consolidado en 2024 como una herramienta de vigilancia estatal en América Latina, presentada como un mecanismo para prevenir delitos pero aplicada también como medio para vigilar discursos críticos. Esta práctica, que implica el monitoreo constante de redes sociales y espacios digitales, permite perfilar usuarios, recopilar información personal y observar la actividad de activistas y periodistas sin salvaguardas legales suficientes.

Salir a la calle tampoco nos aleja del peligro. El uso de tecnologías de reconocimiento facial en América Latina ha seguido expandiéndose en 2024, especialmente en espacios abiertos al público como estadios. Si bien estas herramientas se presentan como soluciones para mejorar la seguridad, han sido criticadas por facilitar el control social y la vigilancia masiva. Su implementación ha afectado desproporcionadamente a comunidades vulnerables y restringido libertades fundamentales, como el derecho a la protesta.

Contribuyendo y colaborando

En julio de 2024, Derechos Digitales anunció las organizaciones seleccionadas para participar en el primer ciclo del Fondo para la Promoción de los Derechos Digitales (FDD). Este programa fue diseñado como una herramienta para fortalecer las capacidades de las comunidades en la región, sensibilizándolas sobre la importancia de proteger sus derechos en el entorno digital. A través de este fondo, se busca fomentar el desarrollo de iniciativas locales que promuevan un espacio digital más inclusivo, libre y seguro, donde los derechos fundamentales sean respetados y defendidos.

Este fondo se complementa con el ya consolidado Fondo de Respuesta Rápida de Derechos Digitales (FRR), que en 2024 celebró cinco años de funcionamiento. Desde su creación, este fondo ha permitido canalizar recursos hacia acciones urgentes de defensa de los derechos humanos en el entorno digital, proporcionando respaldo inmediato a comunidades y activistas que enfrentan amenazas o vulneraciones en línea.

Ambos mecanismos, al operar en conjunto, constituyen un esfuerzo integral para fortalecer el ecosistema de defensa de los derechos digitales en América Latina. En total, los fondos administrados por Derechos Digitales completaron un año de impacto significativo, apoyando 29 proyectos distintos distribuidos en 14 países de la región, abarcando una amplia gama de temas. Con este modelo de financiamiento, Derechos Digitales continúa impulsando estrategias de defensa y promoción de los derechos digitales, respondiendo a los desafíos urgentes de la región.

Mirando hacia 2025: desafíos y prioridades para los derechos digitales

A medida que nos acercamos a 2025, el escenario global estará marcado por la implementación de acuerdos clave y el desarrollo de procesos internacionales que definirán el futuro de los derechos digitales. La revisión de los veinte años de la Cumbre Mundial sobre la Sociedad de la Información (WSIS+20) será un momento decisivo para evaluar los compromisos adoptados hace dos décadas y proyectar un modelo más inclusivo, sostenible y centrado en derechos humanos para el desarrollo digital. Será una oportunidad para insistir en la participación de la sociedad civil y en la necesidad de garantizar la conectividad, sin comprometer libertades esenciales en nombre de la seguridad o el progreso económico.

Al mismo tiempo, se espera que comience la implementación del GDC, en un proceso todavía rodeado de incertidumbres y preocupaciones. La sociedad civil tendrá el desafío de incidir en los mecanismos de seguimiento y aplicación del Pacto, para asegurar que las decisiones adoptadas protejan los derechos humanos y no se conviertan en herramientas de control o exclusión.

En paralelo, tras su adopción, podría iniciarse la implementación del Tratado sobre Cibercrimen, con implicaciones directas en la regulación de la vigilancia estatal, la cooperación judicial y el intercambio de datos. La vigilancia transfronteriza, el acceso a información privada y las obligaciones impuestas a las empresas tecnológicas requerirán un escrutinio constante para asegurar que los esfuerzos por combatir el cibercrimen no se conviertan en justificaciones para expandir la vigilancia masiva

Con un año electoral en varios países de América Latina, 2025 también traerá desafíos para la estabilidad democrática en la región. Las tecnologías digitales jugarán un papel central tanto como herramientas para la participación política como instrumentos para perjudicar al espacio cívico. Nuestra participación en el proyecto Civic DEFENDERS aparece así como una oportunidad para ejercer nuestra misión junto a organizaciones de todo el mundo.

Al final de un nuevo año de intenso activismo, reafirmamos nuestra confianza en la capacidad de la sociedad civil para liderar cambios significativos y sostenibles. La construcción de un futuro digital justo, inclusivo y democrático dependerá de mantener la solidaridad transregional, de amplificar las voces de la Mayoría Global y de asegurar que los derechos humanos estén al centro de cada decisión que impacte a las tecnologías. Desde Derechos Digitales, seguimos comprometidas a trabajar para ese futuro.

Latin America in a Glimpse: Reflexiones para una IA comunitaria y feminista

Un informe de Derechos Digitales que explora cómo la IA puede adaptarse a las necesidades y contextos culturales de América Latina, en lugar de imponer modelos extractivistas y coloniales. A través de conversaciones con investigadoras, tecnólogas y activistas de distintos países de la región, analizamos enfoques críticos y metodologías que responden a tres temas: educación, territorio y género.

Regulación de la IA en Brasil: media sanción para un proyecto de ley que seguirá en discusión

El Senado de Brasil dio media sanción, el pasado martes 10 de diciembre, a un proyecto de ley para regulación de la Inteligencia Artificial. Se trata del PL 2.338/23, que tiene por objetivo establecer normas generales para la “gobernanza responsable” de sistemas de Inteligencia Artificial (IA). Se trata de un proyecto que, de ser finalmente aprobado por ambas cámaras, puede sentar un antecedente determinante para la regulación de IA en otros países de la región.

Este proyecto adopta un sistema de riesgos inspirado, en parte, en la reciente Ley de Inteligencia Artificial de la Unión Europea. El proyecto fue acordado tras un extenso proceso de debates bicamerales donde la presencia y aportes de la academia, el sector privado y la sociedad civil fue clave. 

Sin ser ley aún, el caso brasileño merece ser observado de cerca en el resto de la región, en especial de cara a la influencia excesiva que ciertos actores -como el sector de las Big Tech- tuvo al modular ciertos derechos y medidas de protección de derechos que perdieron potencia en el texto aprobado en el Senado.

Pese a todo, esta media sanción es oportuna para repasar cómo fue el proceso de construcción de este proyecto que será ley, y rescatar algunas críticas emitidas desde la sociedad civil.

¿Cómo se llegó hasta aquí?

La media sanción de este proyecto de ley marca el cierre de un proceso que se extendió por casi tres años, iniciado en febrero de 2022 con la creación de la Comisión Especial para la Regulación de la IA (CJSUBIA) por parte de la presidencia del Senado. Esta comisión trabajó durante todo 2022 y emitió un dictamen basado principalmente en el proyecto de ley 2.338/23, que sirvió como insumo clave para la versión final.

En agosto de 2023, se creó la Comisión Temporal Interna sobre la IA (CTIA), donde representantes del Senado debatieron el proyecto, presentaron enmiendas y lograron consolidar una versión final. Este texto fue llevado a la sesión plenaria de la cámara alta el martes 10 de diciembre, donde fue aprobado con media sanción tras un debate que duró apenas dos horas.

Desde Derechos Digitales seguimos este proceso desde la creación del proyecto de ley unificado, en la CJSUBIA, donde presentamos nuestros aportes en audiencias públicas, en mayo de 2022. En el marco de dicho proceso generamos un análisis detallado sobre la composición sectorial, no sólo de las audiencias, sino de todos los espacios de participación de esa comisión, y detectamos una amplia representación del sector privado en todos los espacios, sea tanto a partir de los aportes enviados directamente por representantes de las empresas, como a través de las cámaras y asociaciones que las aglutinan. Si tomamos todas las participaciones como un conjunto, 31% correspondieron al sector privado, mientras que la sociedad civil apenas estuvo representada en el 19% del total. La academia fue otro de los espacios de mayor participación, con cerca del 26% del total.

Este hallazgo fue confirmado, por su cuenta, por el medio Intercept Brasil que en un reporte reciente visibilizó la desproporcionada presencia de representantes de empresas de tecnología en las listas de oradores que participaron de las audiencias de la CTIA y que asistieron “camuflados” como parte de otros sectores que no representaban esas afiliaciones. Esto pone en evidencia los esfuerzos realizados por las empresas de tecnología para influir en el desarrollo del debate de una ley crítica que sentará un antecedente determinante para otras discusiones existentes en la región, un factor que fue denunciado desde distintos espacios, no solo en cuanto al lobby poco transparente, sino también en cuanto a su incidencia intensa para dilatar la votación en el legislativo

Un vistazo a lo que sabemos que se aprobó hasta ahora 

  • Lo bueno: un modelo de gobernanza que promete

Uno de los puntos de mayor resistencia fue la propuesta de creación de una autoridad única para la IA, punto que fue finalmente eliminado del proyecto aprobado en el Senado. En su lugar, esta nueva versión establece la creación del Sistema Nacional de Regulación y Gobernanza de la Inteligencia Artificial (SIA), compuesto por múltiples dependencias de la administración pública en materia de protección de datos y organismos de regulación sectorial, siendo su coordinadora la Agencia Nacional de Protección de Datos (ANPD) de Brasil (Cap IX). 

El SIA tendría la responsabilidad de generar nuevos criterios para la clasificación de un sistema de IA como de alto riesgo (art. 15), lo novedoso es cómo, en el marco de ese trabajo, dicha autoridad deberá garantizar un proceso de participación social así como efectuar análisis previos de impacto normativo (art. 16).

Este sistema de gobernanza puede tener un rol central en la protección de derechos en tanto que, por una parte, desconcentra el rol regulatorio de una tecnología en desarrollo en distintas entidades públicas preexistentes, así como por otro lado supone el fortalecimiento de entidades como la ANPD para robustecer su papel en materia de protección de datos aplicable a los sistemas de IA.

  • Lo regular: evaluaciones de riesgos “voluntarias”

Una de las principales modificaciones en la última versión del texto es la decisión de que la “evaluación preliminar”, es decir, una autoevaluación emprendida por los “agentes de IA” –quienes desarrollan, proveen o adquieren este tipo de sistemas–, previo al despliegue de sus tecnologías de IA en el mercado, será opcional para la mayoría de los sistemas de IA, excepto los sistemas de IA generativa y de propósito general, para los que la evaluación preliminar sí será obligatoria. 

Esta autoevaluación debería apuntar a determinar el nivel de riesgo que representa el sistema de IA de cara a la protección de la seguridad de la información, la transparencia y la ética en su funcionamiento, entre otros (art. 12). Para promover su adopción por el ecosistema de la IA, el proyecto propone un incentivo para que, quienes lo realicen, puedan obtener beneficios en el caso de recibir sanciones administrativas (art. 12, núm. 1). Habrá que ver si el incentivo es suficiente para volver una medida voluntaria en una práctica corriente en el ecosistema de la IA.

  • Lo malo: derechos de las personas trabajadoras y derechos de autor debilitados

Los derechos de las personas trabajadoras de plataformas mediadas por algoritmos quedaron mermados luego de sucesivas enmiendas al texto aprobado en el Senado. El Consejo Nacional de Derechos Humanos de Brasil (CNDH) recomendó (i) que se incluyera como sistemas de IA de alto riesgo a los que distribuyen tareas y evalúan el comportamiento de los trabajadores y trabajadoras, (ii) retomar disposiciones que fomenten la creación y valoración de empleos, la capacitación continua de trabajadores y trabajadoras y (iii) la necesidad de desarrollar evaluaciones de impacto algorítmico. 

Algo de esto se incluyó, pero no todo. Por ejemplo, el art. 14 inciso III reconoce que los mecanismos de “reclutamiento, selección, filtrado, evaluación de candidatos, toma de decisiones sobre promociones o finalización de relaciones laborales, evaluación del desempeño y comportamiento de las personas afectadas en los ámbitos de empleo, gestión de trabajadores y acceso al empleo por cuenta propia” sí son sistemas de IA de alto riesgo. Y en lo relativo a los derechos laborales, se menciona la importancia de la capacitación y fomento del empleo, pero el proyecto al día de hoy no fija garantías de supervisión humana y protección y estabilidad reforzada frente a eventuales despidos motivados por la adopción de la IA en el mundo del trabajo, tal y como había sido pedido por la CNDH.

Respecto de los derechos de autor, hubo una tensión entre los reclamos impulsados principalmente por agrupaciones de artistas y las empresas tecnológicas. El conflicto se centró, principalmente, en las disposiciones del artículo 65 enfocado en la remuneración de los titulares del derecho de autor en los casos en que las empresas que desarrollen sistemas de IA utilicen contenidos que están protegidos.

Los grandes centros de datos –que tienen la materia prima para el desarrollo de sistemas de IA- pedían por su cuenta la eliminación de la remuneración en tanto que desviará recursos esenciales para el desarrollo de otros centros de datos y la inversión tecnológica en el país. Sin embargo, el artículo 65 aprobado en el Senado es un victoria a medias, pues si bien reconoce el derecho a la remuneración, pese a las objeciones del sector privado, dicho pago beneficiará en buena medida a los titulares de los derechos de autor que “tengan condiciones efectivas de negociar”, lo que beneficiará en la práctica a las grandes empresas titulares de los derechos de autor –como grandes editoriales, o empresas discográficas- más que a los titulares de pequeño tamaño y sin músculo para negociar.

Un proyecto que avanza; próximos pasos 

Durante la votación en sesión plenaria, representantes del Senado tuvieron espacio para generar declaraciones acerca del proceso y de la importancia que implica contar con una regulación sobre Inteligencia Artificial. Esta media sanción fue celebrada, por ejemplo, por la Coalición de Derechos en la Red, una agrupación que nuclea más de 50 organizaciones de activistas por los derechos digitales.

 Si bien manifestaron sus preocupaciones frente a algunos puntos, la Coalición consideró esta aprobación como una victoria “frente al lobby de las empresas de tecnología, la industria y la extrema derecha”. Por su parte, la organización Data Privacy Brasil aseguró que la sesión del Pleno del Senado “se caracterizó por la madurez democrática y la construcción de consensos para la aprobación de la legislación”.

Si bien el proyecto plantea algunos interrogantes a futuro, especialmente frente a la merma de ciertos derechos como los de las personas trabajadoras y los de las y los creadores y artistas, su media sanción da lugar a la continuidad en el debate sobre cómo regular la IA en América Latina atendiendo las visiones y necesidades del contexto local. 

En 2025 el proyecto será debatido en la Cámara de Diputados, por lo que esperamos que entonces las victorias reconocidas no sean echadas atrás, y se aproveche esa última oportunidad para desarrollar garantías asociadas a la protección del medio ambiente en tanto que la IA es una tecnología sedienta y demandante en materia de consumo eléctrico, así como la recuperación de las protecciones para los trabajadores y trabajadoras que fueron advertidas por la CNDH. 

Aprendizajes de la gobernanza de Internet para la gobernanza de la IA: Un enfoque de participación significativa desde América Latina

Este informe, realizado por Derechos Digitales, analiza cómo las lecciones aprendidas en espacios de gobernanza de internet —como la Cumbre Mundial de la Sociedad de la Información (CMSI) y NETmundial— pueden aplicarse para fortalecer la gobernanza de la inteligencia artificial (IA) desde una perspectiva latinoamericana. El estudio identifica buenas prácticas para garantizar una participación significativa, entendida como un proceso inclusivo y sustantivo que va más allá de la mera presencia física o virtual, e incorpora la voz de actores históricamente subrepresentados, especialmente la sociedad civil. Entre estas prácticas destacan: consultas abiertas en varios idiomas, acceso efectivo y equitativo a los foros, representación diversa, promoción de la equidad de género e interseccionalidad, adaptación constante de agendas y creación de espacios regionales con conexión a los debates globales.

El informe también identifica obstáculos que persisten en los actuales espacios de gobernanza de la IA, como la falta de claridad en los mecanismos de inclusión, oportunidades limitadas para incidir en las agendas, ausencia de apoyos financieros para la participación presencial y criterios poco transparentes para integrar a la sociedad civil en grupos de trabajo. Ante esto, propone recomendaciones a Estados y actores facilitadores, incluyendo: mayor transparencia operativa; eliminación de barreras materiales, financieras y lingüísticas; fortalecimiento de la participación multisectorial; enfoques centrados en derechos humanos; y procesos de consulta diversos y accesibles. El documento enfatiza que lograr una participación significativa requiere voluntad política y un compromiso sostenido para que las decisiones sobre IA reflejen el interés público y protejan los derechos fundamentales.

Inteligencia artificial, derechos humanos y justicia social: Construyendo futuros desde América Latina

Este informe, realizado por Derechos Digitales, con el apoyo del International Development Research Centre (IDRC), recoge los resultados de un encuentro regional celebrado en Río de Janeiro entre representantes de la sociedad civil, academia y organismos internacionales, para debatir sobre el desarrollo, gobernanza y regulación de la inteligencia artificial (IA) desde una perspectiva de derechos humanos y justicia social. A partir de los hallazgos del Global Index on Responsible AI (GIRAI) y de diversas experiencias latinoamericanas, el documento identifica los principales desafíos que plantea la IA, incluyendo la vigilancia masiva, la desinformación, la falta de transparencia, la reproducción de desigualdades y la ausencia de marcos regulatorios inclusivos. También examina los riesgos socioambientales y laborales vinculados a la infraestructura tecnológica necesaria para su funcionamiento.

El informe propone estrategias y oportunidades para que América Latina construya alternativas no hegemónicas y socialmente transformadoras, priorizando la diversidad, la cooperación internacional, la producción de conocimiento local y la inclusión de comunidades marginadas en los debates. Plantea la necesidad de marcos regulatorios con enfoque de derechos, estándares regionales comunes y metodologías de evaluación adaptadas a los contextos locales. Asimismo, subraya el papel clave de la sociedad civil y la academia para incidir en foros internacionales, fiscalizar el cumplimiento de compromisos y promover tecnologías que respondan a las necesidades sociales desde perspectivas feministas, interseccionales y decoloniales, buscando que la IA contribuya al bien común y no profundice las desigualdades existentes.

Inteligencia Artificial en el Estado: Estudio colectivo sobre experiencias y riesgos para los derechos humanos

Este informe, realizado por Derechos Digitales, con el apoyo del International Development Research Centre (IDRC), analiza diez casos de uso de inteligencia artificial y sistemas automatizados por parte de gobiernos en América Latina en áreas como empleo, protección social, seguridad pública, justicia, educación y gestión de trámites. A partir de una metodología común, el estudio examina el contexto nacional, regulatorio, técnico y operativo de cada caso, identificando riesgos para derechos fundamentales como la privacidad, la no discriminación, el acceso a la información y el debido proceso. Se observan problemáticas transversales como la baja calidad e interoperabilidad de datos, la opacidad en la toma de decisiones y la dependencia de proveedores privados, así como impactos diferenciados en grupos en situación de vulnerabilidad.

Si bien estos sistemas se presentan como innovaciones para optimizar políticas públicas, el informe advierte que su implementación suele carecer de evaluaciones previas de impacto en derechos humanos, mecanismos de rendición de cuentas y salvaguardas efectivas frente a sesgos y errores. La investigación subraya la necesidad de marcos normativos claros, prácticas de transparencia proactiva y estándares éticos vinculantes para que el uso de IA en el sector público sea compatible con las obligaciones estatales en materia de derechos humanos, evitando reproducir desigualdades o vulnerar garantías fundamentales.