De la teoría a la práctica: herramientas para evaluar el impacto de la IA en los derechos humanos
Las evaluaciones de impacto en derechos humanos se consolidan como una herramienta clave para anticipar riesgos en el uso de inteligencia artificial. Este artículo analiza algunos de los instrumentos más recientes y explora cómo gobiernos, empresas y organizaciones pueden utilizarlos para evaluar sus impactos en la práctica. Sin embargo, su adopción sigue siendo limitada y desigual, lo que plantea dudas sobre su capacidad para incidir en un uso de IA que respete los derechos humanos.
En la actualidad, vivimos un contexto de creciente uso de tecnologías de inteligencia artificial (IA) por parte de los gobiernos, sea en la gestión de políticas públicas, a partir de herramientas predictivas, como apoyo en la gestión de políticas sociales o, incluso, en la interacción de organismos oficiales con las personas a través del uso de chatbots. Desde 2019, en Derechos Digitales estudiamos este tipo de casos en el marco de la iniciativa Inteligencia Artificial e Inclusión, que incluye 10 análisis del uso de IA en países de América Latina y dos informes comparados que apuntan a tendencias regionales. Uno de los puntos de falencia detectados en estos estudios consiste en la falta de mecanismos de control y supervisión por parte de las distintas partes interesadas o afectadas por tales iniciativas. Por otro lado, desde quienes las implementan parece haber una necesidad de herramientas que ayuden a responder a la siguiente pregunta: ¿cómo anticipar y mitigar los efectos negativos que los sistemas automatizados pueden tener sobre los derechos de las personas?
Un instrumento que puede ayudar a responder este interrogante son las evaluaciones de impacto en derechos humanos. En términos generales, estas evaluaciones se apoyan en el derecho internacional de los derechos humanos, en particular los Principios Rectores sobre las Empresas y los Derechos Humanos (UNGP), y sirven para analizar cómo una determinada intervención impacta en distintos derechos y grupos sociales, incorporando principios como la transparencia, la rendición de cuentas y la no discriminación. A la vez, cuando son pensados para el contexto de la IA, se inspiran en mecanismos de estudio de impacto adoptados en distintos ámbitos, como por ejemplo la protección de datos personales. Sin embargo, conllevan un conjunto de desafíos a su implementación que van desde asegurar los recursos necesarios para un análisis efectivo, hasta la necesidad de un entorno institucional y regulatorio que los haga significativos como herramienta de protección de derechos y no solo un ejercicio formal de validación de decisiones ya tomadas.
En este sentido, las herramientas analizadas en las siguientes líneas incluyen referencias a potenciales efectos en derechos humanos específicos, citados con los marcos y artículos específicos correspondientes. Es por esto que no fueron incluidos en este listado análisis de impacto como la herramienta de Evaluación de Impacto de la UNESCO, que tiene como fuente principal de referencia la Recomendación de Ética de la IA de la organización.
HUDERIA: herramienta de evaluación de impacto del Consejo de Europa
Uno de los desarrollos más recientes en este campo es el marco de Evaluación de Impacto en Derechos Humanos, Democracia y Estado de Derecho Para Sistemas de Inteligencia Artificial (HUDERIA, por sus siglas en inglés) impulsado por el Consejo de Europa. Se trata de una metodología diseñada específicamente para evaluar sistemas de IA desde una perspectiva integral, incorporando no solo la noción de derechos humanos, sino también consideraciones vinculadas a la democracia y el Estado de derecho. Fue aprobada por el Comité de Ministros del Consejo de Europa el 26 de febrero de 2025, mientras que su componente operativo, el modelo de análisis contextual (COBRA), fue admitido posteriormente el 25 de febrero de 2026, consolidando así el marco completo de evaluación de efectos.
Metodológicamente, HUDERIA se estructura como un proceso que abarca distintas etapas. Al inicio, plantea una fase de contextualización (COBRA) orientada a comprender el entorno en el que se despliega el sistema, sus finalidades y los posibles riesgos iniciales. A esto le sigue una fase de investigación en profundidad, que combina evidencia empírica con estándares de derechos humanos, incorporando elementos como la participación de las personas potencialmente afectadas y la transparencia en la toma de decisiones. Posteriormente, el proceso culmina en la elaboración de recomendaciones y medidas de mitigación, junto con mecanismos de seguimiento que buscan asegurar que el monitoreo no quede como un ejercicio meramente formal.
Si bien HUDERIA intenta superar la lógica de checklist o autoevaluación para avanzar hacia una evaluación capaz de capturar la complejidad de los sistemas de IA y sus impactos en contextos reales, esta misma profundidad plantea desafíos importantes en términos de implementación. La metodología requiere recursos, capacidades técnicas e institucionales, así como un compromiso efectivo con la transparencia y la participación, lo que puede dificultar su adopción generalizada en el corto plazo. En este sentido, HUDERIA puede leerse como un intento de avanzar hacia herramientas de diagnóstico más robustas y alineadas con estándares internacionales, pero también como un reflejo de las tensiones propias de este campo: entre la necesidad de herramientas rigurosas y la dificultad de traducirlas en prácticas concretas y sostenibles.
Toolkit de evaluación de impacto en derechos humanos de la IA del PNUD
Otro de los desarrollos recientes en este campo es el Toolkit de Evaluación de Impacto en Derechos Humanos de la Inteligencia Artificial, desarrollado por el equipo del Programa de las Naciones Unidas para el Desarrollo (PNUD) en su Centro Regional de Estambul, con aportes de diversas oficinas de país y socios regionales de Europa y Asia Central. Publicado en diciembre de 2025, se trata de una herramienta diseñada para apoyar a gobiernos, organizaciones y otros actores en la identificación, diagnóstico y mitigación de riesgos en derechos humanos asociados al uso de sistemas de IA, en particular en contextos donde las capacidades institucionales aún están en desarrollo. A diferencia de otros abordajes, el toolkit del PNUD adopta una orientación eminentemente práctica, pensada para ser utilizada por actores no técnicos que necesitan interactuar con sistemas de IA sin contar con conocimientos especializados. En este sentido, busca facilitar la incorporación de un enfoque de derechos humanos a lo largo de todo el ciclo de vida de la IA, desde el diseño y desarrollo hasta su implementación y monitoreo.
Metodológicamente, el toolkit se estructura en tres componentes principales. En primer lugar, un manual técnico que introduce conceptos clave de la IA y describe su ciclo de vida, identificando riesgos en derechos humanos en cada etapa. En segundo lugar, una herramienta de autoevaluación organizacional, que permite a las instituciones valorar su nivel de preparación para llevar adelante este tipo de análisis, considerando aspectos como políticas internas, capacidades y procesos. Finalmente, incluye un modelo de evaluación de impacto, que ofrece una metodología para identificar derechos potencialmente afectados, determinar la magnitud de los impactos y definir medidas de mitigación.
El toolkit aborda áreas clave como la no discriminación, la privacidad y la protección de datos, la transparencia y la rendición de cuentas, el debido proceso y el acceso a remedios, alineándose con estándares internacionales como los Principios Rectores de las Naciones Unidas sobre Empresas y Derechos Humanos y los principios de la OCDE. Su principal aporte radica en su accesibilidad y modularidad: ofrece guías, preguntas orientadoras y herramientas concretas que permiten operacionalizar el análisis de impacto en contextos reales.
En contraste con HUDERIA, que propone una evaluación más profunda y contextual de los impactos, el toolkit del PNUD prioriza un enfoque operativo y adaptable, orientado a facilitar su adopción en distintos entornos institucionales. Ambos instrumentos, desarrollados en momentos prácticamente paralelos, reflejan aproximaciones complementarias dentro de un campo en desarrollo.
A la vez, ambos plantean limitantes en relación a su capacidad para mitigar riesgos. Dependen, en gran medida, de la voluntad de gobiernos, organismos estatales o entidades privadas para su uso, o de las capacidades de las organizaciones de derechos humanos para llevar adelante estas tareas pese a las restricciones presupuestarias y de recursos que presenta el sector en la actualidad.
Evaluaciones de impacto en derechos fundamentales (FRIA): guía de ECNL y el Instituto Danés para los Derechos Humanos
En el contexto de la regulación europea, el European Center for Not-for-Profit Law (ECNL) y el Danish Institute for Human Rights desarrollaron una guía para la implementación de evaluaciones de impacto en derechos fundamentales (Fundamental Rights Impact Assessments, FRIA), en el marco de la Ley de Inteligencia Artificial de la Unión Europea (AI Act) en 2024. A diferencia de las otras herramientas analizadas, la FRIA se configura como una obligación que debe ser implementada para determinados sistemas de alto riesgo antes de su primer uso (según lo establecido en el artículo 27 de la AI Act).
Más que una metodología cerrada, la guía propone un enfoque estructurado para llevar adelante estas evaluaciones, orientado a asegurar que el análisis de impactos en derechos fundamentales forme parte del proceso de toma de decisiones antes del despliegue de sistemas de IA. En este sentido, la FRIA se inserta en el encuadre más amplio del AI Act, articulándose con otras obligaciones aplicables a los sistemas de alto riesgo, como el desarrollo de capacidades internas en IA, la supervisión humana o el reporte de incidentes. Así, busca funcionar como un mecanismo de gobernanza que permita identificar riesgos, evaluar su gravedad y definir medidas de mitigación de manera anticipada.
Metodológicamente, la guía organiza la FRIA como un proceso en varias fases, que incluyen la planificación y definición del alcance, la estimación de riesgos sobre los derechos fundamentales, la adopción de medidas de mitigación y el monitoreo posterior. Un elemento central es la incorporación de la participación de personas potencialmente afectadas y otros actores relevantes, así como la documentación y transparencia de los resultados. Asimismo, la guía aborda su relación con otras herramientas existentes, como las evaluaciones de impacto en protección de datos (DPIA), señalando que, si bien pueden presentar puntos de contacto, deben entenderse como evaluaciones diferenciadas pero complementarias.
A diferencia de HUDERIA o del toolkit del PNUD, que proponen metodologías más desarrolladas y detalladas, la FRIA establece principalmente un marco de requisitos y criterios mínimos derivados de la regulación, dejando margen a los actores para definir cómo implementar la evaluación en la práctica. Cabe mencionar que tanto el toolkit del PNUD como la FRIA mencionan el instrumento del Consejo de Europa como un antecedente clave.
¿Y qué pasa en América Latina?
En América Latina, el desarrollo de este tipo de herramientas aún es incipiente. Si bien existen algunos esfuerzos aislados desde la sociedad civil, la academia o ciertos organismos públicos, las evaluaciones de impacto en derechos humanos aplicadas a la IA siguen siendo poco frecuentes y no forman parte de prácticas institucionalizadas. En este escenario, en la actualidad, la Relatoría Especial para la Libertad de Expresión de la Comisión Interamericana de Derechos Humanos trabaja en un informe regional sobre el asunto, que incluyó un espacio de consulta abierta, a principios de 2026, ante la cual Derechos Digitales realizó una serie de aportes. Si bien no se trata de una evaluación de impacto en los términos analizados, la sistematización de estos riesgos por parte de un organismo del Sistema Interamericano de Derechos Humanos puede sentar un precedente clave para avanzar en una herramienta de regional de este tipo.
Asimismo, es necesario que la implementación de estas herramientas se desarrolle de forma crítica y consensuada, para evitar caer en el cumplimiento de un mero checklist. La publicación de los resultados de las investigaciones, en este sentido, representa un potencial recurso para ser utilizado como precedente a la hora de implementar estas tecnologías en distintos lugares bajo situaciones similares.
La región tampoco cuenta, por el momento, con un marco consolidado que sirva como referencia común para orientar su implementación, como pasa con la Ley de IA de la Unión Europea. En este contexto, el desafío no es solo adaptar herramientas desarrolladas en otros entornos, como las analizadas en este artículo, sino también avanzar en la construcción de capacidades, estándares y prácticas propias que permitan evaluar de manera sistemática los impactos de estas tecnologías en los derechos de las personas. El reto no es solo técnico o regulatorio, sino también político, y exige que quienes puedan ser afectadas en el despliegue de estos sistemas estén en el centro del proceso, como parte activa del diseño y seguimiento de la evaluación de impactos.