2024: el año en que la protección de datos nos recordó su lado político

El 2024 fue un año de progresos esperados en materia de protección de datos para nuestra región. Se aprobó en Chile, luego de seis años de debate regulatorio, la ley de protección de datos; El Salvador también aprobó su ley, y Perú reformó la suya para adaptarla al estándar europeo, un referente que muchos países de América Latina intentan adoptar. Por su parte, Paraguay avanzó en la discusión del proyecto de ley, y se espera que este año suceda su aprobación.

El año pasado también observamos retrocesos significativos, como la eliminación del INAI, autoridad garante del derecho a la protección de datos y el acceso a la información pública en México. Esto ocurrió en el marco de una reforma constitucional que, bajo el argumento de reducir costos operativos, eliminó a distintos entes autónomos. Una supresión que se produce en tiempos en que las Big Tech acrecientan su poder para amasar y explotar nuestros datos bajo condiciones cada vez más asimétricas.

Frente a esos avances y retrocesos regulatorios, en nuestro trabajo en Derechos Digitales hemos observado algunas tendencias regionales preocupantes. Algunas de ellas son nuevas, mientras que otras representan la continuidad de prácticas de explotación de nuestros datos que se expanden y masifican de cara a nuevas y emergentes tecnologías, las cuales amplían el alcance a las tareas de recolección y procesamiento de nuestros datos y con ello, intensifican su impacto en la protección de los mismos. Veamos una por una.

La protección de datos y las tareas estatales de seguridad: una desconexión peligrosa

La primera tendencia tiene que ver con la creciente adopción de prácticas y tecnologías para la extracción de datos por parte de los Estados para fines que, en particular, se enfocan en la seguridad ciudadana y nacional.Se trata de finalidades que las regulaciones de protección de datos han excluido tradicionalmente de su aplicación, bajo una visión arcaica que sugiere que el resguardo de la ciudadanía no es algo que deba consentir esta última.

Enmarcado en esta tendencia vimos con preocupación la expedición de la resolución que en Argentina habilita al ciberpatrullaje, una tarea de seguridad emprendida por el Estado para patrullar (o vigilar) internet “de la manera en que se patrullan las calles” para, en teoría, facilitar la identificación y prevención de los delitos en línea.

Se trata de una resolución que no fija límites claros, respetuosos y garantes de la privacidad y la libertad de expresión en línea. De manera similar, el ciberpatrullaje se despliega también en Colombia, Bolivia, México, Brasil y Uruguay. En cada caso, al parecer, las autoridades se dedican a explorar y observar de cerca lo que publicamos y con quién interactuamos en línea -en ocasiones, con ayuda de algoritmos para automatizar dicha tarea-, para determinar si lo que decimos o con quién conectamos amerita ser perseguido por la vía penal.

Lo cierto es que, pese a la desconexión que persiste entre la regulación de la protección de datos y las tareas de seguridad, y a que sea cierto que el consentimiento no sea propiamente la base jurídica que da pie al tratamiento de los datos en estos casos, los Estados sí deberían observar los principios y obligaciones que garantizan que la recolección de los datos de la ciudadanía sucede de manera responsable, lícita, leal, transparente, segura y, sobre todo, de manera compatible con los derechos humanos.

Pero además, bajo ciertas condiciones, los titulares de los datos deberían conservan el ejercicio de los derechos de actualización, rectificación, y cancelación de su información inclusive en esas tareas. Esto último, de hecho, lo reiteró por su cuenta el fallo Cajar vs. Colombia emitido en 2024 por la Corte Interamericana de Derechos Humanos respecto a las tareas de inteligencia estatal, y cuyas repercusiones en la regulación de la protección de datos frente a las tareas de seguridad aún están por verse.

Biometría ¿para qué?: el valor vs. el precio de los datos

La segunda tendencia que observamos, tiene que ver con la recolección transaccional de datos sensibles para la realización de modelos de negocio muy poco claros o transparentes. Por ejemplo, identificamos la masificación de los servicios de empresas como Tools for Humanity (TfH) desarrolladora de World –antes Worldcoin– que prometen entregar a las personas criptomonedas a cambio del escaneo de su iris, un dato biométrico que será usado para ayudar a resolver los problemas asociados a la identidad en línea.

La empresa TfH desplegó operaciones en Argentina, Brasil, Chile, Colombia, Ecuador, Guatemala, México, Perú y República Dominicana. Solo las autoridades de protección de datos de Argentina, Colombia, Brasil y Perú abrieron investigaciones a World, entre otras cosas por las condiciones de recolección del consentimiento de las personas, que no parece estar precedido de información clara y transparente sobre las condiciones del tratamiento de los datos biométricos capturados, así como las condiciones del ejercicio de los derechos de acceso, rectificación, cancelación u oposición. Sobre el desarrollo de esas investigaciones sabemos poco al día de hoy.

Ahora bien, el contenido transaccional de este tipo de prácticas resulta problemático por dos motivos. En primer lugar, porque asignan un valor económico a la entrega de un dato cuyo valor identificatorio es inestimable por su naturaleza inmodificable, así como profundamente personal, y que por los riesgos de ser instrumentalizado en contra de su titular ha merecido un estatus de protección especial en la mayoría de legislaciones que regulan esta materia. En segundo lugar, porque además de explotar la vulnerabilidad económica de ciertos sectores de la población, se trata de empresas que operan de manera poco transparente frente a los reguladores y los titulares de los datos.

Todo esto para aceitar el modelo de negocio de la identidad digital del que todavía no sabemos mucho, pero frente al cual otras autoridades de protección de datos en el mundo han actuado de manera mucho más contundente y preventiva prohibiendo las operaciones de World, tal y como sucedió en España, Francia, India, Corea del Sur, Hong Kong e incluso Kenia.

Las Big Techs y la IA: nuestros datos a merced de políticas injustas

Y la tercera tendencia, tiene que ver con los cambios poco claros y transparentes de las políticas de privacidad impuestas de manera abusiva en América Latina por distintas plataformas que transitaron a la adopción de sistemas de IA con diversos propósitos, y que asumen, al contrario de lo indicado por los principios de finalidad, transparencia o lealtad en el tratamiento de los datos, que los titulares aceptan por defecto los nuevos términos y condiciones impuestos.

El caso de Meta es quizá uno de los más representativos, pues desplegó un cambio global de su política de privacidad que autoriza de manera retroactiva al uso de los datos de los usuarios de Facebook e Instagram para entrenar a su IA. Un cambio que dejó a sus usuarios en América Latina sin ninguna opción válida para negarse u oponerse.

Solo la autoridad de protección de datos de Brasil (ANPD) reaccionó al emitir una medida cautelar que prohibía desplegar dicho cambio en tanto que dejaba a los titulares de los datos de ese país sin opciones para rechazar la nueva política en cuestión. Con posterioridad, Meta desplegó en ese país su política de manera mucho más clara con autorización de la autoridad, y habilitó -a diferencia del resto de países de la región- canales para el ejercicio del derecho a rechazar los cambios propuestos.

Cambios similares sucedieron en las políticas de otras plataformas como X, Linkedin, Adobe y Google, entre otras, que además habilitan a que terceros puedan usar los datos de sus usuarios para entrenar a sus sistemas de IA. Se trata de cambios que, en la mayoría de los casos, se han introducido de manera subrepticia y silenciosa, algo que la Comisión Federal de Comercio en Estados Unidos (FTC por sus siglas en inglés) ha calificado como una práctica injusta y engañosa.

Frente a este panorama ¿hay motivos para la esperanza?

Estas tendencias están acompañadas de un panorama regulatorio que, en gran medida, todavía limita a las pocas autoridades activas de la región a desempeñar roles de simple monitoreo preventivo y vigilancia pasiva. Aún queda pendiente avanzar hacia un rol sancionador más robusto donde, por ejemplo, las multas ejemplarizantes puedan ayudar a generar nuevas pautas de conducta para actores del sector privado y público; o donde las autoridades asuman un rol activo y oficioso, en el cual la imposición a iniciativa propia de medidas cautelares pueda ayudar a prevenir la afectación de los derechos de las personas.

Hay motivos para la esperanza, pero debemos moderar nuestras expectativas. Es cierto que, cada vez más, el listado de países sin regulación de protección de datos se reduce. Y aunque esto es importante, no es motivo para cantar victoria, pues hace falta todavía cambiar visiones arcaicas como aquellas que sugieren que los Estados, cuando realizan cierto tipo de tareas -como las de seguridad- tienen un cheque en blanco que les habilita a dar tratamiento a los datos personales de la ciudadanía de cualquier manera.

También es cierto que las regulaciones vigentes en protección de datos precisan de un balance necesario cuando su ejercicio se enfrenta a otros derechos, como el de libertad de expresión o acceso a la información. Y que persisten otros retos igualmente urgentes para que las regulaciones aprobadas y vigentes cobren vida y sirvan como verdaderas herramientas de protección a las personas.

Por ejemplo, urge el robustecimiento de las capacidades humanas y técnicas de las autoridades de protección de datos, así como establecerlas en países donde aún no existen. Además, es fundamental garantizar los recursos necesarios para su funcionamiento, y dotarlas de la independencia y autonomía que las habiliten para actuar frente a otras dependencias estatales así como frente a las Big Tech que, cada vez más, buscan eludir o intimidar a las normativas y autoridades que ejercen su poder regulatorio.

Desde luego, el trabajo de organizaciones como Derechos Digitales será aportar a esto último, y vigilar para que las promesas de regulación no se queden en el papel, sino que se traduzcan en verdaderas garantías para los derechos humanos en el entorno digital. El 2024 nos recordó que la protección de los datos personales no es solo una cuestión técnica o legal, sino una lucha política que enfrenta intereses poderosos, ya sean estatales o corporativos.

Nos encontramos frente a un panorama complejo, pero también un momento clave para definir el futuro del derecho a la protección de datos en nuestra región. Las decisiones que tomemos hoy serán cruciales para establecer un equilibrio entre el avance tecnológico y la protección de los derechos fundamentales. Solo si mantenemos la vigilancia activa, exigimos mayor transparencia y contribuimos a fortalecer las capacidades regulatorias de las autoridades, podremos garantizar que los datos personales de millones de personas no se conviertan en una mercancía desprotegida, sino en una herramienta que potencie su dignidad y autonomía. El desafío es enorme, pero no podemos darnos el lujo de detenernos ahora.

Vigilancia Estatal: Los riesgos de los IMSI Catchers

Hace pocas semanas se aprobó en Chile el proyecto de Ley Antiterrorista que actualiza la ley vigente para facilitar nuevos mecanismos de investigación y persecución. La discusión tuvo varios puntos álgidos, como por ejemplo, la ampliación del concepto de delito terrorista incluyendo a individuos sin necesidad de asociación con actividades terroristas. Pero sin duda el apartado que generó mayor debate fue la inclusión del uso de “IMSI Catchers” o “antenas falsas” para el espionaje en el contexto de las investigaciones.

En el marco del espionaje estatal, un IMSI Catcher, Stingray o simplemente una “antena falsa” es un dispositivo electrónico, compuesto por hardware y software, que simula ser una antena de telefonía legítima, pero en verdad no lo es, ya que su objetivo es capturar datos de los dispositivos que estén a su alcance, mediante un ataque de intermediario o MITM (man-in-the-middle), esto es, la instalación de un dispositivo “en el medio” de una comunicación entre personas.

Esto es facilitado por la forma en que funciona la telefonía móvil. El diseño arquitectónico de las redes móviles se basa en la división geográfica en pequeñas áreas o células, cada una cubierta por una o más antenas que reciben y redistribuyen señales. Estas antenas tienen áreas de cobertura que se sobreponen, garantizando así que no haya sectores sin señal. Dado que un dispositivo móvil puede detectar múltiples antenas simultáneamente, utiliza un protocolo para seleccionar aquella con la señal más potente.

En términos generales, las antenas actúan como intermediarios entre los dispositivos móviles y la estación telefónica, donde se generan los enrutamientos de las comunicaciones. Por otro lado, las “antenas falsas” operan de manera similar a las antenas reales, pero se diferencian en quién controla su operación y en el hecho de que pueden ser móviles, no requiriendo una instalación fija. Estas antenas falsas replican los parámetros de identificación de una antena legítima, engañando así a los dispositivos. Uno de los principales mecanismos para captar la señal de los dispositivos es por medio del uso de una potencia de señal mayor a la que presentan las antenas legítimas del sector.

Una vez conectados a una antena falsa, los dispositivos tienen dos posibles cursos de acción, según el propósito de la falsa antena. El primero es la denegación del servicio, y el segundo, actuar como intermediario entre el dispositivo y la red legítima. Esta última opción es más habitual, ya que a la vez que no interrumpe la comunicación, permite la recolección de datos de identificación del dispositivo, como el IMSI (International Mobile Subscriber Identity o Identidad Internacional de Suscriptor Móvil), un número único asignado a cada dispositivo móvil. Poseer el IMSI de un dispositivo facilita su rastreo a través de redes telefónicas legítimas, generalmente mediante una orden judicial conforme a las regulaciones locales. Además, existen varios tipos de comunicaciones que pueden ser captadas o intervenidas como los mensajes de texto pues carecen de cifrado.

A su vez, se ha demostrado que las llamadas realizadas mediante protocolos de la generación 2G pueden ser interceptadas debido a su cifrado débil, como demostró Chris Paget en DEF CON 18. Aunque los protocolos de redes 3G, 4G y 5G utilizan esquemas de cifrado más robustos, una antena falsa aún puede forzar un ataque de degradación de servicio, limitando los dispositivos a conectarse solo a redes 2G. Es decir, forzando a los dispositivos a utilizar protocolos menos eficientes, menos avanzados y menos seguros. Este fenómeno no es inusual dado que algunas redes de telefonía todavía operan bajo este protocolo. Otra vulnerabilidad es la extracción de metadatos: incluso si un dispositivo se comunica a través de protocolos que permiten que la información en tránsito esté cifrada, la antena falsa puede registrar cuando se conecta a un sitio específico, cuando utiliza aplicaciones de mensajería o cuando realiza llamadas.

Problemas plausibles

El uso de tecnologías de “antenas falsas” trae consigo una serie de riesgos asociados. En primer lugar, quien tenga acceso al manejo del dispositivo de interceptación puede utilizarlo sin que exista una contraparte que pueda tener control sobre su uso. En una columna pasada, explicamos el funcionamiento de las interceptaciones telefónicas a través de la infraestructura del proveedor, que por requerimientos legales actúa en la práctica como un agente de registro y control de las interceptaciones solicitadas por los cuerpos investigativos. El control sobre el uso de “antenas falsas” es algo que está muy lejos de quedar bien definido en la nueva ley, tal como expresamos también en conversación con la Radio y Diario Universidad de Chile.

En segundo lugar, debemos enfatizar que se trata de un mecanismo de vigilancia no solo altamente intrusivo, sino también indiscriminado respecto de quienes están cerca del dispositivo. Dentro de la operación de una “antena falsa” es posible captar a todos los dispositivos que estén dentro de su radio de acción y no solamente un dispositivo de interés, afectando la privacidad de personas que no son el objetivo de una investigación. En términos metafóricos esto ha sido ejemplificado como “pesca de arrastre” o “pescar con dinamita” debido a su grosera falta de proporcionalidad.

El tercer gran problema en la disponibilidad de este tipo de tecnologías es la posibilidad de uso dirigido a lugares o grupos con fines de persecución de actividades lícitas, bajo la excusa de aplicabilidad de la ley. Por ejemplo, serviría para poder identificar los dispositivos de personas que participan de una movilización social. Dado que operan dentro de un radio específico, pueden captar todos los dispositivos en un área específica, para eventualmente identificar participantes. Esta factibilidad técnica es preocupante, especialmente considerando precedentes donde se ha solicitado a los proveedores de servicio que entreguen información de los dispositivos conectados en ciertas áreas durante manifestaciones, como ocurrió durante el estallido social en Chile. Asimismo, es concebible su implementación en zonas ya estigmatizadas, como poblaciones en sectores socioeconómicos bajos, así como en regiones donde existen procesos activos de reivindicación territorial por parte de grupos indígenas.

Atrapando al catcher

Sin embargo, no se trata de una tecnología infalible o inevitable. El riesgo de ser interceptado por IMSI catchers puede minimizarse significativamente si se toman ciertas precauciones. Entre las medidas efectivas se incluyen configurar el dispositivo para usar exclusivamente redes 4G, emplear aplicaciones de mensajería y llamadas con cifrado robusto como Signal, y utilizar servicios de VPN o TOR, entre otras.

El uso de “antenas falsas” tiene un gran alcance y potencial en contextos de sociedades donde las personas no tienen un alto grado de preocupación por sus comunicaciones, en especial cuando los niveles de conectividad son tan altos. Me atrevería a decir que actualmente la mayoría de las personas vive de esta forma, lo cual allana aún más el camino para peligrosas prácticas de vigilancia masiva. Pero esto no debería significar una aceptación de que las comunicaciones sean seguras, ni de que el Estado esté siempre a un paso de vigilar todo lo que hacemos. Necesitamos no solamente comprender los riesgos, sino también empujar por cambios en la regulación y en la conducta de los agentes públicos.

Fuera del algoritmo: Cómo comunicar más allá de las redes sociales

Recuerdo cuando abrir una cuenta de Twitter era casi un acto revolucionario. En aquellos días, la plataforma prometía algo cercano a la igualdad: un lugar donde las ideas, más que las jerarquías, definían el alcance de tu voz. Para muchas organizaciones de la sociedad civil, Twitter, Facebook e Instagram (un poco después) fueron herramientas esenciales para denunciar injusticias, movilizar comunidades y visibilizar problemas que los medios tradicionales pasaban por alto. A lo largo de los años, lo que parecía un espacio inclusivo se fue desmoronando hasta convertirse en algo muy distinto.

Por ejemplo, desde que Elon Musk tomó las riendas de X, la antes llamada Twitter, el ambiente en la plataforma se ha vuelto insostenible. Con el discurso de odio en auge, los insultos racistas, misóginos, edadistas y homofóbicos no solo han aumentado, sino que se han normalizado. El regreso de cuentas previamente suspendidas por incitar a la violencia ha amplificado estos problemas. Lo que alguna vez fue un refugio para voces críticas ahora se siente como un espacio hostil, especialmente para quienes defienden los derechos humanos.

Meta tampoco se queda atrás. En un giro reciente, la empresa ha anunciado el fin de su programa de verificación de datos en Facebook, Instagram y Threads. La medida, presentada como un paso hacia una supuesta “libertad de expresión”, amenaza con convertir estas plataformas en un terreno aún más fértil para la desinformación. Esto ocurre justo antes del regreso de Donald Trump a la Casa Blanca, en un momento político clave que no parece una coincidencia.

Finalmente, esta medida elimina una de las pocas herramientas que intentaban, al menos en teoría, mitigar los daños del contenido falso o malintencionado. Esto no es solo preocupante, es alarmante: en una época en la que las sociedades enfrentan desafíos como la polarización y la crisis de confianza en la información, la decisión de Meta puede tener consecuencias devastadoras. Si bien un sistema de notas comunitarias podría aumentar la confianza en la verificación de hechos, también existe un riesgo de manipulación de esos sistemas.

El dilema de abandonar las redes

En este panorama, las organizaciones de la sociedad civil enfrentan un dilema. Las redes sociales, a pesar de todos sus problemas, siguen siendo el lugar donde ocurre la conversación pública, donde figuras públicas como presidentes, congresistas y periodistas intercambian información e ideas, y donde todavía se discuten noticias a medida que ocurren. Dejar de usarlas podría significar perder el alcance y la relevancia necesarios para incidir en los debates globales. Sin embargo, quedarse muchas veces implica navegar en un espacio cada vez más tóxico, donde el riesgo de ser acosado, doxeado o atacado es constante. ¿Es posible encontrar un punto medio?

The Engine Room, realizó un estudio llamado “Explorando una transición hacia plataformas alternativas de redes sociales para organizaciones de justicia social en el Sur Global”, donde señala que las redes sociales tradicionales presentan preocupaciones significativas relacionadas con la recolección intrusiva de datos, la vigilancia y la propagación de desinformación. También destacan que plataformas alternativas, como Mastodon y BlueSky, ofrecen experiencias más comunitarias y menos extractivas, permitiendo a los usuarios crear y gestionar sus propios espacios en línea. Varias organizaciones nos hemos sumado a una tendencia por relevar el rol de tecnologías que devuelven al menos algo de control a sus usuarios.

Las alternativas, aunque prometedoras, aún no están listas para reemplazar por completo a las grandes plataformas, porque su alcance sigue siendo limitado. Migrar hacia ellas implica convencer a nuestras audiencias de hacer lo mismo, algo que no es fácil en un entorno donde los “efectos de red” (o si prefieres, la inercia y la comodidad) mantienen a las personas atadas a las plataformas tradicionales. Pero estas alternativas son un recordatorio de que otras formas de comunicación digital son posibles, aunque todavía estén en construcción. The Guardian o La Vanguardia se aventuraron a cerrar para siempre las puertas en redes como X. Mucho antes, en el 2021, la marca Lush dejó de usar redes sociales, declarándose “antisocial”.

Mientras tanto, surge la pregunta: ¿es posible que las organizaciones de la sociedad civil se desvinculen de las redes sociales más populares hoy? La respuesta no es sencilla, pero es evidente que diversificar los canales de comunicación es imprescindible. No podemos depender exclusivamente de plataformas que priorizan la extracción y el lucro, persiguen objetivos políticos orientados a ganar poder, o imponen narrativas autoritarias y conservadoras sobre los derechos humanos.

Además, las organizaciones de la sociedad civil suelen publicar de manera orgánica, con poca o nula inversión en publicidad, lo que dificulta aún más que su contenido llegue a las audiencias. Por ello, los boletines por correo electrónico, las páginas web actualizadas y las colaboraciones con medios de comunicación independientes siguen siendo herramientas valiosas para alcanzar a las audiencias más allá de tuits e historias. Es también el momento de explorar nuevos formatos: podcasts, videos documentales y eventos híbridos que combinen lo digital con lo presencial. En un ambiente donde los algoritmos deciden qué contenido llega a quién, recuperar el control sobre nuestras audiencias también se convierte en un acto de resistencia.

Regulación y responsabilidad

Sin embargo, estas soluciones son insuficientes si no se aborda el problema de fondo: la falta de contrapesos efectivos al control sobre las plataformas tecnológicas. Mientras las empresas continúen operando sin rendir cuentas sobre sus decisiones y sobre su modelo de negocios, la violencia digital y la explotación de datos seguirán siendo el modelo predominante de los gigantes de internet. Aquí es donde los Estados deben intervenir, en ningún caso para censurar, sino para proteger. Necesitamos políticas públicas que garanticen entornos digitales seguros, mecanismos efectivos para denunciar el acoso y sanciones claras contra quienes promuevan el odio. Necesitamos regulación que permita de manera efectiva que, a mayor poder, exista mayor también responsabilidad.

Las plataformas tecnológicas, por su parte, tienen una deuda importante con sus usuarias y usuarios. La implementación de medidas contra el acoso, la protección de datos personales y la transparencia en la moderación de contenido no deberían ser opcionales. En lugar de priorizar el crecimiento a cualquier costo, es hora de que estas empresas asuman su responsabilidad en la creación de un ecosistema digital que no perpetúe la violencia y el abuso. Que no se escude en la seguridad para promover la censura, ni en la libertad de expresión para descuidar a sus usuarios.

Meta, por ejemplo, hace algunos meses anunció que utilizará datos personales de sus usuarios para entrenar sus sistemas de inteligencia artificial, sin ofrecer una manera clara de oponerse a esta práctica. En muchas jurisdicciones, simplemente no hay opciones para negarse a este uso de los datos personales. Sin embargo, países como Brasil y los de la Unión Europea, con legislaciones más robustas, han logrado plantear regulaciones que limitan o frenan estos abusos. Pero ¿qué ocurre en el resto del mundo, donde las protecciones legales son débiles o inexistentes?

La desigualdad en la capacidad de los Estados para hacer frente a estos problemas agrava las brechas digitales. Mientras algunos países avanzan en la defensa de los derechos digitales, otros quedan expuestos a los abusos de grandes corporaciones que operan sin restricciones.

Más allá del algoritmo

Es imprescindible repensar colectivamente el diseño y la dinámica de estas plataformas. Cada vez que el discurso de odio se normaliza o el ciberpatrullaje queda sin consecuencias, el entorno digital se deteriora aún más. Este problema no debe recaer en las usuarias y usuarios, sino en quienes tienen el poder de cambiar las reglas del juego: las plataformas tecnológicas y los Estados.

Construir un ecosistema digital ético y seguro no será rápido ni fácil. Requiere creatividad, paciencia y voluntad política, pero el esfuerzo vale la pena. Porque al final, comunicar más allá del algoritmo no es solo una cuestión de supervivencia para las organizaciones de la sociedad civil; es una apuesta por un futuro donde las voces sean amplificadas, no silenciadas, y donde la tecnología sea una herramienta de inclusión, no de exclusión.

Comunicar en un entorno hostil no es sólo un desafío técnico; es una cuestión de principios. Rechazar un modelo digital basado en el odio y la explotación abre la posibilidad de transformar cómo conectamos, construimos y luchamos en el mundo digital, creando espacios más justos y seguros para todas las personas.

Transformaciones y desafíos en los derechos digitales en América Latina: un balance de 2024

En 2024, la intersección entre tecnología y derechos humanos ha cobrado una relevancia sin precedentes en América Latina. En un panorama global que anticipaba decenas de elecciones, pero que está todavía marcado por los horrores del genocidio y la guerra, como también por autoridades locales embelesadas con las promesas por la IA y pugnas políticas globales sobre el futuro de las redes digitales, vale la pena hacer una breve retrospectiva de lo que nos ha tocado enfrentar este año.

Encerrando en la lámpara al genio de la IA

La discusión sobre la regulación de la inteligencia artificial (IA) se intensificó en América Latina en 2024. Diversos países de la región han estado explorando marcos regulatorios para controlar los riesgos de estas tecnologías sin impedir su desarrollo ni excluir a los países de la economía global. El reciente avance en Brasil de un proyecto de larga discusión parece acercar esa regulación a la realidad.

En este contexto, Derechos Digitales ha enfatizado la importancia de poner los derechos humanos en el centro de la regulación y del desarrollo de la inteligencia artificial, destacando la necesidad de una participación ciudadana efectiva en su desarrollo e implementación. También hemos avanzado significativamente en demostrar, a través de la evidencia situada, cuáles son las características de la implementación en la región por entidades públicas, más allá de los compromisos declarados. A pesar de los desafíos, nuestra más reciente edición de Latin America in a Glimpse ofrece una luz de esperanza para un desarrollo comunitario, situado y feminista de estas tecnologías, en lugar de rendirnos a la voluntad de algunos gigantes de la tecnología.

Pactos mundiales, pero sin todo el mundo

El Pacto Digital Mundial (GDC, por sus siglas en inglés) aparecía como uno de los hitos más significativos del año, con una importante búsqueda de incidencia por incontables activistas de todo el mundo, para sumar sus voces a las de los Estados representados en la Organización de las Naciones Unidas (ONU). En los escasos espacios de participación abiertos, Derechos Digitales hizo valer sus expectativas sobre el GDC, enfatizando la necesidad de una perspectiva efectiva de género en el GDC, basada en principios feministas para la inclusión de género, y recomendando un enfoque basado en derechos humanos que considere intersección de género y derechos en áreas clave. No obstante, un resultado decepcionante en esas materias y de muy difícil participación para actores no estatales, nos hace sumarnos a la preocupación global sobre el proceso de implementación, que seguiremos con celo.

Otro proceso preocupante terminó de manera casi trágica: tras más de dos años de negociaciones, la ONU aprobó el texto final de un nuevo tratado internacional para combatir el ciberdelito. Organismos expertos y activistas alrededor del mundo advirtieron por años que el texto contiene falencias importantes que pueden ser utilizadas para validar abusos contra los derechos humanos, incluida la falta de salvaguardas suficientes en materia de protección de derechos frente a la cooperación internacional.

Libertad de expresión, siempre bajo ataque

En un año que vio nuevas preocupaciones no solo por los usuales bloqueos, sino también por la siempre presente violencia contra periodistas y por la posible promulgación de leyes mordaza en distintos países, o el levantamiento de restricciones y cierres contra organizaciones activistas, el uso de internet para la libre expresión parece ser cada vez más un riesgo que una oportunidad.

Independiente de las decisiones de ciertos gobiernos, recientes cambios como la compra de Twitter (ahora X) por un magnate controvertido, han complicado aún más el panorama para el ejercicio de la expresión en plataformas privadas. Así, el bloqueo de lo que era Twitter en Brasil levantó preocupación por el efecto aparentemente desproporcionado, como consecuencia de actos de autoridad legalmente tramitados por la falta de colaboración de la plataforma con procesos judiciales. Eso, sin siquiera discutir la decadencia de una plataforma que sigue siendo relevante para una minoría, y su incapacidad de mantenerse como un espacio seguro.

La arbitrariedad para la censura de contenidos en plataformas digitales quedó además validada en México, por medio de la sentencia de la Suprema Corte de Justicia de la Nación que validó el sistema de notificación y retirada, cuestionado por su facilidad para lesionar derechos humanos en línea en nombre del derecho de autor y sin real efecto sobre la “piratería”.

Tecnologías para la vigilancia: un paso adelante, diez atrás

En 2024, la Corte Interamericana de Derechos Humanos emitió un fallo histórico en el caso presentado por el Colectivo de Abogados José Alvear Restrepo (CAJAR), destacando que las actividades de inteligencia deben respetar la privacidad y la protección de datos personales. Esta decisión expuso la vigilancia sistemática ejercida sobre defensores de derechos humanos en Colombia, incluyendo el monitoreo de comunicaciones privadas, y estableció un precedente crucial para limitar abusos en las tareas de inteligencia en toda la región. Esto es especialmente relevante en un contexto en que los Estados latinoamericanos continúan utilizando herramientas intrusivas, como el software Pegasus, sin mecanismos efectivos de supervisión democrática, a pesar de los aprendizajes de la última década. Aunque el fallo representa un avance normativo, la persistencia de prácticas de espionaje y monitoreo masivo refleja la urgencia de fortalecer marcos regulatorios que protejan los derechos humanos.

Por otra parte, el ciberpatrullaje se ha consolidado en 2024 como una herramienta de vigilancia estatal en América Latina, presentada como un mecanismo para prevenir delitos pero aplicada también como medio para vigilar discursos críticos. Esta práctica, que implica el monitoreo constante de redes sociales y espacios digitales, permite perfilar usuarios, recopilar información personal y observar la actividad de activistas y periodistas sin salvaguardas legales suficientes.

Salir a la calle tampoco nos aleja del peligro. El uso de tecnologías de reconocimiento facial en América Latina ha seguido expandiéndose en 2024, especialmente en espacios abiertos al público como estadios. Si bien estas herramientas se presentan como soluciones para mejorar la seguridad, han sido criticadas por facilitar el control social y la vigilancia masiva. Su implementación ha afectado desproporcionadamente a comunidades vulnerables y restringido libertades fundamentales, como el derecho a la protesta.

Contribuyendo y colaborando

En julio de 2024, Derechos Digitales anunció las organizaciones seleccionadas para participar en el primer ciclo del Fondo para la Promoción de los Derechos Digitales (FDD). Este programa fue diseñado como una herramienta para fortalecer las capacidades de las comunidades en la región, sensibilizándolas sobre la importancia de proteger sus derechos en el entorno digital. A través de este fondo, se busca fomentar el desarrollo de iniciativas locales que promuevan un espacio digital más inclusivo, libre y seguro, donde los derechos fundamentales sean respetados y defendidos.

Este fondo se complementa con el ya consolidado Fondo de Respuesta Rápida de Derechos Digitales (FRR), que en 2024 celebró cinco años de funcionamiento. Desde su creación, este fondo ha permitido canalizar recursos hacia acciones urgentes de defensa de los derechos humanos en el entorno digital, proporcionando respaldo inmediato a comunidades y activistas que enfrentan amenazas o vulneraciones en línea.

Ambos mecanismos, al operar en conjunto, constituyen un esfuerzo integral para fortalecer el ecosistema de defensa de los derechos digitales en América Latina. En total, los fondos administrados por Derechos Digitales completaron un año de impacto significativo, apoyando 29 proyectos distintos distribuidos en 14 países de la región, abarcando una amplia gama de temas. Con este modelo de financiamiento, Derechos Digitales continúa impulsando estrategias de defensa y promoción de los derechos digitales, respondiendo a los desafíos urgentes de la región.

Mirando hacia 2025: desafíos y prioridades para los derechos digitales

A medida que nos acercamos a 2025, el escenario global estará marcado por la implementación de acuerdos clave y el desarrollo de procesos internacionales que definirán el futuro de los derechos digitales. La revisión de los veinte años de la Cumbre Mundial sobre la Sociedad de la Información (WSIS+20) será un momento decisivo para evaluar los compromisos adoptados hace dos décadas y proyectar un modelo más inclusivo, sostenible y centrado en derechos humanos para el desarrollo digital. Será una oportunidad para insistir en la participación de la sociedad civil y en la necesidad de garantizar la conectividad, sin comprometer libertades esenciales en nombre de la seguridad o el progreso económico.

Al mismo tiempo, se espera que comience la implementación del GDC, en un proceso todavía rodeado de incertidumbres y preocupaciones. La sociedad civil tendrá el desafío de incidir en los mecanismos de seguimiento y aplicación del Pacto, para asegurar que las decisiones adoptadas protejan los derechos humanos y no se conviertan en herramientas de control o exclusión.

En paralelo, tras su adopción, podría iniciarse la implementación del Tratado sobre Cibercrimen, con implicaciones directas en la regulación de la vigilancia estatal, la cooperación judicial y el intercambio de datos. La vigilancia transfronteriza, el acceso a información privada y las obligaciones impuestas a las empresas tecnológicas requerirán un escrutinio constante para asegurar que los esfuerzos por combatir el cibercrimen no se conviertan en justificaciones para expandir la vigilancia masiva

Con un año electoral en varios países de América Latina, 2025 también traerá desafíos para la estabilidad democrática en la región. Las tecnologías digitales jugarán un papel central tanto como herramientas para la participación política como instrumentos para perjudicar al espacio cívico. Nuestra participación en el proyecto Civic DEFENDERS aparece así como una oportunidad para ejercer nuestra misión junto a organizaciones de todo el mundo.

Al final de un nuevo año de intenso activismo, reafirmamos nuestra confianza en la capacidad de la sociedad civil para liderar cambios significativos y sostenibles. La construcción de un futuro digital justo, inclusivo y democrático dependerá de mantener la solidaridad transregional, de amplificar las voces de la Mayoría Global y de asegurar que los derechos humanos estén al centro de cada decisión que impacte a las tecnologías. Desde Derechos Digitales, seguimos comprometidas a trabajar para ese futuro.

Cosechar Energía Solar para la Resiliencia Digital

La crisis energética de Ecuador

Ecuador atraviesa la mayor crisis energética que se tenga memoria. En octubre de 2023 empezamos con apagones de 3 a 4 horas, que en su momento parecía un montón. Nunca imaginamos que un año después llegarían a durar 14 horas, en mi caso eso significó tener 3 horas de energía al día. Una amiga venezolana me contó que en su país ya no cuentan los apagones, sino los “alumbrones”.

Durante estos meses aprendí que no se puede pensar en resiliencia digital sin pensar en electricidad. Pasé varias semanas que se sentían como meses buscando la forma de trabajar. Intenté con UPS, ir a trabajar en cafeterías o incluso utilizar el plan de datos para conectarme a internet. Fue tal la crisis que después de dos horas de apagón ya no funcionaba ni la telefonía ni el internet móvil. Nos desconectamos de la electricidad, pero también de las comunicaciones.

Ecuador es un país privilegiado con muchas fuentes de aguas en las montañas que descienden hacia el Océano Pacífico y la Amazonía. Esto lo ha convertido en un país ideal para aprovechar la energía hidroeléctrica. También contamos con un parque de centrales termoeléctricas que están pensadas para cuidar el agua en tiempos de sequías. Las mismas estaban sin mantenimiento y ha costado mucho ponerlas a funcionar.

Si bien mi situación era complicada, seguramente no era nada comparado a alguien que vende helados, alimentos refrigerados o las industrias que dependen del suministro eléctrico. Cada vez más en las calles de las ciudades se escuchaba el sonido a generador eléctrico con olor a combustible quemado.

Mientras esto sucedía, yo participaba de una discusión interesante en X sobre energía solar liderada por Edgar Landivar. Él fue mi pionero del desarrollo de software libre en el país, diseñó respiradores de hardware abierto durante la pandemia y ahora fomenta el uso de energía solar. También fue mi primer jefe y un viejo amigo. Él nos contaba sobre el uso de paneles solares y baterías para sobrevivir a los apagones, además de la generación comunitaria que el país podía utilizar para afrontar la crisis de una manera descentralizada y amigable con el medio ambiente.

Busqué soluciones de energía solar para mi casa que, si bien son costosas, son mucho más accesibles de lo que me imaginaba. Intenté encontrar alguien que venda e implemente una solución en poco tiempo pero la demanda saturaba a la oferta y yo pasaría semanas o meses sin una solución hasta que descubrí los generadores solares.

Los generadores solares

Los generadores solares consisten en una estación de carga (powerstation en inglés) y uno o varios paneles solares. La estación de carga tiene baterías para almacenar electricidad, un inversor para convertir la energía directa en alterna que es lo que usamos en nuestras casas. Las baterías se pueden cargar desde la energía de la empresa eléctrica, en el encendedor del automóvil o a través de paneles solares.

Cuando llegó mi generador solar rápidamente la angustia se convirtió en curiosidad. A diferencia del UPS, la estación de carga me da un estimado de tiempo de duración según los dispositivos que están conectados. También me cuenta cuántos watts estoy consumiendo y según eso puedo decidir si desconecto dispositivos para soportar las horas de apagón. Además mi generador permite cargar mientras se usa y de esta manera pude trabajar incluso con apagones no programados que llegaron a ser de 8 horas.

Mi relación con la electricidad cambió desde entonces. Siento que utilizo los paneles solares para cosechar rayos solares que se almacenan como electricidad en mi estación de carga. A diferencia de los generadores a combustión, los rayos del sol no cuestan, no hacen ruido y no emiten gases. Ese mismo sol que se siente tan intenso en épocas de sequía, nos está regalando electricidad y somos muy pocas las personas que la aprovechamos.

El país de las montañas, agua y sol radiante

Si bien mi solución me salvó y pude trabajar con calma otra vez, no es una solución definitiva. De hecho mi generador solar está diseñado para acampar, pero en Ecuador sirve para mucho más, nos da la posibilidad de generar electricidad propia y tener autonomía, poder trabajar incluso si el Estado nos falló.

Una solución solar definitiva tendría que funcionar con una solución fija de paneles solares de mayor capacidad, un inversor que convierta la energía directa en alterna y un banco de baterías para sobrevivir a los apagones. Podría tener el sistema conectado a la red eléctrica de mi casa, encender, focos, prender la refrigeradora, tener internet y algunas otras necesidades básicas o no tan básicas.

Este tipo de sistema se lo conoce como desconectado de la red (off-grid en inglés) y me permite funcionar independientemente con o sin apagones. Dentro de este sistema lo más costoso son las baterías, pero son las que me permiten funcionar al momento del apagón. Con un sistema así puedo aprovechar la energía eléctrica incluso cuando no hay apagón. De esta manera estaría contribuyendo con mis gotitas de agua en los embalses de las hidróelectricas para que otras personas la puedan usar.

Por otro lado, los sistemas conectados a la red (on-grid en inglés) permiten inyectar el excedente de generación solar a la red pública. Si la gente instala paneles solares, esta energía se produce durante el día y probablemente la mayoría de personas en ese momento no se encuentran en casa. Entonces se puede solicitar a la empresa eléctrica un medidor bidireccional. El consumo de la noche o de los días muy nublados se compra a la empresa eléctrica, el excedente que se genera durante el día se lo entrega a la empresa eléctrica y el medidor lo va descontando del valor a pagar a fin de mes.

Esta solución tiene como ventaja que dejaríamos de utilizar la energía durante el día porque la generamos con el sol y además se contribuye con el excedente para que otra gente lo use a través de la empresa eléctrica. Alguien que tiene un sistema de este tipo, no solo guarda sus gotitas en los embalses, también contribuye para que otra gente no tenga que utilizar energía hidroeléctrica durante el día.

Es además una solución distribuida que hace que el país pueda ser más resiliente a crisis energéticas. Podríamos funcionar con energía solar en el día e hidroeléctricas en la noche. Seguro necesitaríamos algunas plantas térmicas o de otro tipo, pero estaríamos en una mejor situación.

Los sistemas solares conectados a la red tienen el problema que se deben desconectar cuando suceden apagones. Las personas que dependemos mucho de electricidad podemos considerar invertir en baterías y tener un sistema híbrido que nos permita resistir a los apagones y contribuir con electricidad al resto.

En varios países de Europa y en varios estados de Estados Unidos el gobierno ha dado incentivos para que la gente contribuya con energía solar. Lamentablemente en Ecuador solo se dieron incentivos claros para comprar generadores eléctricos a combustión. Se ha invertido cientos de millones de dólares en energía térmica y en algunos casos no se sabe si esta funcionaría. Estamos pronto a tener elecciones, esperemos que las y los candidatos hablen de energía solar y energías limpias en sus planes de trabajo.

Regulación de la IA en Brasil: media sanción para un proyecto de ley que seguirá en discusión

El Senado de Brasil dio media sanción, el pasado martes 10 de diciembre, a un proyecto de ley para regulación de la Inteligencia Artificial. Se trata del PL 2.338/23, que tiene por objetivo establecer normas generales para la “gobernanza responsable” de sistemas de Inteligencia Artificial (IA). Se trata de un proyecto que, de ser finalmente aprobado por ambas cámaras, puede sentar un antecedente determinante para la regulación de IA en otros países de la región.

Este proyecto adopta un sistema de riesgos inspirado, en parte, en la reciente Ley de Inteligencia Artificial de la Unión Europea. El proyecto fue acordado tras un extenso proceso de debates bicamerales donde la presencia y aportes de la academia, el sector privado y la sociedad civil fue clave. 

Sin ser ley aún, el caso brasileño merece ser observado de cerca en el resto de la región, en especial de cara a la influencia excesiva que ciertos actores -como el sector de las Big Tech- tuvo al modular ciertos derechos y medidas de protección de derechos que perdieron potencia en el texto aprobado en el Senado.

Pese a todo, esta media sanción es oportuna para repasar cómo fue el proceso de construcción de este proyecto que será ley, y rescatar algunas críticas emitidas desde la sociedad civil.

¿Cómo se llegó hasta aquí?

La media sanción de este proyecto de ley marca el cierre de un proceso que se extendió por casi tres años, iniciado en febrero de 2022 con la creación de la Comisión Especial para la Regulación de la IA (CJSUBIA) por parte de la presidencia del Senado. Esta comisión trabajó durante todo 2022 y emitió un dictamen basado principalmente en el proyecto de ley 2.338/23, que sirvió como insumo clave para la versión final.

En agosto de 2023, se creó la Comisión Temporal Interna sobre la IA (CTIA), donde representantes del Senado debatieron el proyecto, presentaron enmiendas y lograron consolidar una versión final. Este texto fue llevado a la sesión plenaria de la cámara alta el martes 10 de diciembre, donde fue aprobado con media sanción tras un debate que duró apenas dos horas.

Desde Derechos Digitales seguimos este proceso desde la creación del proyecto de ley unificado, en la CJSUBIA, donde presentamos nuestros aportes en audiencias públicas, en mayo de 2022. En el marco de dicho proceso generamos un análisis detallado sobre la composición sectorial, no sólo de las audiencias, sino de todos los espacios de participación de esa comisión, y detectamos una amplia representación del sector privado en todos los espacios, sea tanto a partir de los aportes enviados directamente por representantes de las empresas, como a través de las cámaras y asociaciones que las aglutinan. Si tomamos todas las participaciones como un conjunto, 31% correspondieron al sector privado, mientras que la sociedad civil apenas estuvo representada en el 19% del total. La academia fue otro de los espacios de mayor participación, con cerca del 26% del total.

Este hallazgo fue confirmado, por su cuenta, por el medio Intercept Brasil que en un reporte reciente visibilizó la desproporcionada presencia de representantes de empresas de tecnología en las listas de oradores que participaron de las audiencias de la CTIA y que asistieron “camuflados” como parte de otros sectores que no representaban esas afiliaciones. Esto pone en evidencia los esfuerzos realizados por las empresas de tecnología para influir en el desarrollo del debate de una ley crítica que sentará un antecedente determinante para otras discusiones existentes en la región, un factor que fue denunciado desde distintos espacios, no solo en cuanto al lobby poco transparente, sino también en cuanto a su incidencia intensa para dilatar la votación en el legislativo

Un vistazo a lo que sabemos que se aprobó hasta ahora 

  • Lo bueno: un modelo de gobernanza que promete

Uno de los puntos de mayor resistencia fue la propuesta de creación de una autoridad única para la IA, punto que fue finalmente eliminado del proyecto aprobado en el Senado. En su lugar, esta nueva versión establece la creación del Sistema Nacional de Regulación y Gobernanza de la Inteligencia Artificial (SIA), compuesto por múltiples dependencias de la administración pública en materia de protección de datos y organismos de regulación sectorial, siendo su coordinadora la Agencia Nacional de Protección de Datos (ANPD) de Brasil (Cap IX). 

El SIA tendría la responsabilidad de generar nuevos criterios para la clasificación de un sistema de IA como de alto riesgo (art. 15), lo novedoso es cómo, en el marco de ese trabajo, dicha autoridad deberá garantizar un proceso de participación social así como efectuar análisis previos de impacto normativo (art. 16).

Este sistema de gobernanza puede tener un rol central en la protección de derechos en tanto que, por una parte, desconcentra el rol regulatorio de una tecnología en desarrollo en distintas entidades públicas preexistentes, así como por otro lado supone el fortalecimiento de entidades como la ANPD para robustecer su papel en materia de protección de datos aplicable a los sistemas de IA.

  • Lo regular: evaluaciones de riesgos “voluntarias”

Una de las principales modificaciones en la última versión del texto es la decisión de que la “evaluación preliminar”, es decir, una autoevaluación emprendida por los “agentes de IA” –quienes desarrollan, proveen o adquieren este tipo de sistemas–, previo al despliegue de sus tecnologías de IA en el mercado, será opcional para la mayoría de los sistemas de IA, excepto los sistemas de IA generativa y de propósito general, para los que la evaluación preliminar sí será obligatoria. 

Esta autoevaluación debería apuntar a determinar el nivel de riesgo que representa el sistema de IA de cara a la protección de la seguridad de la información, la transparencia y la ética en su funcionamiento, entre otros (art. 12). Para promover su adopción por el ecosistema de la IA, el proyecto propone un incentivo para que, quienes lo realicen, puedan obtener beneficios en el caso de recibir sanciones administrativas (art. 12, núm. 1). Habrá que ver si el incentivo es suficiente para volver una medida voluntaria en una práctica corriente en el ecosistema de la IA.

  • Lo malo: derechos de las personas trabajadoras y derechos de autor debilitados

Los derechos de las personas trabajadoras de plataformas mediadas por algoritmos quedaron mermados luego de sucesivas enmiendas al texto aprobado en el Senado. El Consejo Nacional de Derechos Humanos de Brasil (CNDH) recomendó (i) que se incluyera como sistemas de IA de alto riesgo a los que distribuyen tareas y evalúan el comportamiento de los trabajadores y trabajadoras, (ii) retomar disposiciones que fomenten la creación y valoración de empleos, la capacitación continua de trabajadores y trabajadoras y (iii) la necesidad de desarrollar evaluaciones de impacto algorítmico. 

Algo de esto se incluyó, pero no todo. Por ejemplo, el art. 14 inciso III reconoce que los mecanismos de “reclutamiento, selección, filtrado, evaluación de candidatos, toma de decisiones sobre promociones o finalización de relaciones laborales, evaluación del desempeño y comportamiento de las personas afectadas en los ámbitos de empleo, gestión de trabajadores y acceso al empleo por cuenta propia” sí son sistemas de IA de alto riesgo. Y en lo relativo a los derechos laborales, se menciona la importancia de la capacitación y fomento del empleo, pero el proyecto al día de hoy no fija garantías de supervisión humana y protección y estabilidad reforzada frente a eventuales despidos motivados por la adopción de la IA en el mundo del trabajo, tal y como había sido pedido por la CNDH.

Respecto de los derechos de autor, hubo una tensión entre los reclamos impulsados principalmente por agrupaciones de artistas y las empresas tecnológicas. El conflicto se centró, principalmente, en las disposiciones del artículo 65 enfocado en la remuneración de los titulares del derecho de autor en los casos en que las empresas que desarrollen sistemas de IA utilicen contenidos que están protegidos.

Los grandes centros de datos –que tienen la materia prima para el desarrollo de sistemas de IA- pedían por su cuenta la eliminación de la remuneración en tanto que desviará recursos esenciales para el desarrollo de otros centros de datos y la inversión tecnológica en el país. Sin embargo, el artículo 65 aprobado en el Senado es un victoria a medias, pues si bien reconoce el derecho a la remuneración, pese a las objeciones del sector privado, dicho pago beneficiará en buena medida a los titulares de los derechos de autor que “tengan condiciones efectivas de negociar”, lo que beneficiará en la práctica a las grandes empresas titulares de los derechos de autor –como grandes editoriales, o empresas discográficas- más que a los titulares de pequeño tamaño y sin músculo para negociar.

Un proyecto que avanza; próximos pasos 

Durante la votación en sesión plenaria, representantes del Senado tuvieron espacio para generar declaraciones acerca del proceso y de la importancia que implica contar con una regulación sobre Inteligencia Artificial. Esta media sanción fue celebrada, por ejemplo, por la Coalición de Derechos en la Red, una agrupación que nuclea más de 50 organizaciones de activistas por los derechos digitales.

 Si bien manifestaron sus preocupaciones frente a algunos puntos, la Coalición consideró esta aprobación como una victoria “frente al lobby de las empresas de tecnología, la industria y la extrema derecha”. Por su parte, la organización Data Privacy Brasil aseguró que la sesión del Pleno del Senado “se caracterizó por la madurez democrática y la construcción de consensos para la aprobación de la legislación”.

Si bien el proyecto plantea algunos interrogantes a futuro, especialmente frente a la merma de ciertos derechos como los de las personas trabajadoras y los de las y los creadores y artistas, su media sanción da lugar a la continuidad en el debate sobre cómo regular la IA en América Latina atendiendo las visiones y necesidades del contexto local. 

En 2025 el proyecto será debatido en la Cámara de Diputados, por lo que esperamos que entonces las victorias reconocidas no sean echadas atrás, y se aproveche esa última oportunidad para desarrollar garantías asociadas a la protección del medio ambiente en tanto que la IA es una tecnología sedienta y demandante en materia de consumo eléctrico, así como la recuperación de las protecciones para los trabajadores y trabajadoras que fueron advertidas por la CNDH. 

Autonomía bajo control: la paradoja de la flexibilidad en el trabajo digital

La Secretaría del Trabajo de México, tras dialogar con más de 30 plataformas digitales, propuso reformar la Ley Federal del Trabajo para incluir un capítulo específico sobre las condiciones laborales en apps como Uber, Didi y Rappi. Esta reforma, inspirada en regulaciones recientes en España y Chile, busca cerrar las brechas digitales y sociales que afectan a millones de personas trabajadoras. Además, luego de que el gobierno español aplicara sucesivas multas a Glovo por el incumplimiento de la Ley Rider, la compañía decidió contratar a los repartidores. Estas iniciativas no son siempre bienvenidas entre las personas que trabajan en estas apps, lo cual lleva a preguntarnos: ¿Podemos imaginar regulaciones del trabajo digital que respeten los derechos laborales y a la vez incluyan las  necesidades de las personas  trabajadoras? 

Un contexto de desigualdad y precariedad

En América Latina, las desigualdades estructurales generan la base de la precariedad en el trabajo digital. Las brechas digitales, caracterizadas por el acceso desigual a tecnología y educación digital, excluyen a los sectores más marginados,  creando una división entre quienes pueden beneficiarse de la economía digital y quienes la experimentan desde la vulnerabilidad. 

Ante este contexto, las plataformas de trabajo localizado se presentan como una alternativa de generación de ingresos rápida y simple. Sin embargo, operan mayoritariamente sin marcos regulatorios claros, lo que deja a las personas sin acceso a protección social ni prestaciones básicas.  Estas personas deben cubrir los costos de operación y mantenimiento de sus herramientas de trabajo, pero esto no siempre es retribuido con ingresos estables. Las plataformas no solo no proveen cobertura ante accidentes y enfermedades, sino que también tienen poder unilateral de suspender o incluso bloquear a estas personas, impidiéndoles trabajar. Estas decisiones pueden estar asociadas a falta de cumplimiento de ciertas métricas, como la aceptación de cierta cantidad de pedidos o viajes. Esto demuestra un claro  desbalance que desdibuja el límite entre el servicio autónomo y la subordinación laboral.

Este panorama nos lleva a hacernos la siguiente pregunta: ¿por qué entonces la regulación no es bienvenida entre las propias personas que trabajan con estas apps? La dicotomía entre el trabajo flexible y la relación de dependencia lleva a pensar que una regulación eliminaría los principales atractivos de este trabajo, como la flexibilidad. Es importante destacar que si bien muchas personas utilizan estas apps como forma para generar ingresos extra, muchas dependen de ellas como su única fuente de ingresos, lo cual puede implicar jornadas laborales muy largas debido a que no todo el tiempo de logueo es remunerado. Según los reportes de Fairwork, que evalúan la remuneración horaria por estos trabajos, el índice de pago decente aún es muy bajo, no solo a nivel regional sino también global. Esto es especialmente grave cuando consideramos que en algunos países, por ejemplo en Argentina, se han evidenciado más de un 50% de repartidores y conductores encuestados con carga horaria semanal superior a las 45 horas. Si estos casos no cuentan con prestaciones sociales básicas, estamos hablando de vulnerabilidad laboral.

Estas problemáticas dan cuenta de la necesidad urgente de avanzar hacia marcos regulatorios que protejan a las  personas trabajadoras de plataformas y aseguren condiciones laborales dignas. No obstante, algunos países de la región han comenzado a implementar normativas en este sentido. A continuación haremos un breve diagnóstico.

Avances normativos

La región latinoamericana cuenta con distintas iniciativas y abordajes respecto a  la regulación. En Argentina, Brasil y Uruguay, el debate se centra en el reconocimiento de la relación laboral, mientras que en Costa Rica y Colombia los proyectos de ley buscan establecer contribuciones a la salud y seguridad social. Luego pueden mencionarse algunas iniciativas para las plataformas de transporte de pasajeros, como los casos de Ecuador y Bolivia, donde estas funcionan bajo un modelo de licencias de operación que permite cierta supervisión gubernamental. De todas formas, aún la mayoría de los países de la región se caracterizan por la ausencia de normativas o iniciativas vigentes en la temática. Buena parte de esta información se puede encontrar en WageIndicator, un portal que centraliza las novedades regulatorias de este tipo a nivel global.

Frente a tal escenario, sumada la presión social por mejores condiciones de trabajo, Chile ha dado un paso significativo con la Ley Nº 21.431. Implementada en 2022, esta ley reconoce derechos como la sindicalización, seguro de accidentes y el acceso a seguridad social, preservando la flexibilidad horaria. Sin embargo, según la última evaluación realizada por Fairwork en Chile, la regulación no siempre resulta efectiva. En muchos casos, las propias personas trabajadoras desconocen los derechos que les corresponden bajo estas nuevas leyes, lo que limita su capacidad para exigirlos. Asimismo, un relevamiento realizado por la OIT en Chile demuestra que el 60% de los trabajadores de plataforma continúan ejerciendo sus tareas en condiciones de informalidad. 

La combinación entre el vacío normativo y la falta de información sobre los derechos fundamentales en el ámbito laboral genera que las plataformas impongan sus propias condiciones. Fue así como en España las plataformas de reparto no respetaban las condiciones establecidas por la Ley Rider, pero luego de que el gobierno aplicara múltiples sanciones, las compañías decidieron acatar la iniciativa adoptando un modelo de contrato laboral

Las regulaciones buscan establecer límites y protecciones mínimas, que permitan a los trabajadores acceder a derechos esenciales, sin necesariamente eliminar la flexibilidad que caracteriza a estos empleos. El caso mexicano presenta una propuesta interesante debido al reconocimiento de la subordinación discontinua, permitiendo a los trabajadores conservar la flexibilidad en sus horarios, pero asegurando que el tiempo efectivamente trabajado sea respaldado mediante el otorgamiento del derecho a prestaciones sociales y la desconexión laboral. Asimismo, pretende implementar mecanismos de transparencia en los algoritmos que asignan tareas, y una perspectiva de género que aborda casos de acoso y hostigamiento.

Sin embargo, la regulación no debería entenderse como punto de llegada sino como punto de partida. Resulta indispensable que estos esfuerzos incluyan campañas de concientización a nivel regional, que informen a las personas trabajadoras sobre sus derechos, los puntos donde son vulnerados y las herramientas para hacer frente. Estas iniciativas deben asegurar que los algoritmos utilizados por las plataformas respeten la dignidad y los derechos laborales, y que existan mecanismos para supervisar, auditar y regular el uso de los datos.

El camino hacia un entorno digital más equitativo en la región requerirá esfuerzos coordinados y sostenidos que involucren a gobiernos, organizaciones de la sociedad civil, sindicatos y empresas, con el fin de garantizar que la digitalización sea una herramienta para la justicia y la inclusión, y no un reproductor de desigualdades.

Entre acrobacias burocráticas, retos y oportunidades de la sociedad civil latinoamericana

El Sector de Normalización de la Unión Internacional de Telecomunicaciones (UIT-T) es un espacio donde se definen el rumbo de estándares técnicos que habilitan por ejemplo el funcionamiento de los dispositivos que usamos a diario. ¿Estándares técnicos? Un buen ejemplo es el protocolo «https» que ves en la dirección web de esta página, o las tecnologías 4G y 5G de tu red móvil. Estos se basan en estándares técnicos que, dependiendo de su diseño e implementación, pueden facilitar o dificultar el ejercicio de derechos humanos, como la privacidad y la protección de los datos personales. La UIT-T ha mostrado una cultura operativa cerrada por diseño a organizaciones de la sociedad civil, relegando como consecuencia a un segundo plano las consideraciones sobre derechos en sus discusiones.

Como hemos mostrado en otras publicaciones, en el proceso actual de estandarización de la UIT-T sólo los Estados Miembros tienen voto y predomina la influencia de las grandes empresas de telecomunicaciones. En consecuencia, las discusiones se enfocan en aspectos técnicos sin otorgar la atención adecuada a cuestiones de derechos humanos. Bajo estas condiciones, las organizaciones de la sociedad civil se enfrentan a acrobacias burocráticas y procesos costosos para sumar su voz, sin voto en la elaboración de estándares técnicos. En nuestra próxima publicación, señalamos la necesidad de repensar la cultura de operación de la UIT-T para integrar las experiencias locales de agentes no gubernamentales en materia de derechos humanos.

Relación entre estándares técnicos y derechos humanos.

La entrada tardía de consideraciones sobre derechos al establecimiento de estándares técnicos puede contribuir a vulnerar la privacidad y la libertad de expresión de las personas usuarias. Instancias como la Relatoría de Libertad de Expresión de Naciones Unidas reconocen que las normas técnicas repercuten en los derechos humanos dependiendo de cómo se diseñen, apliquen e interoperabilicen. Asimismo, pueden influir en el acceso a los derechos económicos, sociales y culturales. Esto cobra especial relevancia en los países del Sur Global, donde existen desprotecciones históricas en materia de derechos y los impactos de las tecnologías digitales son diferenciados.  En contraste, cuando el consenso técnico sobre estándares incluye desde etapas tempranas perspectivas de derechos humanos, se contribuye a características fundamentales de los sistemas de información, como la seguridad por diseño, que garantiza en todo momento la protección de los datos de las personas. Siendo así, afirmamos la importancia de que la sociedad civil latinoamericana haga seguimiento de los estándares técnicos, evaluando su impacto práctico en los derechos humanos y avanzando hacia marcos más accesibles, seguros, inclusivos y sostenibles.

Deuda con la perspectiva de género e interseccional.

No sólo hay vacíos desde una perspectiva de derechos, los organismos de normalización y la comunidad técnica en general también registran una deuda estructural con la perspectiva de género e interseccional. En el caso de la UIT-T, por un lado, a pesar de la conformación de redes y grupos que fomentan la participación de las mujeres en las actividades de normalización, aún se registra una brecha de género en el desarrollo de foros y asambleas donde discuten normas técnicas; de hecho “en 2022 y 2023, las mujeres representaban el 27% de los participantes en las comisiones de estudio”. Por otro lado, sostenemos que los estándares técnicos tienen consecuencias diferenciadas en la población; siendo fundamental mostrar cómo las niñas, mujeres y la comunidad LGBTQIA+ experimentan, se ven afectadas y retroalimentan los estándares establecidos en la UIT-T. 

Oportunidades de participación según los procesos institucionales UIT-T.

Hay un abanico de posibilidades, cada una con ventajas y desventajas, para que la sociedad civil latinoamericana incida en la UIT-T a través de vías institucionales. Una de las principales es la membresía, que se obtiene a través del pago de una categoría (miembro de sector, asociado o academia) que otorga beneficios y derechos de acceso a los grupos de estudio, documentos de trabajo, reuniones y actividades. De otra parte, algunos Grupos de Trabajo del Consejo de la UIT (CWGs por su sigla en inglés) desarrollan procesos de consulta abierta y pública donde la sociedad civil puede aportar sus conocimientos especializados en derechos digitales. También, organizaciones con experiencia en la UIT-T señalan que una de las formas más efectivas para que la sociedad civil participe es integrándose en las delegaciones de los Estados Miembros, reduciendo costos y complementando experticias. Asimismo, recomendamos la participación en los foros regionales preparatorios y grupos de estudio con miras a espacios de alto nivel como la Asamblea Mundial de Normalización de las Telecomunicaciones (AMNT), que se celebra cada 4 años. La edición más reciente se celebró en octubre de 2024. En la AMNT se definen las prioridades para la labor de estandarización de la UIT-T.  

Retos para la participación de la sociedad civil Latinoamericana.

Las oportunidades de participación aludidas presentan limitaciones específicas para la sociedad civil en América Latina. Primero, a los costos de la membresía se suman los gastos de viaje, visados y el dominio del inglés (lengua que predomina en los debates de alto nivel), elementos a evaluar para determinar si la participación es realmente factible. Cabe mencionar que la UIT-T permite la exención del pago de la membresía bajo condiciones específicas que, en lugar de ofrecer oportunidades, generan desafíos para la participación significativa de la sociedad civil. Por ejemplo, se exige que las organizaciones solicitantes operen en más de un Estado Miembro. Segundo, para participar de las consultas abiertas, los foros regionales y grupos de estudio es necesario contar con un equipo técnico capacitado para influir en la revisión de estándares técnicos, pues el lenguaje de estos no está diseñado desde una perspectiva de derechos humanos ni está orientado a defensores de los mismos. Tercero, ser parte de la delegación de un Estado Miembro implica ser aceptado por este, construir relaciones de confianza y compartir posiciones oficiales, limitando las posibilidades de participación según los espacios de incidencia de las organizaciones de la sociedad civil. Cuarto, la inestabilidad en la financiación y asignación de recursos de la sociedad civil del Sur Global compromete su participación continua y su capacidad de legitimidad en las reuniones de la UIT-T.

Recomendaciones para una incidencia significativa desde acciones locales.

La sociedad civil Latinoamericana produce evidencia crucial sobre las implicaciones reales de las normas técnicas, mostrando cómo los distintos grupos sociales experimentan y se ven afectados por los estándares establecidos en la UIT-T, lo que subraya la necesidad de su participación significativa y continua. Con nuestro policy brief, buscamos contribuir a la creación de estrategias internas de incidencia a través de vías paralelas a los procesos institucionales, por ejemplo:  monitorear de forma organizada las Resoluciones más relevantes para los derechos digitales, o identificar y priorizar los derechos humanos a defender mediante redes locales y regionales de incidencia, en función de estándares específicos.

Violencia digital: Respuestas feministas para resistir y transformar 

Columna publicada en el medio de comunicación La Tercera

El 25 de noviembre, Día Internacional de la Eliminación de la Violencia contra la Mujer, nos invita a reflexionar sobre la persistencia de la violencia de género y la urgencia de combatir todas sus formas, incluidas aquellas facilitadas por las tecnologías. Abordar esta problemática requiere acciones multifacéticas: que los Estados pongan los derechos humanos en el centro de sus políticas, que las empresas asuman sus responsabilidades y que se impulsen acciones de concientización en la vida cotidiana.

La violencia de género facilitada por la tecnología es cada vez más frecuente, atravesando fronteras y afectando directamente la vida de las mujeres, invadiendo sus hogares, sus espacios personales y profesionales. Lo que comienza en línea puede tener consecuencias graves,incluso fatales, en el mundo real.

En otras palabras, las prácticas de violencia digital tienen repercusiones que van más allá del entorno en línea, generando serias amenazas a la seguridad y la integridad física de mujeres y personas LGBTQIA+. La violencia digital provoca daños psicológicos, afecta las relaciones sociales, fomenta la violencia sexual y física, y en casos extremos puede derivar en feminicidios. Además, actúa como una forma de censura al producir un efecto paralizante (chilling effect), que impacta tanto a nivel individual como colectivo, con consecuencias negativas para el debate público, un pilar fundamental en las sociedades democráticas.

Dubravka Šimonović, ex Relatora Especial de la ONU sobre la violencia contra la mujer, ha enfatizado que estas manifestaciones modernas de violencia deben comprenderse como parte de un continuo de la violencia de género, que no solo se reproduce sino que se amplifica en el ámbito digital.

Frente a este escenario, organizaciones y activistas feministas han asumido un rol protagónico, liderando esfuerzos para transformar sistemas y apoyar a víctimas y sobrevivientes.Un ejemplo de ello es el reciente informe de la ONG Derechos Digitales, Líneas de ayuda para casos de violencia de género digital, que documenta el trabajo de tres líneas de ayuda en seguridad digital en América Latina: el Centro S.O.S Digital de Fundación InternetBolivia.org en Bolivia, Maria d’Ajuda de Marialab en Brasil, y Navegando Libres por la Red de Taller Comunicación Mujer en Ecuador. 

Estas iniciativas no solo brindan acompañamiento y respuesta en casos de violencia de género digital, sino que también se consolidan como espacios colectivos feministas para apoyar a mujeres y personas LGBTQIA+ que sufren violencia digital. En un ámbito de activismo en seguridad digital históricamente dominado por hombres, estas líneas de ayuda destacan por ser lideradas y operadas principalmente por mujeres y personas LGBTQIA+, actuando desde una perspectiva feminista e interseccional.

El acompañamiento que ofrecen estas líneas tiene un objetivo fundamental: fortalecer las respuestas tecnológicas, psicológicas o legales de las víctimas y sobrevivientes frente a las agresiones digitales. Sin embargo, este trabajo va más allá de la atención directa. También permite analizar patrones, identificar causas estructurales y visibilizar las diversas formas en que la violencia de género digital se manifiesta en distintos territorios.

A pesar de estos avances, el desafío sigue siendo enorme. Combatir la violencia de género digital requiere prevención efectiva, desde la educación digital hasta políticas públicas con un enfoque de género interseccionalidad. Además, se necesita una colaboración real entre Estados, sociedad civil y empresas, acompañada de marcos legales sólidos y programas de apoyo que garanticen una protección integral para las víctimas.

La deuda que nuestras sociedades tienen con las mujeres no puede esperar más. Es tiempo de asegurar que el entorno digital sea un espacio seguro, libre y equitativo para todas. En esta lucha, el feminismo nos recuerda que cada paso hacia la justicia no solo resiste, sino que también transforma. Y ese es el poder que nos impulsa a seguir.

Mecanismos Nacionales de Derechos Humanos: mucho por hacer

El pasado 13 de noviembre participamos, como parte del Colectivo EPU América del Sur, de una audiencia regional ante la Comisión Interamericana de Derechos Humanos (CIDH) en el marco del 191 período de sesiones la cual se enfocó en los Mecanismos Nacionales de Implementación y Seguimiento de Derechos Humanos, o NMIRFs por sus siglas en inglés.

Dichos mecanismos son engranajes complejos dedicados a identificar el nivel de protección y satisfacción de los derechos en los países, y son fundamentales en el ecosistema de derechos humanos tanto a nivel nacional como internacional.

Su funcionamiento adecuado permite documentar, informar y medir el nivel de protección de los derechos, así como dar seguimiento a las recomendaciones de organismos internacionales como CIDH, pero también el Examen Periódico Universal (EPU) de la ONU, entre otros. Los NMIRFs no sólo supervisan el cumplimiento de derechos, sino que también reportan el estado de las recomendaciones emitidas por dichos organismos especializados.

Desafíos en la Implementación de los NMIRFs en América Latina

La existencia y el funcionamiento de estos mecanismos es aún incipiente en América Latina, a pesar de su rol crucial. En un estudio reciente publicado por el Colectivo EPU América del Sur, se detalla que los países de América del Sur están lejos del estándar deseado, es decir, de NMIRFs que sean autónomos, independientes, con capacidades presupuestarias y humanas para cumplir su función, y con apertura para la participación de la sociedad civil.

Por ejemplo, Bolivia es un país en donde el Mecanismo Nacional se denomina “Sistema Plurinacional de Seguimiento, Monitoreo y Estadísticas de Recomendaciones sobre Derechos Humanos”, o SIPLUS. Fue creado en 2016, pero a la fecha ni el mecanismo ni su sitio web se encuentran operativos o funcionales. Y desde su creación, la participación de la sociedad civil no ha sido reconocida ni viabilizada. 

En otros países como Venezuela o Colombia, no existe la figura del NMIRF, y el gobierno de Brasil prometió hacer lanzamiento de su Mecanismo Nacional tan solo en mayo de 2026. Por su parte, en países donde el NMIRF en efecto opera –como en Perú y Paraguay -, dicho organismo depende del Poder Ejecutivo, lo que pone en entredicho su independencia técnica y administrativa.

El estudio del Colectivo EPU, que fue presentado en la audiencia ante la CIDH, afirma que sin autonomía ni independencia de los NMIRFs es difícil construir una visión alternativa sobre el desempeño de los Estados en cuanto a la protección de derechos. En la audiencia reiteramos que la participación de la sociedad civil es crucial en este sentido, en tanto puede conducir a un diagnóstico más informado y completo sobre el estado de los derechos humanos en un país determinado.

Ahora bien, el pedido de fortalecer los NMIRFs en la región también ha provenido tanto de la ONU –en diversas resoluciones- como de la propia CIDH que reiteran la necesidad de que los Estados los establezcan y fortalezcan.

En concreto, la resolución más reciente del Consejo de Derechos Humanos, señala que los NMIRFs a nivel nacional facilitarían a los Estados la presentación de sus informes ante los diversos mecanismos de tratados ante las Naciones Unidas, articularían los procesos de cooperación internacional de manera más contundente, y que su funcionamiento avanzaría en la institucionalización de los derechos humanos a nivel nacional y regional en tanto que articularían de manera más orgánica la creación de políticas públicas dirigidas a cumplir con los derechos. Para ello, llama la atención de los Estados a que dichos Mecanismos Nacionales adopten un enfoque participativo abierto a las contribuciones de la sociedad civil.

Por su parte, la CIDH, en su primer informe publicado en 2023 que explora la conveniencia de la creación de los NMIRFs para hacer seguimiento también a las recomendaciones en derechos humanos elevadas por este organismo, destacó su rol vital, y llamó la atención para que su funcionamiento integre a otros poderes del Estado, y no solo al Ejecutivo, en tanto que los lidera; y recalca la importancia de la articulación interinstitucional entre los NMIRFs y otros organismos en derechos humanos, para que su trabajo no esté fragmentado o desarticulado.

Lecciones desde el Examen Periódico Universal (EPU): la necesidad de los NMIRFs

En nuestro trabajo en el EPU, hemos constatado la importancia de estos mecanismos para monitorear las políticas públicas de derechos humanos. En el EPU reciente de países como Bolivia y Nicaragua, sobre los cuales informamos a la ONU en torno a su desempeño en derechos humanos en la esfera digital, los NMIRFs no están operativos, o como en el caso de Nicaragua, directamente no existen, por lo que el seguimiento de los derechos humanos se torna especialmente desafiante.

Nuestra experiencia en la presentación de informes sobre estos países ante el EPU ha demostrado que la existencia de NMIRFs facilitaría el acceso a datos basados en evidencia y permitiría una evaluación comparativa y global de los avances en derechos humanos. Sin estos mecanismos, las organizaciones de la sociedad civil deben asumir una carga de monitoreo, sin el respaldo y acceso a la información que proporcionaría un mecanismo nacional activo y robusto.

Y cuando en 2023 hicimos nuestra contribución al EPU de Chile ante la ONU, el Mecanismo Nacional de ese país denominado Sistema de Monitoreo de Recomendaciones en Derechos Humanos, o SIMORE Plus –que imita al SIMORE de Paraguay-, recién iba a ser creado, por lo que está por verse cómo se operacionaliza su funcionamiento en la práctica.

Fortalecer los NMIRFs: desafíos de voluntad política y recursos

En la audiencia de la CIDH, de hecho, el Comisionado Arif Bulkan nos planteó preguntas que invitan a una reflexión profunda y continua: ¿qué hacer con los NMIRFs si a los Estados puede faltarles voluntad política para implementarlos? ¿Cómo garantizar su funcionamiento que puede llegar a ser costoso?

Entendemos que la garantía de derechos humanos y la operatividad de estos Mecanismos Nacionales generen preocupaciones válidas en torno a la voluntad política de los tomadores de decisiones encargados de implementarlos y hacerlos efectivos. Sin embargo, los Estados, al asumir compromisos internacionales, se obligan a proteger derechos humanos de manera perdurable, independientemente de los cambios en el liderazgo político.

También es cierto que la protección de derechos requiere recursos, y los presupuestos de los Estados suelen ser escasos para atenderlos. No obstante, los derechos humanos deben ser garantizados en tanto que fines en sí mismo, pero también en tanto que favorecen el desarrollo económico que los Estados tanto persiguen.

Hacer de los NMIRFs una prioridad regional

Los NMIRFs son un componente esencial para asegurar que los compromisos internacionales en derechos humanos no queden en papel, sino que se traduzcan en avances concretos y medibles para las personas. Los Estados deben ver la inversión en estos mecanismos no como un gasto, sino como una garantía de desarrollo sostenible y cohesión social a largo plazo.

A futuro, nuestro trabajo en el marco del Colectivo EPU América del Sur continuará con la  documentación de los avances y retrocesos de los NRMIFs en la región, al tiempo, esperamos que la audiencia que tuvo lugar en la CIDH llame la atención para que dicho organismo pueda más adelante avanzar en diversos estándares interamericanos aplicables al funcionamiento de los NMIRFs y su tarea de seguimiento, monitoreo y implementación de los derechos humanos en la región; así como en estándares interamericanos aplicables a la participación significativa de la sociedad civil en el marco de dichos mecanismos.