Sandboxes para la IA en países de América Latina y Europa

El uso de sandboxes o areneros regulatorios para inteligencia artificial se ha extendido en Europa y América Latina como espacios de prueba que prometen impulsar la innovación bajo excepciones regulatorias. Sin embargo, la evidencia muestra que su implementación varía según el contexto y no siempre garantiza entornos seguros de aprendizaje. Más preocupante aún es la ausencia de una mirada sobre los derechos humanos, que queda relegada frente a la prioridad de fomentar la innovación. Este informe analiza experiencias recientes y subraya la necesidad de mayor escrutinio, participación ciudadana y adaptación a realidades locales para que estas herramientas no reproduzcan desigualdades ni vulneren derechos fundamentales.

Amicus curiae sobre la demanda de inconstitucionalidad de la Ley de Inteligencia Orgánica de Ecuador

En este documento sustentamos argumentos para la inconstitucionalidad de los artículos que regulan la solicitud de entrega de datos a entidades públicas, privadas y personas naturales; la interceptación de las comunicaciones y entrega de metadatos; la vigilancia del ciberespacio; la protección de datos en las tareas de inteligencia; y las limitaciones al derecho de acceso a la información pública.

Privacidad en la mensajería: ¿cómo asegurarse de eliminar mensajes ante el riesgo de intrusión?

En la actualidad, más de 3 mil millones de personas usan activamente aplicaciones de mensajería en todo el mundo, y las cifran van en aumento. Si bien existe una gran variedad de alternativas con distintas características y funciones, la mayoría comparte elementos en común. Su popularidad varía geográficamente por regiones y también por países. A continuación, analizamos tres de las más relevantes: Signal, WhatsApp y Telegram.

Antecedentes: de la ausencia de privacidad hacia «alguna» privacidad

Más allá de su popularidad, las preocupaciones con la privacidad de las aplicaciones de mensajería –y las respuestas a tales preocupaciones– se han ido incrementando a lo largo del tiempo. Las revelaciones de Edward Snowden sobre vigilancia masiva son un hito clave en esta breve historia, una vez que ayudaron a popularizar el cifrado y otras medidas de protección como estándar.

En este contexto, y como fusión de los proyectos TextSecure y RedPhone, en 2014 nace Signal. El espíritu de esta nueva herramienta se centraba en proteger la privacidad de las comunicaciones, y en ese esfuerzo introdujeron el esquema de seguridad de cifrado de extremo a extremo. Si bien esta aplicación está delimitada por su uso en pequeños nichos o determinadas regiones del mundo (incluso al día de hoy muchas personas la desconocen), ella fue crucial para la introducción de un sistema de protección similar en WhatsApp, la aplicación de mensajería más popular en América Latina. Ante la creciente demanda por resguardar los intercambios de mensajes, la empresa más pujante del rubro tuvo la necesidad de aplicar un mecanismo de cifrado a la altura de las necesidades para no quedar obsoleta. Por ello, en 2016 WhatsApp integra el protocolo Signal para el cifrado de extremo a extremo por defecto para todas las personas usuarias.

Por su parte, Telegram, creada en 2013, no posee este esquema de cifrado de extremo a extremo por defecto en sus conversaciones, solo lo utiliza para los chats secretos. Esta plataforma aplica por defecto el cifrado entre cliente-servidor, lo que significa que, si bien los mensajes viajan cifrados, pueden ser legibles por la empresa o quien tenga acceso a sus servidores. En este sentido, el uso de canales comunes en Telegram es desaconsejado desde un punto de vista de protección de la privacidad.

Desafíos que persisten

El cifrado de extremo a extremo busca dar cuenta de la privacidad de las comunicaciones en tránsito, o sea, de cómo se protegen en el camino de un origen a un destino. Pero, ¿cómo garantizar la privacidad de las comunicaciones en aplicaciones de mensajería ante una intrusión física en el dispositivo?

La pregunta es válida para situaciones simples de extravío o pérdida, pero también en contextos de intervención policial o de intrusión a dispositivos por medio de software diseñado para eso. Ante el reporte de situaciones de abuso en tales acciones en la región y su riesgo para el ejercicio de Derechos Humanos, es fundamental conocer mecanismos para hacer valer el derecho a la privacidad en el uso de herramientas de mensajería.

Existen una serie de medidas que se pueden aplicar para mitigar estos riesgos, que abordamos anteriormente. Algunas son: utilizar contraseña en el dispositivo, contar con una clave de acceso para la aplicación, configurar el chat para mensajes temporales, entre otras. Presentes desde 2016 en Signal y desde 2020 en WhatsApp, los mensajes temporales pueden resultar una estrategia segura, pero solo funcionarán desde el momento en que el chat haya sido configurado para tal efecto.

Entonces, ante el peligro de intervención de un equipo, ¿cómo asegurarnos de que no puedan acceder a las conversaciones o, al menos, a algunas de ellas? La respuesta es simple, pero su implementación no tanto: eliminando esos mensajes. Si estuviéramos hablando de una carta que podemos destruir físicamente quizás la recomendación fuera obvia, pero en dispositivos digitales surge la legítima duda: ¿existe la posibilidad de recuperar un mensaje eliminado? Sí, bajo ciertas circunstancias se pueden restablecer conversaciones eliminadas. De ahí la necesidad de abordar algunos aspectos técnicos para garantizar que el ejercicio del derecho a la privacidad, en este caso, sea más efectivo.

WhatsApp: cómo eliminar mensajes de forma definitiva

Actualmente, existen dos formas de recuperar los chats eliminados: la recuperación de los respaldos en línea por un lado, y la copia de seguridad local de la aplicación, por el otro.

Una instalación típica de WhatsApp ofrece la opción de configurar un respaldo en línea utilizando Google Drive, para usuarios Android, o iCloud, en el caso de Iphone. Los respaldos de Android en Google Drive son únicos y se sobrescriben, es decir, no existen versiones históricas de los archivos. Si se desea que los mensajes no se puedan restablecer, es necesario eliminar el archivo en cuestión desde Google Drive.  

En el caso de Android se debe acceder a la cuenta en Google Drive, ir al apartado “Almacenamiento” y luego a “Copias de seguridad”. Ahí se encuentra el archivo de respaldo de la cuenta de WhatsApp identificado por el número telefónico. Si se desea que los mensajes no se puedan recuperar, se debe eliminar el archivo en cuestión. Es fundamental asegurarse de que el archivo eliminado no quede en la papelera de reciclaje; de ser así, también debe borrarse desde allí.

Además del respaldo en línea, WhatsApp utiliza copias de seguridad locales para posibles restauraciones. El esquema de respaldo local es incremental, es decir utiliza varios archivos para guardar el historial de las conversaciones de forma periódica. Las copias pueden ser encontradas en una carpeta cifrada ubicada en “Android/media/com.whatsapp/WhatsApp/Databases”. Dentro de este directorio encontraremos una serie de archivos cuya nomenclatura es “msgstore.db.crypt14*”. Para eliminar estos archivos de respaldo locales, y que estos no puedan ser recuperables, se debe usar una herramienta de borrado seguro como iShredder o bien conectar el dispositivo al computador y utilizar herramientas como Shred, disponible en la mayoría de las distribuciones GNU/Linux, Eraser para Windows o srm para macOS.

Cabe mencionar que todos estos procedimientos explicados solo aplican al dispositivo donde se ejecute el proceso. Es decir, si la otra persona a quien se dirigen los mensajes no los elimina, seguirá teniendo acceso a los mismos y permanecerán disponibles para terceros en el caso de una extracción o intrusión al dispositivo. También es necesario prestar atención a los mensajes temporales, cuya duración puede ser de 1, 7 o 90 días, pues, según explica WhatsApp, si crea una copia de seguridad antes de que desaparezca un mensaje, este se incluirá en la copia de seguridad.

Eliminar mensajes de WhatsApp definitivamente requiere de al menos esos tres pasos e implementarlos o no depende de la percepción de riesgo que pueda tener cada persona de estar sujeta a una intrusión indebida a sus comunicaciones personales. Aún así, como se ve, hay fragilidades que son intrínsecas al uso de este tipo de aplicaciones y la confianza en la empresa por detrás de la aplicación y en las terceras personas con quienes compartimos nuestras informaciones.

Borrar mensajes, resguardar derechos

Aunque pueda resultar una tarea compleja, y que requiere de varios pasos a seguir, la posibilidad de borrar mensajes de manera segura es una acción concreta hacia una mayor autonomía digital y una defensa efectiva de nuestros derechos. Así como en la vida real, es necesario que los entornos digitales nos provean de herramientas que nos permitan resguardar nuestro derecho a la privacidad en línea y que están accesibles para todas las personas.

Desde Derechos Digitales, sostenemos que la privacidad de las comunicaciones no es un lujo ni una cuestión meramente técnica: es una condición indispensable para el ejercicio de otros derechos, como la libertad de expresión, la organización social y la defensa de los Derechos Humanos. En América Latina, donde diversos Estados han desplegado prácticas de vigilancia sin control ciudadano ni garantías adecuadas, proteger nuestras comunicaciones digitales se vuelve urgente.

El desafío de construir el futuro de los derechos humanos

La historia de Derechos Digitales comenzó hace dos décadas apostando a una idea común: que las tecnologías permitirían democratizar el ejercicio de un conjunto de derechos humanos de los cuales buena parte de nuestras poblaciones se veían excluidas. En particular, los derechos a acceder y compartir libremente contenidos artísticos, culturales y científico-académicos, así como noticias y opiniones sobre una amplia variedad de temas. Iniciamos nuestro activismo luchando por garantías a estas libertades en el ámbito tecnológico: que no se impusieran barreras técnicas ni jurídicas al acceso. Al contrario, que los nuevos marcos protegieran y desarrollaran nuestros derechos digitales.

Si bien nuestros orígenes se enmarcan más de una década después de que la apertura democrática en la mayoría de los países del Cono Sur abriera espacio a las primeras iniciativas sociales similares, construimos nuestro trabajo a partir de sus luchas y logros, y de las reflexiones y avances de movimientos iniciados años antes. No partimos desde cero, sino desde un mapa que ya mostraba zonas de conflicto, alianzas posibles y caminos por ensayar.

Una historia construida sobre sueños de libertad

Nuestra relación más obvia, al haber sido responsables de la adaptación y difusión de las licencias Creative Commons a Chile, es con el movimiento de “cultura libre”: con el que compartimos la resistencia al avance desenfrenado de la propiedad intelectual como mecanismo para controlar la circulación de contenidos digitales y proteger antiguos monopolios culturales y mediáticos. Sin embargo, este también nace con fuerte inspiración en dos movimientos previos: el que se construye alrededor del software libre, y aquel que se origina de las disputas por el acceso libre al conocimiento, en particular el acceso a la literatura científica.

El primer texto de nuestra actual página web, con fecha de 5 de mayo de 2005 refleja esta vinculación fundante. Su título: “¿Qué es el software libre?”. Su conclusión:

Considerando las políticas de licenciamiento impuestas por soluciones propietarias, las que suelen socavar las libertades ciudadanas, los beneficios que reporta el trabajo colaborativo y el aliciente para el desarrollo nacional, y los costes asociados a la implementación de soluciones informáticas de código abierto, Derechos Digitales manifiesta su decidida opción por el software libre u open source”.

Otro ejemplo del mismo mes, que apunta al vínculo con movimientos más tradicionales de derechos humanos, es el texto de Daniel Álvarez Valenzuela, fundador y entonces director de Derechos Digitales. Según él, internet podría “conferir a los ciudadanos ‘de a pie’ las mismas posibilidades de ejercer su derecho a la libertad de expresión que los grandes grupos económicos”.

Así, al argumentar sobre cómo la propiedad intelectual representaba una “mordaza” a la libertad de expresión, Álvarez recupera las reivindicaciones del fuerte activismo por la libertad de expresión y el derecho a la comunicación en América Latina. Movimientos responsables por denunciar la censura estatal y cuestionar el monopolio económico de los medios de comunicación en nuestra región.

Nuestros primeros textos reflejan otras relaciones con temáticas de interés de distintos grupos: transparencia y acceso a la información, acceso a la justicia, protección de datos, entre otras. Si bien esas referencias ampliaban el marco conceptual desde el cual abordábamos lo digital, nuestras alianzas y formas de trabajo siguieron, durante bastante tiempo, ligadas sobre todo a comunidades técnicas y jurídicas. Así, por mucho tiempo nuestro trabajo se enmarcó en un nicho dentro del amplio espectro del activismo en derechos humanos.

Promesas secuestradas

En 20 años de actuación, maduramos nuestra concepción sobre estas bases, siempre buscando proteger el ejercicio de derechos facilitado por las tecnologías de intentos de captura, criminalización y vigilancia. Pero lo que antes tomaba la forma de una discusión técnica, jurídica y delimitada a un ambiente digital accesible a una pequeña élite regional, hoy está en el centro de las preocupaciones cotidianas de un sinnúmero de personas afectadas de diferentes formas por las tecnologías digitales.

Primero porque el acceso a internet se ha incrementado significativamente en la región, aunque de manera desigual y a menudo en condiciones precarias. Las brechas no son solo de infraestructura, sino también de calidad, asequibilidad y autonomía. Muchas conexiones son lentas, inestables o costosas, y buena parte del acceso ocurre exclusivamente vía móvil, con planes que restringen contenidos y vulneran el principio de neutralidad de la red. Además, persiste una desigualdad profunda en el acceso a dispositivos adecuados y en las competencias necesarias para usar internet de forma segura, crítica y orientada al ejercicio de derechos. La desconexión ya no es el único problema: también lo es una conectividad limitada, subordinada y sin garantías.

Segundo porque ya no es necesario “estar” en internet para sentir los efectos de la digitalización que –a pesar de la eterna promesa de eficiencia– parece haber traído más riesgos que ventajas. La digitalización atraviesa hoy el acceso a servicios esenciales como salud, educación o justicia, sin que existan garantías adecuadas para todas las personas. Estas transformaciones, impulsadas muchas veces por actores privados sin transparencia ni control democrático, o embelesadas por la promesa de la inteligencia artificial, terminan agravando desigualdades y generando nuevas formas de exclusión. Si antes una preocupación central era con el filtrado de datos y la ciberseguridad, a ella se suman también las consecuencias tangibles de los mismos, la violencia y la manipulación del debate público digital a nuestras vidas y sociedades. Ya no hablamos solo de acceso a información, sino de la posibilidad misma de participar en la esfera pública sin ser invisibilizadas, acosadas o manipuladas.

Tercero, porque nuestros cuerpos son capturados y transformados en rastros digitales explotables para distintos fines ajenos a nuestra voluntad, a medida que las tecnologías digitales se aplican para mediar nuestro acceso a espacios y derechos. La expansión de sistemas de identificación biométrica, el monitoreo de actividades y el análisis predictivo han convertido nuestra vida en datos a explotar y nuestras huellas digitales en materia prima para el control social, la discriminación automatizada y la extracción de valor. Lo que alguna vez se entendió como mediación tecnológica, hoy opera como filtro, barrera o condición de acceso a la vida en sociedad.

Las promesas de apertura, descentralización y acceso que inspiraron el nacimiento del campo han sido sistemáticamente desplazadas por dinámicas de concentración, extracción y control que definen las infraestructuras digitales contemporáneas.

En estas condiciones, el entorno digital ya no parece un espacio naturalmente propicio para el ejercicio de derechos. Lo que comenzó como un terreno fértil para imaginar nuevas libertades, hoy plantea desafíos más urgentes, más desiguales, más difíciles de revertir. Pero si algo hemos aprendido en estos veinte años, es que el conflicto no clausura la posibilidad, sino que nos obliga a repensar nuestro trabajo.

Por el derecho a soñar

A pesar de estos patentes cambios y de un contexto geopolítico internacional refractario a las narrativas de derechos humanos, hoy más que nunca nos parece central reivindicar nuestra misión. No como una consigna repetida, sino como una tarea que se redefine constantemente frente a amenazas más sofisticadas, actores más poderosos y exclusiones más profundas. El escenario que enfrentamos es a menudo hostil, pero también más disputado: cada vez hay más fisuras que visibilizan una diversidad de voces que reclaman por justicia. Voces que requieren ambientes seguros para seguir manifestándose y entornos habilitantes, incluso a nivel digital.

A 20 años de nuestra fundación, seguimos apostando en el software libre para garantizar libertad, autonomía y protección. Mantenemos nuestra convicción en la necesidad de democratizar las comunicaciones y romper con los monopolios que se actualizan cada día a costa de la libertad de nuestras comunidades. Confiamos, más que nunca, en que los derechos humanos son una herramienta viva para enfrentar las crisis del presente y construir el futuro.

Los próximos años exigirán más que resistencia: necesitaremos nuevas alianzas, nuevas formas de incidencia y una comprensión más amplia de qué significa hoy defender derechos en entornos digitales. Necesitaremos resiliencia y solidaridad. Desde los márgenes donde trabajamos como sociedad civil latinoamericana y en toda la región, sabemos que no basta con reaccionar, sino que debemos proponer el futuro que queremos. Este seguirá siendo nuestro lugar.

Análisis sobre el proyecto de Ley de Inteligencia en Ecuador

En la Asamblea Legislativa de Ecuador avanza la discusión del «Proyecto de ley orgánica de inteligencia» que, si bien busca responder a los retos que enfrenta el país en materia de seguridad nacional, propone un articulado que genera preocupación por su nivel de desprotección de los derechos humanos.

Rechazo al Proyecto de Ley Orgánica de Inteligencia, Inteligencia Estratégica y Contrainteligencia

Ecuador DM, 03 de junio de 2025

Las organizaciones firmantes expresamos nuestro rechazo categórico al Proyecto de Ley Orgánica de Inteligencia, Inteligencia Estratégica y Contrainteligencia, que actualmente entra en discusión en la Asamblea Nacional. Esta propuesta legislativa no responde a la urgente necesidad de fortalecer la seguridad en el país, sino que establece las bases para un sistema opaco, autoritario y profundamente lesivo a los derechos humanos, en una propuesta de ley que ha sido desarrollada entre el silencio mediático y las sombras.

En un contexto donde la inseguridad, el crimen organizado y la corrupción requieren respuestas integrales, coordinadas y democráticas, este proyecto no ofrece soluciones reales. Por el contrario, institucionaliza la impunidad, concentra el poder en el Ejecutivo y reduce al mínimo los mecanismos de control y fiscalización ciudadana y judicial.

Denunciamos que el proyecto:

1. Viola el derecho a la privacidad y al debido proceso: Al permitir el acceso a datos personales y comunicaciones sin orden judicial, se habilita una vigilancia masiva e inconstitucional sobre la ciudadanía.

2. Otorga impunidad a los agentes de inteligencia: Exime de responsabilidad penal, civil y administrativa a quienes cometan abusos en el marco de sus funciones, generando un sistema paralelo fuera del estado de derecho.

3. Impone una entrega obligatoria de información sin garantías: Obliga a instituciones, empresas y personas a entregar datos bajo amenaza legal, sin protección de confidencialidad ni posibilidad de oposición.

4. Legaliza el uso de gastos reservados sin fiscalización: Se establece el uso de recursos públicos bajo la figura de «gastos reservados», sin controles independientes ni auditorías externas, reproduciendo las mismas condiciones que permitieron escándalos de corrupción y espionaje político en el pasado (como con la extinta SENAIN).

5. Permite el uso político del sistema de inteligencia: Con un ente rector nombrado directamente por el Presidente y sin mecanismos de supervisión autónoma, el sistema puede ser fácilmente instrumentalizado para perseguir a críticos, opositores, periodistas y defensores de derechos.

6. Debilita la transparencia y la democracia: La clasificación arbitraria de información como “secreta” limita el acceso ciudadano y periodístico, erosionando la rendición de cuentas y alimentando la opacidad institucional.

7. Incumple estándares internacionales de derechos humanos: Desconoce el fallo Cajar vs.Colombia de la Corte Interamericana de Derechos Humanos, que exige proteger los datos personales en sistemas de inteligencia y garantizar derechos como la cancelación, corrección y actualización, reconociendo la autonomía informativa.

Este proyecto no combate la inseguridad: la profundiza

Implementar un aparato de inteligencia sin garantías de control, transparencia ni respeto a los derechos fundamentales no combate la violencia ni el crimen organizado. Lo único que asegura es más poder para el Presidente y el aparato estatal, menos vigilancia ciudadana, y más herramientas para el abuso.

La historia reciente de Ecuador demuestra que la concentración de poder y la opacidad en los sistemas de inteligencia no mejoran la seguridad, sino que alimentan el espionaje ilegal, la persecución política y la corrupción.

Exigimos:

  • El archivo inmediato del Proyecto de Ley;
  • La apertura de un debate público y participativo, con organizaciones de derechos humanos, periodistas, expertos en seguridad y sociedad civil;
  • La construcción de una política de inteligencia basada en controles democráticos, transparencia y respeto irrestricto a los derechos fundamentales;
  • El establecimiento de mecanismos efectivos de fiscalización y rendición de cuentas, incluyendo la eliminación de gastos reservados sin auditoría externa.
  • Un pronunciamiento urgente de la Superintendencia de Protección de Datos Personales respecto al contenido de este proyecto de Ley que pretende un acceso desmedido y sin consentimiento a datos personales.

No se combate la violencia entregando al Estado las herramientas para violar derechos.

No hay seguridad sin democracia. No hay democracia sin control ciudadano.

No a la impunidad.

Educación y tecnologías vs. tecnologías y educación: reflexiones a partir de avances normativos recientes

En un momento de acelerados desarrollos tecnológicos y digitalización, puede parecer redundante decir que la discusión sobre la incorporación de tecnologías ha acompañado buena parte de los debates sobre reformas educativas en la historia reciente. Propuestas de incorporación del cine, radio y televisión marcaron el siglo XX, que –aunque no logró democratizar el acceso a la educación para buena parte de la población mundial– terminó con nuevas promesas de “revolución” educativa derivada exclusivamente de las tecnologías digitales. Como en momentos anteriores, fueron los más variados agentes, incluso instituciones financieras aparentemente poco vinculadas con el campo educativo, quienes vocalizaron de manera más contundente el poder transformador de lo digital para superar los problemas de esa educación “tradicional”. Sin embargo, empezar recuperando esta historia parece importante en un momento en que un nuevo ciclo de optimismos y pesimismos vuelve a instalarse en los debates sobre educación y tecnologías en América Latina.

La olla de oro al final del arcoíris

En un contexto de múltiples precariedades en los sistemas educativos, las tecnologías digitales a veces han sido presentadas como una panacea. La metáfora es de una recompensa tecnológica capaz incluso de transformar prácticas pedagógicas clasificadas de poco eficientes o atractivas para nuevas generaciones. Declaraciones de agentes externos al entorno escolar no ocultan su intento de culpabilizar a las y los docentes por todo tipo de mal relacionado con la educación.

Un extremo de este tipo de discurso se ha activado en Brasil para justificar la adopción de sistemas de reconocimiento facial para el registro de la asistencia escolar en el estado de Paraná. De acuerdo con la gestión local, basada en un documento del Banco Mundial, el método de control de presencia oral sería ineficiente, representando una pérdida de tiempo; la tecnología, por lo tanto, ofrecería la solución a partir de la automatización. Sin embargo, las promesas fueron, como mínimo, optimistas: desde la implementación del sistema, se han registrado múltiples quejas de mal funcionamiento, lo que ha generado aún más retrasos en el registro de asistencia. Ellas incluyen, por ejemplo, errores en la identificación de personas de piel negra y con discapacidad.

Aunque avance rápidamente en la región, el reconocimiento facial es ampliamente cuestionable como tecnología efectiva para la identificación y autentificación de personas. Lo mismo ocurre con los llamados sistemas de reconocimiento de emociones, también en proceso de implementación en escuelas brasileñas.

Este y otros tipos de problemas podrían ser evitados con la realización de estudios previos de impacto amplios y participativos, pero no hay referencias de que se hayan realizado en el caso de Paraná. La iniciativa –que costó más de 4 millones de reales al Estado– está actualmente bajo escrutinio judicial debido a la vulneración de la legislación brasileña de protección de datos, por ejemplo en relación con el consentimiento para la recolección de datos biométricos sensibles de niños, niñas y adolescentes. El “oro”, al final, parece haberse quedado con los proveedores de la tecnología, mientras la educación pública sigue precarizada y carente de inversiones significativas.

Transgresiones sectoriales

El concepto de transgresiones sectoriales es útil para entender algunos procesos detrás del avance de las empresas de tecnologías en la educación. Se refiere a la estrategia de empresas de tecnologías de reivindicar conocimiento y autoridad en ámbitos que van más allá de lo tecnológico. Con eso, pasan a tener un peso diferencial en decisiones estratégicas, en este caso, del ámbito educativo, que no son parte de su competencia.

Rescatar esta idea es clave mientras pensamos políticas educativas y respuestas normativas a los desafíos del avance de las empresas tecnológicas sobre la educación. Con relación a lo primero, importa recuperar el rol que ellas efectivamente cumplen a la hora de definir a quiénes involucrar en discusiones sobre políticas públicas sobre educación y tecnologías. Si bien las empresas pueden tener un espacio en las mesas de discusión, de ningún modo reemplazan la necesidad de involucrar expertas en educación y representantes del sector educativo, como docentes, estudiantes y gestión educativa.

Por otro lado, el recuerdo que trae la idea de transgresión sectorial es clave para evitar caer en trampas normativas como la de crear criterios específicos para “EdTech”. Este tipo de abordaje, explorado por órganos como Unicef, más allá de sus buenas intenciones conllevan el doble riesgo de naturalizar la voz de empresas de tecnologías para incidir en temas educativos y de fragilizar protecciones existentes al pensar criterios diferenciados para el ámbito educativo. Peor aún, puede legitimar la recolección masiva de datos de niños, niñas y adolescentes en el contexto educativo, algo cuidadosamente delimitado por distintas legislaciones alrededor del mundo, incluso en materia de protección de datos personales.

O sea: bajo la excusa de crear reglas específicas, se autoriza y legitima la explotación de datos de infancias sin un completo conocimiento de sus consecuencias. En un contexto regional de gran influencia del lobby de las empresas de tecnologías, iniciativas legislativas como éstas pueden poner en jaque las garantías duramente conquistadas en el marco de leyes generales de protección de datos.

El caso brasilero de Paraná evidencia, y siempre es bueno reiterar, que las leyes de protección de datos sí se aplican a las políticas de uso de tecnologías en educación promovidas desde el sector público. Del mismo modo, las reglas de compras públicas también se aplican a la adquisición de tecnologías por entes del Estado, aunque, como hemos demostrado en la iniciativa IA & Inclusión, ellas sean poco observadas en la región. La existencia o no de intercambio monetario involucrado en los acuerdos con empresas de tecnologías no es un limitante si el uso implica la explotación económica de datos obtenidos a partir de ellos.

Eso no significa que no haya particularidades que deban ser consideradas o que no haya utilidad en el desarrollo de normas administrativas o guías específicas para las instituciones educativas. Las autoridades de protección de datos cumplen un rol clave al proponer orientaciones ancladas en los más altos estándares de protección establecidos en las normativas de datos y de infancias. Eso es particularmente relevante en un contexto en que las grandes empresas de tecnología se acercan a las instituciones educativas para establecer alianzas directas, dificultando procesos de supervisión y fiscalización.

Tecnologías para una educación emancipadora

En un año en que vemos cómo los hombres detrás de las mayores empresas de tecnología no dudan en apoyar un gobierno de extrema derecha marcado por la discriminación, odio y la persecución a oponentes políticos, no es difícil entender por qué gana fuerza en la región una resistencia a las mismas tecnologías. En el último año tuvimos una ley federal aprobada en Brasil prohibiendo el uso de teléfonos celulares en las escuelas, discusiones similares en Argentina –con una resolución porteña sobre el mismo tema– y en lo que va de 2025 ya hubo una “huelga” de redes sociales en abril y otra está prevista para el próximo domingo (25) en Brasil. También en Brasil gana fuerza un movimiento para evitar que niños, niñas y adolescentes tengan acceso a un smartphone hasta que cumplan 14 años y a las redes sociales antes de los 16.

Son innumerables y muy legítimos los motivos que fortalecen este tipo de reacción: desde las crecientes evidencias sobre los impactos nocivos de las tecnologías a la salud, su carácter adictivo, hasta el temor a la violencia en línea en todas sus formas, pasando por el rol de los algoritmos, las exposición a los extremismos y a la desinformación –contenidos ahora menos regulados por las mismas plataformas–, entre otros. Es positivo que estas preocupaciones alcancen a la sociedad de manera más amplia y provoquen reacciones desde el poder político, históricamente sordo a las alertas sobre la necesidad de supervisar y fiscalizar procesos de digitalización del Estado.

Sin embargo, no podemos olvidar la importante historia de usos de tecnologías para la resistencia, la defensa de derechos y la democratización de la comunicación y la educación, en un continente aún marcado por desigualdades. Lejos de comprar la fantasía tecnosolucionista que equipara tecnología y eficiencia, se trata de recuperar internet más allá de las redes sociales. En el mismo sentido, cabe recordar que las tecnologías no son sinónimo de extracción y explotación de datos para la ganancia sin frenos (del mismo modo que “EdTech” no es lo mismo que tecnologías en la educación).

Limitar el acceso a las tecnologías a las niñeces o en el ámbito educativo puede ser una respuesta legítima frente al avance obsceno de los intereses comerciales por sobre cada aspecto de nuestras vidas. Pero también puede implicar restringir el contacto con otras realidades, el acceso a culturas no cubiertas por medios tradicionales, la formación de vínculos afectivos, la exploración de identidades en entornos seguros, y otras formas de conocer el mundo. Más aún: podría limitar la capacidad de las próximas generaciones para imaginar otros futuros tecnológicos. Más justos, más solidarios, más inclusivos.

Reconocer los riesgos de la digitalización en contextos educativos no implica renunciar a sus posibilidades. Más bien, urge avanzar hacia una construcción colectiva de políticas tecnológicas que pongan al centro el bienestar y los derechos de las comunidades escolares. Esto incluye fortalecer los procesos participativos, asegurar evaluaciones de impacto, garantizar el cumplimiento de las leyes de protección de datos y, sobre todo, promover un enfoque pedagógico que incorpore las tecnologías como herramientas de emancipación y no de control. La educación con tecnologías sí es posible, pero solo si se construye desde la equidad, la justicia social y la imaginación crítica.

La IA y los nuevos riesgos para la privacidad

La inteligencia artificial (IA) es mucho más que los sistemas de chat que se popularizaron desde inicios de esta década. Si bien ahora se está viviendo el boom de esta tecnología, no hay que olvidar que la IA es una rama de las ciencias de la Computación que ha estado presente desde sus inicios. En el pasado, existieron hitos importantes en relación a esto. Por ejemplo, en el año 1997 la computadora Deep Blue, creada por IBM, fue capaz de vencer en ajedrez al entonces campeón del mundo Gary Kasparov. También, hace poco menos de 10 años, el software Alpha Go de Google logró ganarle a varios campeones internacionales del juego de estrategia Go.

El boom que se vive en la actualidad tiene que ver principalmente con los modelos grandes de lenguaje (LLM por sus siglas en inglés). Se trata de un programa de la IA que permite tener aplicaciones con las cuales nos podemos comunicar de forma natural como si estuviéramos hablando con personas. Para que estos sistemas puedan tener una conversación con humanos se los debe entrenar con cantidades extraordinarias de datos y además se requiere de mucha capacidad de cómputo.

Dime qué datos utilizas y te diré quién eres

Si se piensa en los LLM desde una perspectiva de privacidad, lo primero que nos deberíamos preguntar es ¿de dónde salen los datos que entrenan el modelo? Según OpenAI, utilizan 3 fuentes para entrenar los modelos de ChatGPT: información pública, información compartida por socios e información provista por humanos.

En la primera opción, se puede pensar en la internet pública con sitios como Wikipedia, Github, Archivo de internet y otras similares. Desde un punto de vista de privacidad, esta información está públicamente accesible y se puso a disposición con la intención de compartir conocimiento libremente. Se podría decir que entrenar LLM con esta información, haría más accesible el conocimiento a la mayoría de la gente.

Pero este no es el caso para todos los sitios web. Existen casos como las redes sociales, donde las personas -por error- pudieron haber publicado información personal sin intención y esta se hizo pública. Incluso se podría haber subido contenido con el propósito de que sea accesible para el público, pero no necesariamente para entrenar modelos de inteligencia artificial.  Evidentemente, hay problemas relacionados con derechos de autor, pero en esta columna no nos vamos a detener en esa cuestión.

En el segundo caso, no es claro cuáles son los socios que proveen información a OpenAI. En su página web mencionan una colaboración con al gobierno de Islandia para mejorar el soporte del idioma islandés, y también hablan de colaborar con la organización Free Law Project. Sin embargo, no queda claro con qué otros grupos hacen alianzas para la provisión de datos.

Desde el punto de vista económico, el principal aliado de OpenAI es Microsoft. Una empresa que en 2023 realizó un acuerdo de 10 mil millones de dólares con OpenAI por varios años, y que incluye el uso de la infraestructura Azure. Esta infraestructura es la “nube” que oferta Microsoft para que terceros puedan ejecutar sus aplicaciones. En este caso, Azure es la principal infraestructura de ChatGPT y otros productos de OpenAI.

¿Será que OpenAI utiliza información de las aplicaciones de Microsoft como Bing, Outlook, Office 360, entre otros? ¿Estará Microsoft entregando información personal de sus usuarios para entrenar al ChatGPT? No hay forma de saberlo, salvo que se haga una auditoría y se transparente la forma en la que OpenAI entrena sus modelos.

Si pensamos en las otras empresas líderes como Google con Gemini, Meta con MetaAI o X con Grok, podemos, al menos, sospechar que utilizan los datos de sus sistemas para entrenar sus modelos grandes de lenguaje. Todas estas empresas tienen algo en común, muchos datos y gran capacidad de procesamiento de información, lo que las pone en la élite de la IA.

Nube y privacidad: malos amigos

Ya se analizó la privacidad al momento de entrenar los modelos LLM. Ahora bien, ¿qué pasa con nuestra privacidad al utilizar estos chat bots? El principal problema que se presenta al utilizar estas herramientas de IA es que se encuentran en la nube, a quien le entregamos todos nuestros datos.

Si se utiliza la IA para que nos responda nuestras preguntas cotidianas, estas preguntas se asocian a nuestro perfil y sirven para perfilarnos como individuos. Si se usa la IA para que resuma una llamada de Zoom, entonces estamos entregando la transcripción de la conversación y el resumen a la plataforma. Si la utilizamos para escribir un correo electrónico, entonces el sistema que lo redacta tendrá el contenido de nuestro correo. Si le pedimos que nos sintetice un documento confidencial, le servimos en bandeja esa información. Toda esta interacción servirá para entrenar los futuros modelos de lenguaje. En teoría, gente con la capacidad de hacer las preguntas correctas a la IA podría extraer información de nuestros archivos confidenciales.

Por otra parte, el uso de IA en aplicaciones de chat cifrado también resulta un problema muy grave para la privacidad de la ciudadanía. El cifrado extremo a extremo protege nuestras comunicaciones para que nadie, excepto las personas que participan en la misma, las pueda leer. Un adversario particularmente importante del cual nos protege este tipo de cifrado es el proveedor del servicio. Si se piensa en WhatsApp, entonces su cifrado nos debe proteger para que WhatsApp no lea nuestras conversaciones. Sin embargo, desde algún tiempo atrás tenemos entre nuestros contactos al bot de @MetaAI. A este bot lo podemos invocar desde cualquier conversación para hacerle consultas. Cuando eso sucede, el cifrado extremo a extremo pierde su valor ya que Meta debe leer nuestras conversaciones para interactuar.

En general, los problemas de privacidad de la IA están asociados a la utilización de plataformas en “la nube”. En otras columnas, hemos visto algunos ejemplos del uso de infraestructura propia con software libre para poder tener una oficina virtual, sistemas de videoconferencia seguras, incluso instancias de redes sociales descentralizadas como el Fediverso.  ¿Se puede hacer lo mismo con la inteligencia artificial?

La respuesta es sí, y de hecho existen varios LLMs que se pueden utilizar sin costo y de forma local o incluso en infraestructura propia. A diferencia de sistemas como una nube propia o sistemas de chat seguro, con inteligencia artificial se va a necesitar mayor capacidad de cómputo o versiones más pequeñas de los LLM. Al usar modelos más cortos, probablemente no sirvan para preguntar cualquier cosa, pero sí podrían ser muy útiles para tener un bot con un propósito específico. Por ejemplo, para resumir documentos confidenciales o traducir textos.

IA al servicio de las personas, no de las corporaciones

En nuestros días, es común que la gente utilice IA para apoyarse en sus tareas cotidianas y, seguramente, en el futuro esta herramienta se usará aún más. Es sumamente importante que como sociedad podamos reflexionar acerca de los propósitos para los cuales se seguirá utilizando la IA y los riesgos que eso trae aparejado. No es lo mismo recurrir a ella para traducir un documento público, redactar un correo electrónico o resumir un documento confidencial. Habrá casos en los que se pueda considerar aceptable utilizar IA a cambio de sacrificar la privacidad y habrá otros en los que no.

La autonomía en la IA es algo que la sociedad debe explorar. Para tareas y actividades donde se trabaja sobre información sensible, tener un sistema tecnológico que no reporte esa información a terceros sería una herramienta muy poderosa. Incluso varias organizaciones podrían unirse entre sí para compartir infraestructura y poder ejecutar colectivamente mejores modelos de lenguaje. Las regulaciones sobre esta herramienta tecnológica deben velar por el respeto de nuestra privacidad, nuestros datos y nuestra información. Solo de esa forma podremos imaginar un futuro digital seguro para todas y todos.

“El viaje” de la creatividad en la era de la Inteligencia Artificial

Las semanas pasadas Internet se colmó de millones de imágenes generadas por IA al estilo del icónico Studio Ghibli. Las personas usuarias emplearon el último generador de imágenes de OpenAI para que sus fotografías, las de sus familiares y mascotas aparecieran, en cuestión de minutos, como personajes salidos del místico universo animado por Hayao Miyazaki, fundador del mítico Studio Ghibli.

La tendencia de la “IA Ghibli” suscitó ternura, nostalgia y diversión en las personas viralizándose con rapidez, al tiempo que despertaba múltiples debates pertinentes. En efecto, las preguntas por los derechos de autor no tardaron en revivir, las implicaciones medioambientales del uso de la IA florecieron, los pronunciamientos de artistas se reavivaron y las alertas alrededor de la protección y el uso de datos personales en la IA se encendieron con fuerza. Lejos de pretender abarcar en su totalidad o resolver estos y otros debates, en esta columna aprovecharemos el reposo de la tendencia para reflexionar sobre dos puntos: el lugar del proceso creativo humano y la sensibilidad artística a propósito de la expansión de la IA generativa de imágenes; y los riesgos hacia las personas en materia de protección de datos personales.   

¿El arte se crea o se programa?

Ya sea en la música, la ilustración o la escritura, la creatividad es un proceso complejo, multifacético, y profundamente humano. La creatividad humana requiere la interpretación de lo que otras personas han hecho, combinarlo con ideas y experiencias propias, agregarle matices y, a partir del ensayo y error, conseguir expresar la idea que gestamos por algún tiempo en nuestra imaginación. Pensemos que cada creación es como un Castillo Ambulante de Miyazaki, una suma de estilos y piezas heterogéneas que forman una estructura con vida propia.

Ahora, el presente tecnológico del arte ofrece y acerca a las personas a cientos de grandes referentes para la creatividad humana. De hecho, expresarse artísticamente a través del uso de nuevas y emergentes tecnologías, incluida la IA, nunca había sido tan fácil y accesible. La energía vital que se imprimía en componer un compás, en hacer un esbozo o en empezar de cero un escrito se transforma en la era digital que nos atraviesa. Hace días nomás, el proceso de reproducir un estilo ajeno se redujo al envío masivo de cadenas de instrucciones o “prompts” con los que la IA de OpenAI generó en segundos miles de imágenes detalladas con el estilo Ghibli. Esta tendencia “IA Ghibli” merece ser pensada desde el valor mismo de la creatividad y de los creadores en un mundo que cada vez más se inclina a la automatización prescindiendo del factor humano.

La IA habilita la producción continua e inmediata de piezas artísticas, representando tanto oportunidades para el ecosistema artístico, como riesgos para los procesos de creación tradicionales. La inteligencia artesanal de Miyazaki, por ejemplo, nos lleva a reflexionar sobre la vivencia y padecimiento del proceso creativo, sobre el tiempo que toma, los retos y las potencialidades que representa para la imaginación personal y colectiva, y la creatividad. Esto en un contexto donde el trabajo artístico suele estar mediado por condiciones precarias o poco dignas que suponen un reto y un peso adicional.  

La creatividad como proceso y como resultado es una experiencia ajena e irreproducible para la IA, una tecnología que no sueña, imagina o experimenta como lo hace la creatividad humana, y en razón a esos elementos no se avoca a la generación de estilos originales, sino a la reproducción de los estilos de otros. Para quienes crean una historia mientras la ilustran (sin cadenas de instrucciones previas), estableciendo una relación de identidad con su obra al dejar un poco de su experiencia de vida en cada detalle y trazo, la generación de imágenes con IA representa con fuerza el “insulto a la vida misma”, una afirmación del propio  Miyazaki al referirse a la generación de imágenes con IA. Para quienes apoyan la inteligencia artesanal, la tendencia de la “IA Ghibli” produjo cuestionamientos válidos sobre el sentido del arte en tiempos donde la IA cada vez ocupa más espacios que creíamos nuestros.

No obstante, en la medida que esta tecnología se instaló en el oficio creativo y fuera de él, es necesario explorar salidas que trasciendan a los marcos de transparencia en el entrenamiento de las herramientas de IA, así como concretar usos de estos sistemas alineados con una perspectiva de derechos humanos que impidan la reproducción de violencias, sesgos y formas de discriminación. Para esto, es crucial suscitar el diálogo entre empresas, personas usuarias y colectivos de artistas para precisar mecanismos de protección, reclamación y compensación que amparen a las partes más allá del terreno movedizo y desigual de los derechos de autor.

Equilibrar la creatividad humana y las formas que toma con la innovación tecnológica está en el centro de la discusión. Quizás, más allá de emprender un proceso creativo al estilo tradicional, la IA habilita nuevas forma de expresión artística donde retazos de ideas cobran vida al instante representando momentos fugaces de nuestra imaginación.

Ahora bien, el uso entusiasta de la IA no puede eclipsar la reflexión y el pensamiento crítico alrededor de las tecnologías, lo que incluye exigir responsabilidad e información pública a las empresas sobre, por ejemplo, el uso de los millones de datos personales y de terceros que alimentaron el modelo de OpenAI en las últimas semanas.

Las tendencias de la IA y los datos personales

De la mano de los riesgos para el ecosistema artístico, vale la pena destacar los riesgos para las personas que recordó el “trend” de la IA Ghibli. A saber, un asunto que sorprendió fue la conducta de entrega voluntaria, gratuita y entusiasta de datos biométricos de millones de personas a OpenAI. Por esto, apuntamos a reflexionar sobre los riesgos de entregar información personal, como los rostros propios y de terceros (como menores de edad) con ligereza a las empresas tecnológicas. Es fundamental preguntarnos por nuestra relación con la IA y cuestionar aquellos lugares donde naturalizamos la recopilación de nuestros datos a través de argumentos como “nuestra información ya está en todas partes”. Recordemos que como personas usuarias somos soberanas de nuestra información y podemos decidir sobre esta y exigir transparencia en su uso por parte de las empresas tecnológicas.

Como vemos, el debate es amplio. La naturaleza evolutiva de tecnologías como la IA, sobre todo en su dimensión generativa, refuerza la importancia de, por un lado, avanzar hacia estrategias concretas de responsabilidad para las empresas que, en su carrera global por la IA, lanzan productos con implicaciones para los derechos de las personas, impactando incluso en ámbitos que creíamos exclusivos de lo humano, como la creatividad y el proceso artístico. Y, por otro lado, es ineludible involucrar a las personas usuarias traduciendo el lenguaje del trabajo académico e intelectual acerca de las tecnologías digitales a sus realidades concretas. Sólo así, los riesgos asociados a la IA, por ejemplo, podrán entenderse como consecuencias inherentes a su uso, y no como asuntos aislados, ajenos a nuestras prácticas diarias.

2024: el año en que la protección de datos nos recordó su lado político

El 2024 fue un año de progresos esperados en materia de protección de datos para nuestra región. Se aprobó en Chile, luego de seis años de debate regulatorio, la ley de protección de datos; El Salvador también aprobó su ley, y Perú reformó la suya para adaptarla al estándar europeo, un referente que muchos países de América Latina intentan adoptar. Por su parte, Paraguay avanzó en la discusión del proyecto de ley, y se espera que este año suceda su aprobación.

El año pasado también observamos retrocesos significativos, como la eliminación del INAI, autoridad garante del derecho a la protección de datos y el acceso a la información pública en México. Esto ocurrió en el marco de una reforma constitucional que, bajo el argumento de reducir costos operativos, eliminó a distintos entes autónomos. Una supresión que se produce en tiempos en que las Big Tech acrecientan su poder para amasar y explotar nuestros datos bajo condiciones cada vez más asimétricas.

Frente a esos avances y retrocesos regulatorios, en nuestro trabajo en Derechos Digitales hemos observado algunas tendencias regionales preocupantes. Algunas de ellas son nuevas, mientras que otras representan la continuidad de prácticas de explotación de nuestros datos que se expanden y masifican de cara a nuevas y emergentes tecnologías, las cuales amplían el alcance a las tareas de recolección y procesamiento de nuestros datos y con ello, intensifican su impacto en la protección de los mismos. Veamos una por una.

La protección de datos y las tareas estatales de seguridad: una desconexión peligrosa

La primera tendencia tiene que ver con la creciente adopción de prácticas y tecnologías para la extracción de datos por parte de los Estados para fines que, en particular, se enfocan en la seguridad ciudadana y nacional.Se trata de finalidades que las regulaciones de protección de datos han excluido tradicionalmente de su aplicación, bajo una visión arcaica que sugiere que el resguardo de la ciudadanía no es algo que deba consentir esta última.

Enmarcado en esta tendencia vimos con preocupación la expedición de la resolución que en Argentina habilita al ciberpatrullaje, una tarea de seguridad emprendida por el Estado para patrullar (o vigilar) internet “de la manera en que se patrullan las calles” para, en teoría, facilitar la identificación y prevención de los delitos en línea.

Se trata de una resolución que no fija límites claros, respetuosos y garantes de la privacidad y la libertad de expresión en línea. De manera similar, el ciberpatrullaje se despliega también en Colombia, Bolivia, México, Brasil y Uruguay. En cada caso, al parecer, las autoridades se dedican a explorar y observar de cerca lo que publicamos y con quién interactuamos en línea -en ocasiones, con ayuda de algoritmos para automatizar dicha tarea-, para determinar si lo que decimos o con quién conectamos amerita ser perseguido por la vía penal.

Lo cierto es que, pese a la desconexión que persiste entre la regulación de la protección de datos y las tareas de seguridad, y a que sea cierto que el consentimiento no sea propiamente la base jurídica que da pie al tratamiento de los datos en estos casos, los Estados sí deberían observar los principios y obligaciones que garantizan que la recolección de los datos de la ciudadanía sucede de manera responsable, lícita, leal, transparente, segura y, sobre todo, de manera compatible con los derechos humanos.

Pero además, bajo ciertas condiciones, los titulares de los datos deberían conservan el ejercicio de los derechos de actualización, rectificación, y cancelación de su información inclusive en esas tareas. Esto último, de hecho, lo reiteró por su cuenta el fallo Cajar vs. Colombia emitido en 2024 por la Corte Interamericana de Derechos Humanos respecto a las tareas de inteligencia estatal, y cuyas repercusiones en la regulación de la protección de datos frente a las tareas de seguridad aún están por verse.

Biometría ¿para qué?: el valor vs. el precio de los datos

La segunda tendencia que observamos, tiene que ver con la recolección transaccional de datos sensibles para la realización de modelos de negocio muy poco claros o transparentes. Por ejemplo, identificamos la masificación de los servicios de empresas como Tools for Humanity (TfH) desarrolladora de World –antes Worldcoin– que prometen entregar a las personas criptomonedas a cambio del escaneo de su iris, un dato biométrico que será usado para ayudar a resolver los problemas asociados a la identidad en línea.

La empresa TfH desplegó operaciones en Argentina, Brasil, Chile, Colombia, Ecuador, Guatemala, México, Perú y República Dominicana. Solo las autoridades de protección de datos de Argentina, Colombia, Brasil y Perú abrieron investigaciones a World, entre otras cosas por las condiciones de recolección del consentimiento de las personas, que no parece estar precedido de información clara y transparente sobre las condiciones del tratamiento de los datos biométricos capturados, así como las condiciones del ejercicio de los derechos de acceso, rectificación, cancelación u oposición. Sobre el desarrollo de esas investigaciones sabemos poco al día de hoy.

Ahora bien, el contenido transaccional de este tipo de prácticas resulta problemático por dos motivos. En primer lugar, porque asignan un valor económico a la entrega de un dato cuyo valor identificatorio es inestimable por su naturaleza inmodificable, así como profundamente personal, y que por los riesgos de ser instrumentalizado en contra de su titular ha merecido un estatus de protección especial en la mayoría de legislaciones que regulan esta materia. En segundo lugar, porque además de explotar la vulnerabilidad económica de ciertos sectores de la población, se trata de empresas que operan de manera poco transparente frente a los reguladores y los titulares de los datos.

Todo esto para aceitar el modelo de negocio de la identidad digital del que todavía no sabemos mucho, pero frente al cual otras autoridades de protección de datos en el mundo han actuado de manera mucho más contundente y preventiva prohibiendo las operaciones de World, tal y como sucedió en España, Francia, India, Corea del Sur, Hong Kong e incluso Kenia.

Las Big Techs y la IA: nuestros datos a merced de políticas injustas

Y la tercera tendencia, tiene que ver con los cambios poco claros y transparentes de las políticas de privacidad impuestas de manera abusiva en América Latina por distintas plataformas que transitaron a la adopción de sistemas de IA con diversos propósitos, y que asumen, al contrario de lo indicado por los principios de finalidad, transparencia o lealtad en el tratamiento de los datos, que los titulares aceptan por defecto los nuevos términos y condiciones impuestos.

El caso de Meta es quizá uno de los más representativos, pues desplegó un cambio global de su política de privacidad que autoriza de manera retroactiva al uso de los datos de los usuarios de Facebook e Instagram para entrenar a su IA. Un cambio que dejó a sus usuarios en América Latina sin ninguna opción válida para negarse u oponerse.

Solo la autoridad de protección de datos de Brasil (ANPD) reaccionó al emitir una medida cautelar que prohibía desplegar dicho cambio en tanto que dejaba a los titulares de los datos de ese país sin opciones para rechazar la nueva política en cuestión. Con posterioridad, Meta desplegó en ese país su política de manera mucho más clara con autorización de la autoridad, y habilitó -a diferencia del resto de países de la región- canales para el ejercicio del derecho a rechazar los cambios propuestos.

Cambios similares sucedieron en las políticas de otras plataformas como X, Linkedin, Adobe y Google, entre otras, que además habilitan a que terceros puedan usar los datos de sus usuarios para entrenar a sus sistemas de IA. Se trata de cambios que, en la mayoría de los casos, se han introducido de manera subrepticia y silenciosa, algo que la Comisión Federal de Comercio en Estados Unidos (FTC por sus siglas en inglés) ha calificado como una práctica injusta y engañosa.

Frente a este panorama ¿hay motivos para la esperanza?

Estas tendencias están acompañadas de un panorama regulatorio que, en gran medida, todavía limita a las pocas autoridades activas de la región a desempeñar roles de simple monitoreo preventivo y vigilancia pasiva. Aún queda pendiente avanzar hacia un rol sancionador más robusto donde, por ejemplo, las multas ejemplarizantes puedan ayudar a generar nuevas pautas de conducta para actores del sector privado y público; o donde las autoridades asuman un rol activo y oficioso, en el cual la imposición a iniciativa propia de medidas cautelares pueda ayudar a prevenir la afectación de los derechos de las personas.

Hay motivos para la esperanza, pero debemos moderar nuestras expectativas. Es cierto que, cada vez más, el listado de países sin regulación de protección de datos se reduce. Y aunque esto es importante, no es motivo para cantar victoria, pues hace falta todavía cambiar visiones arcaicas como aquellas que sugieren que los Estados, cuando realizan cierto tipo de tareas -como las de seguridad- tienen un cheque en blanco que les habilita a dar tratamiento a los datos personales de la ciudadanía de cualquier manera.

También es cierto que las regulaciones vigentes en protección de datos precisan de un balance necesario cuando su ejercicio se enfrenta a otros derechos, como el de libertad de expresión o acceso a la información. Y que persisten otros retos igualmente urgentes para que las regulaciones aprobadas y vigentes cobren vida y sirvan como verdaderas herramientas de protección a las personas.

Por ejemplo, urge el robustecimiento de las capacidades humanas y técnicas de las autoridades de protección de datos, así como establecerlas en países donde aún no existen. Además, es fundamental garantizar los recursos necesarios para su funcionamiento, y dotarlas de la independencia y autonomía que las habiliten para actuar frente a otras dependencias estatales así como frente a las Big Tech que, cada vez más, buscan eludir o intimidar a las normativas y autoridades que ejercen su poder regulatorio.

Desde luego, el trabajo de organizaciones como Derechos Digitales será aportar a esto último, y vigilar para que las promesas de regulación no se queden en el papel, sino que se traduzcan en verdaderas garantías para los derechos humanos en el entorno digital. El 2024 nos recordó que la protección de los datos personales no es solo una cuestión técnica o legal, sino una lucha política que enfrenta intereses poderosos, ya sean estatales o corporativos.

Nos encontramos frente a un panorama complejo, pero también un momento clave para definir el futuro del derecho a la protección de datos en nuestra región. Las decisiones que tomemos hoy serán cruciales para establecer un equilibrio entre el avance tecnológico y la protección de los derechos fundamentales. Solo si mantenemos la vigilancia activa, exigimos mayor transparencia y contribuimos a fortalecer las capacidades regulatorias de las autoridades, podremos garantizar que los datos personales de millones de personas no se conviertan en una mercancía desprotegida, sino en una herramienta que potencie su dignidad y autonomía. El desafío es enorme, pero no podemos darnos el lujo de detenernos ahora.