Cumbre para la Acción en IA de París: ¿qué podemos esperar para América Latina?

La Cumbre para la Acción en Inteligencia Artificial (AI Action Summit), que tuvo lugar en París a principios de la semana pasada, reunió a varios de los máximos referentes -principalmente del Norte Global- en el desarrollo de tecnologías de Inteligencia Artificial, junto con líderes de algunas de las mayores economías del mundo. Autoridades de gobiernos, liderazgos empresariales, representantes de organizaciones internacionales y referentes académicos compartieron sus perspectivas sobre los próximos pasos necesarios para acompañar el despliegue de esta tecnología. ¿De qué manera? Según el título de la declaración oficial con la que cerró el evento, con el impulso de una “Inteligencia Artificial Inclusiva y Sostenible para las Personas y el Planeta”.

La realización de esta cumbre plantea interrogantes sobre su impacto real en América Latina, una región con escasa representación entre las personas oradoras, tanto en el evento principal como en los más de cien encuentros paralelos realizados en la capital francesa. Sin embargo, las políticas, enfoques e iniciativas de las empresas presentes —las principales actoras en el desarrollo global de la IA— tienen una influencia determinante en nuestra región. La falta de un espacio para la incorporación de perspectivas latinoamericanas representa, por tanto, una oportunidad perdida. Un ejemplo de ello es el cierre del encuentro a cargo de Sundar Pichai, CEO de Google, una de las corporaciones que más invierte en centros de datos y despliegue de la IA en la región. Cabe preguntarse qué visiones estuvieron representadas y cuáles fueron las conversaciones que buscan delinear la agenda futura.

Uno de los principales temas de la Cumbre fue la ‘IA de Interés Público’, para discutir el desenvolvimiento de estas tecnologías con el ser humano en el centro. La declaración final estableció como prioridades: promover el acceso a la Inteligencia Artificial para reducir las brechas digitales; garantizar un desarrollo abierto, inclusivo, transparente, ético, seguro y confiable dentro de marcos mundiales; y crear condiciones que fomenten la innovación evitando la concentración de mercado. Se destacó la importancia de utilizar la IA para fortalecer el futuro del trabajo y el crecimiento sostenible, asegurar su desarrollo en armonía con el bienestar de las personas y el planeta, y reforzar la cooperación internacional para coordinar su gobernanza a nivel global.

Sin embargo, quedaron en evidencia diferencias profundas en los enfoques y prioridades regulatorias entre las grandes potencias. Estas discrepancias no solo quedaron en el debate, sino que también se reflejaron en las decisiones finales del evento. En lugar de lograr consensos sustantivos, la Cumbre dejó en claro que los países más influyentes siguen caminos separados, lo que puede fragmentar aún más los marcos reglamentarios internacionales y afectar la adopción de estándares en América Latina. La expectativa de un escenario global de gobernanza de IA se ve así más lejos que nunca.

La declaración final fue firmada por 60 países de todo el mundo, con dos notables abstenciones: Estados Unidos y el Reino Unido. Un vocero del país norteamericano afirmó que su abstención se debe a que el documento “no abordaba de manera suficiente las cuestiones más complejas relacionadas con la seguridad nacional”. En América Latina, la declaración fue firmada por Brasil, Chile, Colombia, México y Uruguay. Si bien la firma de un pronunciamiento de este tipo puede parecer algo lejana y simbólica, es un buen indicio para comprender la falta de perspectivas globales o caminos a seguir para nuestra región. A continuación, exploramos algunos ejes clave que podrían orientar las discusiones futuras.

Perspectivas regulatorias

La discusión sobre una IA inclusiva y sostenible para las personas y el planeta contó con escasa presencia del Sur Global. A excepción de representantes de Chile, Brasil y Costa Rica, los espacios gubernamentales y regulatorios estuvieron dominados por enviados de Europa y Norteamérica, incluido un representante del Vaticano. Esta composición sesgó inevitablemente el debate, acentuado aún más por la casi nula participación de nuestra región en paneles conformados mayormente por el sector privado y la academia. 

Este desequilibrio es clave al analizar cómo se configuran las prioridades en la agenda de regulación de la IA, en un contexto donde los foros internacionales tienden a centralizar la discusión en torno a actores con mayor poder tecnológico. Como señala el Tech Global Institute, esta exclusión es parte de un problema estructural más amplio: la gobernanza de la IA sigue orientada por los intereses de los desarrolladores, reforzando las históricas asimetrías de poder en el ámbito tecnológico. La ausencia de mecanismos que garanticen una participación equitativa de la región en la toma de decisiones perpetúa un modelo de gestión donde las prioridades del Norte Global definen el futuro de la IA para todos.

Perspectiva de derechos humanos

A pesar de la relevancia de los derechos humanos en la discusión sobre las normativas de la IA, esta perspectiva estuvo ausente como eje central en la Cumbre. Si bien la declaración final menciona la necesidad de desarrollar sistemas de Inteligencia Artificial alineados con los derechos humanos, la transparencia y la sostenibilidad ambiental, no establece medidas concretas para garantizar su cumplimiento. Esta omisión refleja una falta de voluntad política para abordar de manera efectiva las posibles violaciones de derechos derivadas del uso de la IA.

Esta falta de un enfoque explícito en derechos fundamentales contrasta con la importancia de integrar los marcos normativos internacionales y las legislaciones nacionales en los debates regulatorios, especialmente en países como Brasil y Chile, donde se discuten proyectos en la materia. La Cumbre promovió la idea de una IA de «interés público», alineada con el bienestar ciudadano, pero sin una referencia clara a los derechos como fundamento para su supervisión.

A esto se suma la falta de promoción de una visión común que al mismo tiempo sea capaz de abordar los desafíos que fueran mencionados. Así, aunque la sostenibilidad fue parte del discurso de cierre, no se discutieron medidas concretas para abordar el impacto ambiental de estas tecnologías. La creciente demanda de centros de datos y el consumo energético de los modelos de IA de última generación fueron mencionados solo de manera superficial, sin compromisos reales para mitigar sus efectos en el cambio climático. A modo de síntesis, Access Now calificó la Cumbre como “una oportunidad desaprovechada para una gobernanza de la IA centrada en los derechos humanos”.

Un diálogo con ausencias clave

La Cumbre reunió a quienes lideran y tienen mayor influencia en la discusión sobre Inteligencia Artificial. En un contexto internacional marcado por tensiones geopolíticas y económicas, el esfuerzo por alcanzar puntos en común terminó privilegiando un enfoque centrado en la aceleración de la innovación, dejando en un segundo plano debates fundamentales sobre los impactos sociales y regulatorios de esta tecnología.

Si bien la declaración final establece principios en favor de una Inteligencia Artificial Inclusiva y Sostenible para las Personas y el Planeta, persisten asimetrías de poder que afectan particularmente a América Latina. La fuerte presencia de grandes empresas tecnológicas en la conversación regulatoria, sumada a la exclusión estructural de la sociedad civil y la escasa representación del Sur Global, profundiza la concentración de poder en el desarrollo y control de estas tecnologías. A esto se suma la falta de recursos para la investigación, el desarrollo y la incidencia política en la región, lo que limita su capacidad de negociación frente a actores con mayor influencia en la gobernanza global.

Para que América Latina tenga una voz más sólida en el esquema de gestión de la IA, es necesario no solo fortalecer estándares normativos que reflejen sus intereses y diversidad cultural, sino también disputar el modelo actual de toma de decisiones, que sigue reproduciendo las desigualdades de la economía digital. Construir una agenda común regional, articulada entre gobiernos, sociedad civil y sector académico, permitiría incidir con mayor peso en estos foros y evitar que las decisiones sobre IA sigan tomándose sin representación de nuestros países. Sin una estrategia clara, América Latina corre el riesgo de ser espectadora o –peor aún– mero territorio de experimentación en un debate que definirá el nivel de su autonomía en el ecosistema tecnológico global.

Resiliencia digital para combatir la censura en Venezuela

Escribir sobre Venezuela siempre representa un reto personal. No porque falte material para explicar la deplorable situación de la libertad de expresión en el país, sino porque esa situación no ha cambiado para mejor ni un ápice, es la misma situación sólo que peor. Los cercos que el régimen impone a la libertad de expresión y asociación pasaron de ser administrativos a legislativos, con un set de nuevas leyes que no disimulan sus intenciones. Solo por nombrar algunas: la Ley de Fiscalización, Regularización, Actuación y Financiamiento de las Organizaciones no Gubernamentales y Organizaciones Sociales Sin Fines de Lucro, la Ley Simón Bolívar Contra el Bloqueo Imperialista y en Defensa de la República Bolivariana de Venezuela, la Ley contra el odio, por la convivencia pacífica y la tolerancia, y el proyecto de ley contra el fascismo, neofascismo y expresiones similares. Todo un conjunto cuya aplicación genera el riesgo no solo de minimizar sino desaparecer las voces disidentes del país, afectando comunidades, activistas y organizaciones sociales que son críticas al gobierno.

Los afectados no son únicamente los medios de comunicación, quienes han enfrentado un largo historial de sanciones administrativas, desde la reducción  del papel periódico hasta el  cierre de canales y emisoras de radios. Y hasta peor aún, varios se han visto obligados a negociar su línea editorial para no dejar a toda una industria desempleada. La intrusión va más allá. No solo se monitorean las redes sociales sino  que expresarse libremente a través de mensajería privada es cada vez más difícil.  Incluso se han aplicado sistemas para delatar, con app incluida, dejando claro que por más medidas de seguridad digital que se adopten, nada te protege de la posibilidad de que te delaten.  A su vez, las manifestaciones públicas, por más pacífica que sean, siempre representan un riesgo. Tenemos en nuestro haber varias fechas que lo confirman y lamentablemente son parte de nuestra historia. Así llegamos a este 2025 en donde como la florecita que rompe el asfalto, la libertad de expresión insiste en ser, bueno, libre. Lamentablemente, la realidad no es tan inocente como el ejemplo y el costo es grande aunque tengamos una sonrisa en la cara.

Qué sería la vida sin creatividad

En contextos hostiles y restrictivos como el venezolano, en donde los medios de comunicación han sido diezmados, las periodistas buscan crear un nombre propio en redes sociales y convertirse en sí mismas en medios de comunicación, a pesar de los riesgos que pueda representar. Una de las grandes ventajas de la democracia de la internet. En un contexto con medios de comunicación diezmados, además de una conectividad deficiente y poco confiable, las comunidades toman acción para complementar los esfuerzos por el flujo de la información. Así surge la infociudadanía: personas de la comunidad que se encargan por motus propio de la difusión de información que sea de relevancia para sus comunidades. Suelen hacerlo en grupos (medios comunitarios) o a título personal, dando espacio al periodismo hiperlocal y de servicio, además de ser una forma de evadir la censura y la intrusión. La solidaridad como valor es indispensable para que las comunidades puedan seguir adelante.

Por otro lado, hay que tener presente que Venezuela tiene un problema de infraestructura grave y que es una situación de potencial caos: el sistema eléctrico nacional no da abasto para satisfacer la demanda del país. Además, la penetración de internet depende de la expansión de empresas privadas (con precios en ocasiones prohibitivos) porque la institución nacional CANTV ha ido desmejorando sus servicios de forma dramática, incluyendo la pérdida de líneas telefónicas de hogar, servicios de telefonía celular y por supuesto, conectividad a internet.

¿Cómo hacer para que la gente se informe sin radio, sin televisión, sin internet? Una posible respuesta es: la creatividad, sencilla y artesanal pero que sirva para mantener a la gente informada. Por ejemplo, es así como el uso de carteleras y similares estrategias sirven para difundir información, una técnica utilizada hasta por instituciones públicas en las que se tramitan diligencias oficiales como solicitar la cédula. Si bien estas prácticas no te ahorran el viaje hasta la oficina del trámite, por lo menos es información oficial.  

Las periodistas que siguen en su trabajo lo hacen con el riesgo inminente de caer en el radar del régimen lo que puede derivar en una detención arbitraria. De hecho, varios periodistas figuran actualmente en la lista de presos políticos del país por el solo hecho de ejercer su profesión. Como una forma de evadir la persecución, varios medios digitales se aliaron para crear dos avatares con inteligencia artificial que dieran las noticias, demostrando que también se puede hacer mucho más que sólo catfish con esta tecnología. Por otro lado, medios de noticias locales han creado canales en servicios de mensajería directa (WhatsApp y Telegram) para difundir información aprovechando la penetración que tienen estas aplicaciones en el país.

Cómo se ve el futuro

El trabajo en las comunidades y la acción directa en lo local han demostrado ofrecer una alternativa viable y que sí responde a las necesidades de la gente. Si bien no son soluciones perfectas y con alcance limitado, representan ejemplos valiosos de cómo el fortalecimiento de la democracia desde sus bases, con los recursos disponibles, puede generar cambios positivos.

En Venezuela, como en toda la región, necesitamos un entorno digital en sintonía con una democracia participativa e inclusiva que se desarrolle en beneficio de la ciudadanía y respete las diferencias. Desde Derechos Digitales seguiremos monitoreando el estado de situación de los derechos humanos en entornos digitales y las vulneraciones al derecho a la comunicación en Venezuela y en el resto de América Latina con iniciativas como el reporte En la Mira del Observatorio Latinoamericano de Amenazas Digitales (OLAD) y el trabajo continuo con aliadas en la región.

Giro en la regulación de la IA

Una vez en la Casa Blanca, Donald Trump no esperó a barrer cientos de políticas del gobierno anterior, incluidas las decisiones que buscaban regular a la inteligencia artificial (IA) en ese país. En especial, fue revocada la Orden Ejecutiva N°14110 del 30 de octubre de 2023 sobre el “desarrollo y uso seguro, protegido y confiable de la inteligencia artificial” por, supuestamente, asfixiar a la innovación, imponer barreras innecesarias a la industria tecnológica y amenazar el liderazgo norteamericano en la materia. Así también, fueron eliminadas a través de una nueva Orden Ejecutiva todas las demás políticas, órdenes y directivas existentes en esa materia.

Breve contexto de la vieja Orden Ejecutiva de la IA

Hasta la emisión de esa Orden Ejecutiva, en Estados Unidos no existían a nivel nacional –aunque sí en los distintos estados del país– previsiones regulatorias sobre cómo debían responder las autoridades al despliegue de la IA, y qué aspectos deberían ser evaluados por éstas en la adopción de esta tecnología. Y esto es relevante porque se trata del país sede de las Big Tech, lo que da un peso, si se quiere mayor, a este tipo de iniciativas.

La Orden, que es muy extensa, le metía el diente a ciertos aspectos cruciales en las discusiones regulatorias sobre la IA, como el abordaje sobre el eventual uso dual de los sistemas de IA para aplicaciones civiles y militares, previsiones de transparencia que atravesaran su ciclo de vida, y la creación e implementación de protocolos de testeo rigurosos de los sistemas de IA adoptados por el Estado, entre otros.

Desde luego, la Orden tenía limitaciones serias. Se apoyaba en buena medida en los compromisos voluntarios de las empresas desarrolladoras de IA; y podía ser eliminada o modificada en cualquier momento por otro gobierno que expidiese otra Orden Ejecutiva que afectara su vigencia o alcance. No era perfecta, pero era una respuesta del Poder Ejecutivo de ese país ante la inacción del Congreso frente a una tecnología de alto impacto social que representa riesgos serios, actuales y presentes.

De hecho, en un año de vigencia, la emisión de esa Orden se tradujo en la práctica en:

  • La creación del Instituto de Seguridad de la IA (AISI, por sus siglas en inglés) que, por ejemplo, ha articulado, con colaboración de las empresas tecnológicas, pruebas de “red team” -o simulaciones de ataques de seguridad- para identificar y mitigar riesgos de los modelos de IA.
  • La creación, por el Departamento de Justicia, de una línea de ayuda 24/7 para prestar asistencia especializada a víctimas de la distribución no consentida de imágenes con contenido sexual que hubiese sido generada por sistemas de IA generativa–como los deepfakes-.
  • La creación, por el Departamento de Educación, de lineamientos para la introducción transparente y responsable de sistemas de IA en las escuelas y su uso por docentes.
  • La creación del deber de reporte a cargo de los desarrolladores de IA que ofrezcan sus tecnologías al sector defensa para que informen sobre la seguridad de sus modelos.

Desde luego, la Orden Ejecutiva hacía muy poco para abordar retos incluso más complejos como la creciente monopolización del desarrollo de esta tecnología por muy pocas empresas poderosas -dependientes de las subvenciones estatales-, que solo hasta hace unos días dominaban el panorama de la IA de manera exclusiva, hasta la llegada de la competidora china DeepSeek. O a su vez retos más allá de las fronteras internas, como su rendición de cuentas frente a los reguladores de otros países en donde estas empresas operan, pero no se domicilian. Y claro, se quedaba aún más corta en abordar la pregunta sobre las vías o mecanismos para la judicialización y reparación de derechos de las personas afectadas por la IA en ese país.

La nueva Orden Ejecutiva: avanzar a una IA sin “sesgos ideológicos”

Ahora bien, ¿por qué una regulación, condicionada en buena medida a la voluntad de los sujetos regulados, suponía en efecto una amenaza para el liderazgo de ese país en la carrera de la IA? El gobierno actual no justifica su decisión en evidencias de ningún tipo que permitan entender qué aspectos obstaculizaban la innovación.

Con todo y esto, Trump firmó una nueva Orden Ejecutiva que enfatiza en la necesidad de avanzar en el desarrollo de sistemas de IA sin “sesgo ideológico” o “agendas sociales manipuladas”, sin mayor contenido que declaraciones aspiracionales y vagas dirigidas a hacer de EE.UU. una potencia de la IA, sin ahondar en el cómo o a través de qué estrategias, más allá de la derogación de esta reglamentación del Poder Ejecutivo.

Como sea, lo que sí es claro es que en esa carrera donde Silicon Valley ya no compite sola, la guerra oficial y paralela contra las políticas de Diversidad, Equidad e Inclusión (DEI, en inglés), van a significar, en el marco del fraseo de esa nueva Orden Ejecutiva, la búsqueda por posicionar una tecnología que, pese a su alto impacto social, estará abiertamente desconectada de problemas estructurales como el racismo, la pobreza, la discriminación, la inequidad y un extenso listado de problemas fruto de la desigualdad social. Un problema que, de hecho, ya existía, pero que ahora se verá agravado.

¿Qué podemos esperar de los esfuerzos regulatorios de este nuevo gobierno? Parece, por declaraciones del nuevo Zar de las Criptomonedas y la IA, que la regulación de la IA girará en torno a dos premisas.

La primera, en la expedición de regulaciones minimalistas en el contenido de las obligaciones exigibles en materia de seguridad, transparencia o responsabilidad en el desarrollo de sistemas de IA; y maximalistas, que traigan grandes beneficios comerciales en materia internacional y subvenciones estatales para estas grandes empresas tecnológicas. que

Y la segunda, que cualquiera que sea el enfoque regulatorio del Poder Ejecutivo, es previsible un enfoque aislacionista diseñado para eliminar a posibles competidores y sancionar a sus aliados, una estrategia que sin duda ahonda la concentración del poder dominante de las empresas tecnológicas locales.

De hecho, ya hay voces del Congreso de ese país que piden avanzar en restricciones en la venta de Chips de IA, de manufactura local, a países como China, especialmente ahora que el lanzamiento reciente de DeepSeek probó que para competirle a ChatGPT no hace falta quemar miles de millones de dólares en el proceso.

¿Y qué pasará con América Latina frente a este panorama?

Ahora, la pregunta crítica para quienes vemos este panorama desde América Latina es ¿cómo va a impactar todo este contexto en los procesos regulatorios de la IA que avanzan en algunos países de la región? Al respecto, y con la precaución que exige toda futurología, surgen dos impresiones.

La primera impresión es que las empresas de Silicon Valley van a oponerse abiertamente a los esfuerzos de regulación por parte de nuestros países, amparados por el gobierno de su país que, además, graduó a los CEO de las Big Tech de asesores no oficiales durante su investidura. No hace falta ir muy lejos para ver cómo lucirá esto en la práctica. Recordemos el anuncio reciente de Meta sobre los cambio de sus políticas de verificación de noticias y moderación de contenidos, en donde el CEO de la compañía acusó a Europa de asfixiar la innovación a través de la regulación, y de ver en las supuestas “cortes secretas” de América Latina una amenaza. Todo un discurso coronado por el pedido a su gobierno de acentuar la defensa y protección de la industria tecnológica local.

Además, esta última premisa se encuentra apoyada en el discurso oficialista -enmarcado en un discurso ideológico de extrema derecha- inclinado a la protección y defensa de la innovación norteamericana como vehículo para el regreso a una época dorada, donde los “Estados Unidos está primero”; sino también en la más clara narrativa según la cual América Latina necesita a Estados Unidos, y no al contrario. Desde esta perspectiva, cualquier intento regulatorio de otros países puede que sea visto automáticamente como una amenaza.

La segunda, que persiste el reto de avanzar en la aplicación rigurosa de la ley sin que las autoridades sean “dejadas en visto” por esas empresas extranjeras, tal y como le pasó hace poco a las de Brasil, en el marco de una audiencia a la que fue invitada Meta para explicar los cambios recientes de sus políticas, pero no asistió. O como ha sucedido en otros casos, donde las empresas tecnológicas deciden amenazar abiertamente con el apagón de sus servicios en caso de que las autoridades apliquen la ley local.

Ahora, ¿es posible que nuestros países puedan posicionarse más allá de los dos extremos geopolíticos en la carrera por la IA? Más aún, ¿hay esperanza de que nuestros países puedan desarrollar soluciones basadas en IA que respondan a nuestros contextos sociopolíticos y sociotécnicos?

Una investigación reciente publicada por Derechos Digitales muestra cómo no solo es posible y viable, sino necesario especialmente ahora. De la mano de grupos sociales, y con enfoques que se interesan en el bienestar social, no solo es posible desmarcarse de las narrativas corporativistas de la innovación, sino del valor inestimable de la tecnología cuando mantiene a las personas en el centro.

En su desarrollo y promoción, desde luego, urge el apoyo de los Estados, aun cuando es cierto que enfrentamos tiempos difíciles en la relación que vincula a grupos sociales y las autoridades que las estigmatizan. Pero cualquiera que sea el rumbo de la región en la carrera regulatoria, conviene afirmar el valor del ejercicio de la soberanía tecnológica -como jurisdiccional-, y pensar y desarrollar la IA por y para la región.

El rol de las Big Tech en el auge del autoritarismo

La alineación de las Big Tech con tendencias autoritarias no es un fenómeno nuevo, pero los últimos acontecimientos indican una peligrosa aceleración del uso de herramientas tecnológicas para satisfacer una agenda política con tintes fascistas. Como ninguna decisión puede ser analizada aislada de su contexto, tanto el anuncio de cambios en la moderación de contenidos de Meta, como el ascenso de Elon Musk a la Casa Blanca reflejan la consolidación de una alianza público-privada que encuentra su punto común en la misoginia, el racismo y el nacionalismo; y que instrumentaliza a la desinformación tanto como estrategia de control político como base de modelos de negocios.

El cambio de administración en los EE. UU. se produce en un contexto global de retrocesos significativos en Derechos Humanos. Un reciente informe de Human Rights Watch –que analiza las prácticas de DD.HH. en 100 países– señala que en las 70 elecciones nacionales que tuvieron lugar el año pasado “los líderes autoritarios ganaron terreno empleando su retórica y políticas discriminatorias”. Esto lo podemos ver muy claramente tanto en la campaña- y en las posteriores acciones gubernamentales- estadounidense de 2024 como en la argentina de 2023:  obsesionados con impulsar el concepto de que los derechos son consecuencia de una “ideología de género”, a través de afirmaciones falsas que van desde acusaciones violentas de “trastornos mentales” de la comunidad LGBTQIA+, hasta datos incorrectos sobre femicidios. La comunidad migrante también ha sido blanco de ataques, fundamentados en estadísticas falsas sobre comisión de delitos.

Este escenario se complejiza con el rol de las Big Tech, quienes –producto de la concentración de producción de tecnología y manejo de información en espacios digitales- se han vuelto más poderosas que muchos Estados, incluso valiendo más que el PIB de muchos países.  Investigaciones realizadas por la sociedad civil denotan que las empresas priorizan sistemáticamente el beneficio económico sobre las personas, vulnerando su privacidad para obtener beneficios comerciales sin su conocimiento y consentimiento, y permitiendo  la amplificación de discursos nocivos (incluido y no limitado a violencia basada en género) por réditos económicos,  además de censurar contenido político contrario a intereses dominantes, como el genocidio en Gaza.

Con la llamada a “la recuperación de la energía masculina” de Zuckerberg, que coincide con posturas abiertamente machistas, racistas y transfóbicas de Elon Musk, los magnates de la tecnología se alinean con los líderes autoritarios no solo en pensamiento, sino en acciones. La diferencia es que ahora ya no tienen que ocultarlo. Desde cambios en moderación de contenidos en sus plataformas, hasta donaciones millonarias a la campaña presidencial, las Big Tech pasaron de influenciar el ámbito político a formar parte del Estado.

El cálculo político detrás de los cambios en las políticas de contenido de Meta: la relación directa con medidas gubernamentales

Como hemos señalado en una publicación anterior, Meta ha anunciado una serie de cambios en sus políticas -ya problemáticas- de moderación de contenido en EE.UU., incluyendo el fin del programa de verificación externa y su reemplazo por un sistema de Notas Comunitarias similar al de X. Es importante resaltar que este sistema es criticado no solo por su ineficacia para frenar la desinformación masiva, sino también por ser susceptible de ser manipulada por los usuarios que participan en ese proceso. A esto, se le suma el cese de los esfuerzos oficiales para frenar la desinformación.

Por otra parte, avanza la reducción de restricciones en temas sensibles relacionados con género y migración, que probablemente provocará un mayor daño a las comunidades en riesgo no sólo en Estados Unidos, sino en todo el mundo. Aunque estos cambios se presentan como una apuesta por la libertad de expresión, su impacto real podría traducirse en un aumento de desinformación, discursos dañinos y manipulación informativa, a la vez que amenaza paradójicamente la libertad de expresión. El debilitamiento de estas regulaciones facilita la expansión de discursos de odio y narrativas discriminatorias, los cuales han sido históricamente utilizados para excluir y silenciar a determinados grupos. Aunque no siempre constituyen conductas ilegales, su impacto puede ser profundamente perjudicial. Esto podría traducirse en un aumento de ataques digitales dirigidos a comunidades como mujeres, personas migrantes y minorías, contribuyendo a la normalización de la violencia y la perpetuación de la discriminación.

Como hemos señalado en una publicación anterior, las prácticas de violencia digital tienen repercusiones que van más allá del entorno en línea, generando serias amenazas a la seguridad y la integridad física de mujeres y personas LGBTQIA+. La violencia digital provoca daños psicológicos, afecta las relaciones sociales, fomenta la violencia sexual y física, y en casos extremos puede derivar en feminicidios. Además, actúa como una forma de censura al producir un efecto paralizante (chilling effect), que impacta tanto a nivel individual como colectivo, con consecuencias negativas para el debate público, un pilar fundamental en las sociedades democráticas.

Estos cambios, también coinciden con los temas principales de las medidas gubernamentales de Trump que atentan contra los derechos sexuales y reproductivos, los derechos de las personas trans y personas migrantes, los cuales tendrán un impacto en la manera en que Meta hace eco a ese discurso social. Es tal el compromiso del Presidente estadounidense con la agenda anti derechos, que no solo suspendió los programas de diversidad, igualdad e inclusión del gobierno federal, sino que empleados federales de distintas agencias gubernamentales recibieron correos instándolos a denunciar ante la OPM a colegas que creían que estaban trabajando en iniciativas de diversidad, equidad, inclusión y acceso (DEI).

Las puertas giratorias de Sillicon Valley al Estado

Elon Musk se ha convertido en un aliado clave de Trump. Desde haber aportado sumas millonarias que ascienden a 250 millones de dólares en los últimos meses del ciclo electoral a la campaña, hasta asumir un cargo público dentro del Estado al frente del publicitado nuevo Departamento de Eficiencia Gubernamental, su influencia ha ido incrementando a pasos agigantados.

Conforme reportan medios de comunicación, los rangos más altos de la oficina de Administración de Personal estarían siendo ocupados por personas pertenecientes a su círculo de confianza dentro de la industria tecnológica. Por ejemplo, la recientemente nombrada como jefa de personas de dicha dependencia, Amanda Scales, anteriormente trabajó en xAI, la empresa de inteligencia artificial de Musk. Otros posibles nombramientos incluyen a personas vinculadas a Tesla, Boring Company y Neuralink, todas empresas pertenecientes a Musk.

La chance de influenciar la regulación de la implementación de tecnologías, salta como un interés evidente de los señores tech, considerando que parte del éxito de sus compañías recae en la explotación sistemática de lagunas regulatorias. No obstante, expertos advierten que los mayores beneficiarios de esta fusión serían las agencias de inteligencia gubernamental al poder ampliar sus capacidades de vigilancia no solo mediante nuevas y avanzadas tecnologías, sino también a través del intercambio de información y experticia. De hecho, la directiva 406 aprobada el 16 de enero del presente por el entonces Director de Inteligencia anima a que las agencias amplíen sus asociaciones con entes no gubernamentales.

El salto de ex representantes estatales al sector tech tampoco se hizo esperar. Zuckerberg designó a grandes personalidades republicanas al interior de Meta. Algunos ejemplos incluyen a Joel Kaplan y Kevin Martin -ambos ex funcionarios de Bush- como nuevo jefe de Asuntos Globales de la empresa y vicepresidente de Política Global respectivamente. Así como también las incorporaciones de Jennifer Newstand, quien fuera funcionaria del Departamento de Estado durante el primer mandato de Trump, como asesora general de la empresa, y Dana White, parte del círculo de confianza de Trump, como integrante de la Junta de Meta.

Impactos en América Latina

Inevitablemente el panorama descripto impacta en América Latina de diversas maneras. Tomando en cuenta la predominancia de estas empresas en la región, surgen preocupaciones legítimas acerca de los derechos fundamentales en espacios digitales con potenciales afectaciones a la integridad de la información y a la protección del ejercicio de derechos de comunidades en situación de vulnerabilidad.

De hecho, Brasil -quien ha liderado esfuerzos por impulsar el cumplimiento de las Big Tech de las legislaciones locales- ha solicitado explicaciones a Meta sobre el impacto de los cambios de las políticas. Seguidamente, convocó a una audiencia pública sobre desinformación y moderación de contenido, donde las Big Tech brillaron por su ausencia. Si bien Meta había señalado que por el momento se aplicarían solo a Estados Unidos, la agencia estatal para la defensa jurídica del Estado (AGU), advirtió que los cambios “no se adecúan a la legislación brasileña” y expresó preocupación por la posibilidad de que la plataforma pueda ser “terreno fértil para la violación de (…) derechos fundamentales”.

Por otra parte, las decisiones de Trump referentes al ámbito internacional también traerán consigo repercusiones significativas, por ejemplo a partir del retiro de la Organización Mundial de la Salud y del acuerdo climático de París. Las agencias de la ONU han advertido sobre el impacto negativo de estas medidas, señalando que podrían debilitar los esfuerzos globales para combatir el cambio climático y afectar gravemente la salud pública a nivel mundial.

A su vez, al ser Estados Unidos el mayor donante individual de ayuda a nivel mundial, la suspensión de ayuda extranjera para evaluar que las iniciativas se alineen con las políticas de gobierno, afecta a comunidades enteras y a organizaciones de la sociedad civil que han trabajado sostenidamente en la defensa de los derechos humanos; además de debilitar esfuerzos para hacer frente a giros cada vez más acelerados del autoritarismo.

Desde Derechos Digitales seguiremos trabajando en exigir la responsabilidad a las plataformas y mantener una vigilancia activa sobre los impactos reales de estas decisiones en la vida de las personas.

2024: el año en que la protección de datos nos recordó su lado político

El 2024 fue un año de progresos esperados en materia de protección de datos para nuestra región. Se aprobó en Chile, luego de seis años de debate regulatorio, la ley de protección de datos; El Salvador también aprobó su ley, y Perú reformó la suya para adaptarla al estándar europeo, un referente que muchos países de América Latina intentan adoptar. Por su parte, Paraguay avanzó en la discusión del proyecto de ley, y se espera que este año suceda su aprobación.

El año pasado también observamos retrocesos significativos, como la eliminación del INAI, autoridad garante del derecho a la protección de datos y el acceso a la información pública en México. Esto ocurrió en el marco de una reforma constitucional que, bajo el argumento de reducir costos operativos, eliminó a distintos entes autónomos. Una supresión que se produce en tiempos en que las Big Tech acrecientan su poder para amasar y explotar nuestros datos bajo condiciones cada vez más asimétricas.

Frente a esos avances y retrocesos regulatorios, en nuestro trabajo en Derechos Digitales hemos observado algunas tendencias regionales preocupantes. Algunas de ellas son nuevas, mientras que otras representan la continuidad de prácticas de explotación de nuestros datos que se expanden y masifican de cara a nuevas y emergentes tecnologías, las cuales amplían el alcance a las tareas de recolección y procesamiento de nuestros datos y con ello, intensifican su impacto en la protección de los mismos. Veamos una por una.

La protección de datos y las tareas estatales de seguridad: una desconexión peligrosa

La primera tendencia tiene que ver con la creciente adopción de prácticas y tecnologías para la extracción de datos por parte de los Estados para fines que, en particular, se enfocan en la seguridad ciudadana y nacional.Se trata de finalidades que las regulaciones de protección de datos han excluido tradicionalmente de su aplicación, bajo una visión arcaica que sugiere que el resguardo de la ciudadanía no es algo que deba consentir esta última.

Enmarcado en esta tendencia vimos con preocupación la expedición de la resolución que en Argentina habilita al ciberpatrullaje, una tarea de seguridad emprendida por el Estado para patrullar (o vigilar) internet “de la manera en que se patrullan las calles” para, en teoría, facilitar la identificación y prevención de los delitos en línea.

Se trata de una resolución que no fija límites claros, respetuosos y garantes de la privacidad y la libertad de expresión en línea. De manera similar, el ciberpatrullaje se despliega también en Colombia, Bolivia, México, Brasil y Uruguay. En cada caso, al parecer, las autoridades se dedican a explorar y observar de cerca lo que publicamos y con quién interactuamos en línea -en ocasiones, con ayuda de algoritmos para automatizar dicha tarea-, para determinar si lo que decimos o con quién conectamos amerita ser perseguido por la vía penal.

Lo cierto es que, pese a la desconexión que persiste entre la regulación de la protección de datos y las tareas de seguridad, y a que sea cierto que el consentimiento no sea propiamente la base jurídica que da pie al tratamiento de los datos en estos casos, los Estados sí deberían observar los principios y obligaciones que garantizan que la recolección de los datos de la ciudadanía sucede de manera responsable, lícita, leal, transparente, segura y, sobre todo, de manera compatible con los derechos humanos.

Pero además, bajo ciertas condiciones, los titulares de los datos deberían conservan el ejercicio de los derechos de actualización, rectificación, y cancelación de su información inclusive en esas tareas. Esto último, de hecho, lo reiteró por su cuenta el fallo Cajar vs. Colombia emitido en 2024 por la Corte Interamericana de Derechos Humanos respecto a las tareas de inteligencia estatal, y cuyas repercusiones en la regulación de la protección de datos frente a las tareas de seguridad aún están por verse.

Biometría ¿para qué?: el valor vs. el precio de los datos

La segunda tendencia que observamos, tiene que ver con la recolección transaccional de datos sensibles para la realización de modelos de negocio muy poco claros o transparentes. Por ejemplo, identificamos la masificación de los servicios de empresas como Tools for Humanity (TfH) desarrolladora de World –antes Worldcoin– que prometen entregar a las personas criptomonedas a cambio del escaneo de su iris, un dato biométrico que será usado para ayudar a resolver los problemas asociados a la identidad en línea.

La empresa TfH desplegó operaciones en Argentina, Brasil, Chile, Colombia, Ecuador, Guatemala, México, Perú y República Dominicana. Solo las autoridades de protección de datos de Argentina, Colombia, Brasil y Perú abrieron investigaciones a World, entre otras cosas por las condiciones de recolección del consentimiento de las personas, que no parece estar precedido de información clara y transparente sobre las condiciones del tratamiento de los datos biométricos capturados, así como las condiciones del ejercicio de los derechos de acceso, rectificación, cancelación u oposición. Sobre el desarrollo de esas investigaciones sabemos poco al día de hoy.

Ahora bien, el contenido transaccional de este tipo de prácticas resulta problemático por dos motivos. En primer lugar, porque asignan un valor económico a la entrega de un dato cuyo valor identificatorio es inestimable por su naturaleza inmodificable, así como profundamente personal, y que por los riesgos de ser instrumentalizado en contra de su titular ha merecido un estatus de protección especial en la mayoría de legislaciones que regulan esta materia. En segundo lugar, porque además de explotar la vulnerabilidad económica de ciertos sectores de la población, se trata de empresas que operan de manera poco transparente frente a los reguladores y los titulares de los datos.

Todo esto para aceitar el modelo de negocio de la identidad digital del que todavía no sabemos mucho, pero frente al cual otras autoridades de protección de datos en el mundo han actuado de manera mucho más contundente y preventiva prohibiendo las operaciones de World, tal y como sucedió en España, Francia, India, Corea del Sur, Hong Kong e incluso Kenia.

Las Big Techs y la IA: nuestros datos a merced de políticas injustas

Y la tercera tendencia, tiene que ver con los cambios poco claros y transparentes de las políticas de privacidad impuestas de manera abusiva en América Latina por distintas plataformas que transitaron a la adopción de sistemas de IA con diversos propósitos, y que asumen, al contrario de lo indicado por los principios de finalidad, transparencia o lealtad en el tratamiento de los datos, que los titulares aceptan por defecto los nuevos términos y condiciones impuestos.

El caso de Meta es quizá uno de los más representativos, pues desplegó un cambio global de su política de privacidad que autoriza de manera retroactiva al uso de los datos de los usuarios de Facebook e Instagram para entrenar a su IA. Un cambio que dejó a sus usuarios en América Latina sin ninguna opción válida para negarse u oponerse.

Solo la autoridad de protección de datos de Brasil (ANPD) reaccionó al emitir una medida cautelar que prohibía desplegar dicho cambio en tanto que dejaba a los titulares de los datos de ese país sin opciones para rechazar la nueva política en cuestión. Con posterioridad, Meta desplegó en ese país su política de manera mucho más clara con autorización de la autoridad, y habilitó -a diferencia del resto de países de la región- canales para el ejercicio del derecho a rechazar los cambios propuestos.

Cambios similares sucedieron en las políticas de otras plataformas como X, Linkedin, Adobe y Google, entre otras, que además habilitan a que terceros puedan usar los datos de sus usuarios para entrenar a sus sistemas de IA. Se trata de cambios que, en la mayoría de los casos, se han introducido de manera subrepticia y silenciosa, algo que la Comisión Federal de Comercio en Estados Unidos (FTC por sus siglas en inglés) ha calificado como una práctica injusta y engañosa.

Frente a este panorama ¿hay motivos para la esperanza?

Estas tendencias están acompañadas de un panorama regulatorio que, en gran medida, todavía limita a las pocas autoridades activas de la región a desempeñar roles de simple monitoreo preventivo y vigilancia pasiva. Aún queda pendiente avanzar hacia un rol sancionador más robusto donde, por ejemplo, las multas ejemplarizantes puedan ayudar a generar nuevas pautas de conducta para actores del sector privado y público; o donde las autoridades asuman un rol activo y oficioso, en el cual la imposición a iniciativa propia de medidas cautelares pueda ayudar a prevenir la afectación de los derechos de las personas.

Hay motivos para la esperanza, pero debemos moderar nuestras expectativas. Es cierto que, cada vez más, el listado de países sin regulación de protección de datos se reduce. Y aunque esto es importante, no es motivo para cantar victoria, pues hace falta todavía cambiar visiones arcaicas como aquellas que sugieren que los Estados, cuando realizan cierto tipo de tareas -como las de seguridad- tienen un cheque en blanco que les habilita a dar tratamiento a los datos personales de la ciudadanía de cualquier manera.

También es cierto que las regulaciones vigentes en protección de datos precisan de un balance necesario cuando su ejercicio se enfrenta a otros derechos, como el de libertad de expresión o acceso a la información. Y que persisten otros retos igualmente urgentes para que las regulaciones aprobadas y vigentes cobren vida y sirvan como verdaderas herramientas de protección a las personas.

Por ejemplo, urge el robustecimiento de las capacidades humanas y técnicas de las autoridades de protección de datos, así como establecerlas en países donde aún no existen. Además, es fundamental garantizar los recursos necesarios para su funcionamiento, y dotarlas de la independencia y autonomía que las habiliten para actuar frente a otras dependencias estatales así como frente a las Big Tech que, cada vez más, buscan eludir o intimidar a las normativas y autoridades que ejercen su poder regulatorio.

Desde luego, el trabajo de organizaciones como Derechos Digitales será aportar a esto último, y vigilar para que las promesas de regulación no se queden en el papel, sino que se traduzcan en verdaderas garantías para los derechos humanos en el entorno digital. El 2024 nos recordó que la protección de los datos personales no es solo una cuestión técnica o legal, sino una lucha política que enfrenta intereses poderosos, ya sean estatales o corporativos.

Nos encontramos frente a un panorama complejo, pero también un momento clave para definir el futuro del derecho a la protección de datos en nuestra región. Las decisiones que tomemos hoy serán cruciales para establecer un equilibrio entre el avance tecnológico y la protección de los derechos fundamentales. Solo si mantenemos la vigilancia activa, exigimos mayor transparencia y contribuimos a fortalecer las capacidades regulatorias de las autoridades, podremos garantizar que los datos personales de millones de personas no se conviertan en una mercancía desprotegida, sino en una herramienta que potencie su dignidad y autonomía. El desafío es enorme, pero no podemos darnos el lujo de detenernos ahora.

Vigilancia Estatal: Los riesgos de los IMSI Catchers

Hace pocas semanas se aprobó en Chile el proyecto de Ley Antiterrorista que actualiza la ley vigente para facilitar nuevos mecanismos de investigación y persecución. La discusión tuvo varios puntos álgidos, como por ejemplo, la ampliación del concepto de delito terrorista incluyendo a individuos sin necesidad de asociación con actividades terroristas. Pero sin duda el apartado que generó mayor debate fue la inclusión del uso de “IMSI Catchers” o “antenas falsas” para el espionaje en el contexto de las investigaciones.

En el marco del espionaje estatal, un IMSI Catcher, Stingray o simplemente una “antena falsa” es un dispositivo electrónico, compuesto por hardware y software, que simula ser una antena de telefonía legítima, pero en verdad no lo es, ya que su objetivo es capturar datos de los dispositivos que estén a su alcance, mediante un ataque de intermediario o MITM (man-in-the-middle), esto es, la instalación de un dispositivo “en el medio” de una comunicación entre personas.

Esto es facilitado por la forma en que funciona la telefonía móvil. El diseño arquitectónico de las redes móviles se basa en la división geográfica en pequeñas áreas o células, cada una cubierta por una o más antenas que reciben y redistribuyen señales. Estas antenas tienen áreas de cobertura que se sobreponen, garantizando así que no haya sectores sin señal. Dado que un dispositivo móvil puede detectar múltiples antenas simultáneamente, utiliza un protocolo para seleccionar aquella con la señal más potente.

En términos generales, las antenas actúan como intermediarios entre los dispositivos móviles y la estación telefónica, donde se generan los enrutamientos de las comunicaciones. Por otro lado, las “antenas falsas” operan de manera similar a las antenas reales, pero se diferencian en quién controla su operación y en el hecho de que pueden ser móviles, no requiriendo una instalación fija. Estas antenas falsas replican los parámetros de identificación de una antena legítima, engañando así a los dispositivos. Uno de los principales mecanismos para captar la señal de los dispositivos es por medio del uso de una potencia de señal mayor a la que presentan las antenas legítimas del sector.

Una vez conectados a una antena falsa, los dispositivos tienen dos posibles cursos de acción, según el propósito de la falsa antena. El primero es la denegación del servicio, y el segundo, actuar como intermediario entre el dispositivo y la red legítima. Esta última opción es más habitual, ya que a la vez que no interrumpe la comunicación, permite la recolección de datos de identificación del dispositivo, como el IMSI (International Mobile Subscriber Identity o Identidad Internacional de Suscriptor Móvil), un número único asignado a cada dispositivo móvil. Poseer el IMSI de un dispositivo facilita su rastreo a través de redes telefónicas legítimas, generalmente mediante una orden judicial conforme a las regulaciones locales. Además, existen varios tipos de comunicaciones que pueden ser captadas o intervenidas como los mensajes de texto pues carecen de cifrado.

A su vez, se ha demostrado que las llamadas realizadas mediante protocolos de la generación 2G pueden ser interceptadas debido a su cifrado débil, como demostró Chris Paget en DEF CON 18. Aunque los protocolos de redes 3G, 4G y 5G utilizan esquemas de cifrado más robustos, una antena falsa aún puede forzar un ataque de degradación de servicio, limitando los dispositivos a conectarse solo a redes 2G. Es decir, forzando a los dispositivos a utilizar protocolos menos eficientes, menos avanzados y menos seguros. Este fenómeno no es inusual dado que algunas redes de telefonía todavía operan bajo este protocolo. Otra vulnerabilidad es la extracción de metadatos: incluso si un dispositivo se comunica a través de protocolos que permiten que la información en tránsito esté cifrada, la antena falsa puede registrar cuando se conecta a un sitio específico, cuando utiliza aplicaciones de mensajería o cuando realiza llamadas.

Problemas plausibles

El uso de tecnologías de “antenas falsas” trae consigo una serie de riesgos asociados. En primer lugar, quien tenga acceso al manejo del dispositivo de interceptación puede utilizarlo sin que exista una contraparte que pueda tener control sobre su uso. En una columna pasada, explicamos el funcionamiento de las interceptaciones telefónicas a través de la infraestructura del proveedor, que por requerimientos legales actúa en la práctica como un agente de registro y control de las interceptaciones solicitadas por los cuerpos investigativos. El control sobre el uso de “antenas falsas” es algo que está muy lejos de quedar bien definido en la nueva ley, tal como expresamos también en conversación con la Radio y Diario Universidad de Chile.

En segundo lugar, debemos enfatizar que se trata de un mecanismo de vigilancia no solo altamente intrusivo, sino también indiscriminado respecto de quienes están cerca del dispositivo. Dentro de la operación de una “antena falsa” es posible captar a todos los dispositivos que estén dentro de su radio de acción y no solamente un dispositivo de interés, afectando la privacidad de personas que no son el objetivo de una investigación. En términos metafóricos esto ha sido ejemplificado como “pesca de arrastre” o “pescar con dinamita” debido a su grosera falta de proporcionalidad.

El tercer gran problema en la disponibilidad de este tipo de tecnologías es la posibilidad de uso dirigido a lugares o grupos con fines de persecución de actividades lícitas, bajo la excusa de aplicabilidad de la ley. Por ejemplo, serviría para poder identificar los dispositivos de personas que participan de una movilización social. Dado que operan dentro de un radio específico, pueden captar todos los dispositivos en un área específica, para eventualmente identificar participantes. Esta factibilidad técnica es preocupante, especialmente considerando precedentes donde se ha solicitado a los proveedores de servicio que entreguen información de los dispositivos conectados en ciertas áreas durante manifestaciones, como ocurrió durante el estallido social en Chile. Asimismo, es concebible su implementación en zonas ya estigmatizadas, como poblaciones en sectores socioeconómicos bajos, así como en regiones donde existen procesos activos de reivindicación territorial por parte de grupos indígenas.

Atrapando al catcher

Sin embargo, no se trata de una tecnología infalible o inevitable. El riesgo de ser interceptado por IMSI catchers puede minimizarse significativamente si se toman ciertas precauciones. Entre las medidas efectivas se incluyen configurar el dispositivo para usar exclusivamente redes 4G, emplear aplicaciones de mensajería y llamadas con cifrado robusto como Signal, y utilizar servicios de VPN o TOR, entre otras.

El uso de “antenas falsas” tiene un gran alcance y potencial en contextos de sociedades donde las personas no tienen un alto grado de preocupación por sus comunicaciones, en especial cuando los niveles de conectividad son tan altos. Me atrevería a decir que actualmente la mayoría de las personas vive de esta forma, lo cual allana aún más el camino para peligrosas prácticas de vigilancia masiva. Pero esto no debería significar una aceptación de que las comunicaciones sean seguras, ni de que el Estado esté siempre a un paso de vigilar todo lo que hacemos. Necesitamos no solamente comprender los riesgos, sino también empujar por cambios en la regulación y en la conducta de los agentes públicos.

Fuera del algoritmo: Cómo comunicar más allá de las redes sociales

Recuerdo cuando abrir una cuenta de Twitter era casi un acto revolucionario. En aquellos días, la plataforma prometía algo cercano a la igualdad: un lugar donde las ideas, más que las jerarquías, definían el alcance de tu voz. Para muchas organizaciones de la sociedad civil, Twitter, Facebook e Instagram (un poco después) fueron herramientas esenciales para denunciar injusticias, movilizar comunidades y visibilizar problemas que los medios tradicionales pasaban por alto. A lo largo de los años, lo que parecía un espacio inclusivo se fue desmoronando hasta convertirse en algo muy distinto.

Por ejemplo, desde que Elon Musk tomó las riendas de X, la antes llamada Twitter, el ambiente en la plataforma se ha vuelto insostenible. Con el discurso de odio en auge, los insultos racistas, misóginos, edadistas y homofóbicos no solo han aumentado, sino que se han normalizado. El regreso de cuentas previamente suspendidas por incitar a la violencia ha amplificado estos problemas. Lo que alguna vez fue un refugio para voces críticas ahora se siente como un espacio hostil, especialmente para quienes defienden los derechos humanos.

Meta tampoco se queda atrás. En un giro reciente, la empresa ha anunciado el fin de su programa de verificación de datos en Facebook, Instagram y Threads. La medida, presentada como un paso hacia una supuesta “libertad de expresión”, amenaza con convertir estas plataformas en un terreno aún más fértil para la desinformación. Esto ocurre justo antes del regreso de Donald Trump a la Casa Blanca, en un momento político clave que no parece una coincidencia.

Finalmente, esta medida elimina una de las pocas herramientas que intentaban, al menos en teoría, mitigar los daños del contenido falso o malintencionado. Esto no es solo preocupante, es alarmante: en una época en la que las sociedades enfrentan desafíos como la polarización y la crisis de confianza en la información, la decisión de Meta puede tener consecuencias devastadoras. Si bien un sistema de notas comunitarias podría aumentar la confianza en la verificación de hechos, también existe un riesgo de manipulación de esos sistemas.

El dilema de abandonar las redes

En este panorama, las organizaciones de la sociedad civil enfrentan un dilema. Las redes sociales, a pesar de todos sus problemas, siguen siendo el lugar donde ocurre la conversación pública, donde figuras públicas como presidentes, congresistas y periodistas intercambian información e ideas, y donde todavía se discuten noticias a medida que ocurren. Dejar de usarlas podría significar perder el alcance y la relevancia necesarios para incidir en los debates globales. Sin embargo, quedarse muchas veces implica navegar en un espacio cada vez más tóxico, donde el riesgo de ser acosado, doxeado o atacado es constante. ¿Es posible encontrar un punto medio?

The Engine Room, realizó un estudio llamado “Explorando una transición hacia plataformas alternativas de redes sociales para organizaciones de justicia social en el Sur Global”, donde señala que las redes sociales tradicionales presentan preocupaciones significativas relacionadas con la recolección intrusiva de datos, la vigilancia y la propagación de desinformación. También destacan que plataformas alternativas, como Mastodon y BlueSky, ofrecen experiencias más comunitarias y menos extractivas, permitiendo a los usuarios crear y gestionar sus propios espacios en línea. Varias organizaciones nos hemos sumado a una tendencia por relevar el rol de tecnologías que devuelven al menos algo de control a sus usuarios.

Las alternativas, aunque prometedoras, aún no están listas para reemplazar por completo a las grandes plataformas, porque su alcance sigue siendo limitado. Migrar hacia ellas implica convencer a nuestras audiencias de hacer lo mismo, algo que no es fácil en un entorno donde los “efectos de red” (o si prefieres, la inercia y la comodidad) mantienen a las personas atadas a las plataformas tradicionales. Pero estas alternativas son un recordatorio de que otras formas de comunicación digital son posibles, aunque todavía estén en construcción. The Guardian o La Vanguardia se aventuraron a cerrar para siempre las puertas en redes como X. Mucho antes, en el 2021, la marca Lush dejó de usar redes sociales, declarándose “antisocial”.

Mientras tanto, surge la pregunta: ¿es posible que las organizaciones de la sociedad civil se desvinculen de las redes sociales más populares hoy? La respuesta no es sencilla, pero es evidente que diversificar los canales de comunicación es imprescindible. No podemos depender exclusivamente de plataformas que priorizan la extracción y el lucro, persiguen objetivos políticos orientados a ganar poder, o imponen narrativas autoritarias y conservadoras sobre los derechos humanos.

Además, las organizaciones de la sociedad civil suelen publicar de manera orgánica, con poca o nula inversión en publicidad, lo que dificulta aún más que su contenido llegue a las audiencias. Por ello, los boletines por correo electrónico, las páginas web actualizadas y las colaboraciones con medios de comunicación independientes siguen siendo herramientas valiosas para alcanzar a las audiencias más allá de tuits e historias. Es también el momento de explorar nuevos formatos: podcasts, videos documentales y eventos híbridos que combinen lo digital con lo presencial. En un ambiente donde los algoritmos deciden qué contenido llega a quién, recuperar el control sobre nuestras audiencias también se convierte en un acto de resistencia.

Regulación y responsabilidad

Sin embargo, estas soluciones son insuficientes si no se aborda el problema de fondo: la falta de contrapesos efectivos al control sobre las plataformas tecnológicas. Mientras las empresas continúen operando sin rendir cuentas sobre sus decisiones y sobre su modelo de negocios, la violencia digital y la explotación de datos seguirán siendo el modelo predominante de los gigantes de internet. Aquí es donde los Estados deben intervenir, en ningún caso para censurar, sino para proteger. Necesitamos políticas públicas que garanticen entornos digitales seguros, mecanismos efectivos para denunciar el acoso y sanciones claras contra quienes promuevan el odio. Necesitamos regulación que permita de manera efectiva que, a mayor poder, exista mayor también responsabilidad.

Las plataformas tecnológicas, por su parte, tienen una deuda importante con sus usuarias y usuarios. La implementación de medidas contra el acoso, la protección de datos personales y la transparencia en la moderación de contenido no deberían ser opcionales. En lugar de priorizar el crecimiento a cualquier costo, es hora de que estas empresas asuman su responsabilidad en la creación de un ecosistema digital que no perpetúe la violencia y el abuso. Que no se escude en la seguridad para promover la censura, ni en la libertad de expresión para descuidar a sus usuarios.

Meta, por ejemplo, hace algunos meses anunció que utilizará datos personales de sus usuarios para entrenar sus sistemas de inteligencia artificial, sin ofrecer una manera clara de oponerse a esta práctica. En muchas jurisdicciones, simplemente no hay opciones para negarse a este uso de los datos personales. Sin embargo, países como Brasil y los de la Unión Europea, con legislaciones más robustas, han logrado plantear regulaciones que limitan o frenan estos abusos. Pero ¿qué ocurre en el resto del mundo, donde las protecciones legales son débiles o inexistentes?

La desigualdad en la capacidad de los Estados para hacer frente a estos problemas agrava las brechas digitales. Mientras algunos países avanzan en la defensa de los derechos digitales, otros quedan expuestos a los abusos de grandes corporaciones que operan sin restricciones.

Más allá del algoritmo

Es imprescindible repensar colectivamente el diseño y la dinámica de estas plataformas. Cada vez que el discurso de odio se normaliza o el ciberpatrullaje queda sin consecuencias, el entorno digital se deteriora aún más. Este problema no debe recaer en las usuarias y usuarios, sino en quienes tienen el poder de cambiar las reglas del juego: las plataformas tecnológicas y los Estados.

Construir un ecosistema digital ético y seguro no será rápido ni fácil. Requiere creatividad, paciencia y voluntad política, pero el esfuerzo vale la pena. Porque al final, comunicar más allá del algoritmo no es solo una cuestión de supervivencia para las organizaciones de la sociedad civil; es una apuesta por un futuro donde las voces sean amplificadas, no silenciadas, y donde la tecnología sea una herramienta de inclusión, no de exclusión.

Comunicar en un entorno hostil no es sólo un desafío técnico; es una cuestión de principios. Rechazar un modelo digital basado en el odio y la explotación abre la posibilidad de transformar cómo conectamos, construimos y luchamos en el mundo digital, creando espacios más justos y seguros para todas las personas.

Transformaciones y desafíos en los derechos digitales en América Latina: un balance de 2024

En 2024, la intersección entre tecnología y derechos humanos ha cobrado una relevancia sin precedentes en América Latina. En un panorama global que anticipaba decenas de elecciones, pero que está todavía marcado por los horrores del genocidio y la guerra, como también por autoridades locales embelesadas con las promesas por la IA y pugnas políticas globales sobre el futuro de las redes digitales, vale la pena hacer una breve retrospectiva de lo que nos ha tocado enfrentar este año.

Encerrando en la lámpara al genio de la IA

La discusión sobre la regulación de la inteligencia artificial (IA) se intensificó en América Latina en 2024. Diversos países de la región han estado explorando marcos regulatorios para controlar los riesgos de estas tecnologías sin impedir su desarrollo ni excluir a los países de la economía global. El reciente avance en Brasil de un proyecto de larga discusión parece acercar esa regulación a la realidad.

En este contexto, Derechos Digitales ha enfatizado la importancia de poner los derechos humanos en el centro de la regulación y del desarrollo de la inteligencia artificial, destacando la necesidad de una participación ciudadana efectiva en su desarrollo e implementación. También hemos avanzado significativamente en demostrar, a través de la evidencia situada, cuáles son las características de la implementación en la región por entidades públicas, más allá de los compromisos declarados. A pesar de los desafíos, nuestra más reciente edición de Latin America in a Glimpse ofrece una luz de esperanza para un desarrollo comunitario, situado y feminista de estas tecnologías, en lugar de rendirnos a la voluntad de algunos gigantes de la tecnología.

Pactos mundiales, pero sin todo el mundo

El Pacto Digital Mundial (GDC, por sus siglas en inglés) aparecía como uno de los hitos más significativos del año, con una importante búsqueda de incidencia por incontables activistas de todo el mundo, para sumar sus voces a las de los Estados representados en la Organización de las Naciones Unidas (ONU). En los escasos espacios de participación abiertos, Derechos Digitales hizo valer sus expectativas sobre el GDC, enfatizando la necesidad de una perspectiva efectiva de género en el GDC, basada en principios feministas para la inclusión de género, y recomendando un enfoque basado en derechos humanos que considere intersección de género y derechos en áreas clave. No obstante, un resultado decepcionante en esas materias y de muy difícil participación para actores no estatales, nos hace sumarnos a la preocupación global sobre el proceso de implementación, que seguiremos con celo.

Otro proceso preocupante terminó de manera casi trágica: tras más de dos años de negociaciones, la ONU aprobó el texto final de un nuevo tratado internacional para combatir el ciberdelito. Organismos expertos y activistas alrededor del mundo advirtieron por años que el texto contiene falencias importantes que pueden ser utilizadas para validar abusos contra los derechos humanos, incluida la falta de salvaguardas suficientes en materia de protección de derechos frente a la cooperación internacional.

Libertad de expresión, siempre bajo ataque

En un año que vio nuevas preocupaciones no solo por los usuales bloqueos, sino también por la siempre presente violencia contra periodistas y por la posible promulgación de leyes mordaza en distintos países, o el levantamiento de restricciones y cierres contra organizaciones activistas, el uso de internet para la libre expresión parece ser cada vez más un riesgo que una oportunidad.

Independiente de las decisiones de ciertos gobiernos, recientes cambios como la compra de Twitter (ahora X) por un magnate controvertido, han complicado aún más el panorama para el ejercicio de la expresión en plataformas privadas. Así, el bloqueo de lo que era Twitter en Brasil levantó preocupación por el efecto aparentemente desproporcionado, como consecuencia de actos de autoridad legalmente tramitados por la falta de colaboración de la plataforma con procesos judiciales. Eso, sin siquiera discutir la decadencia de una plataforma que sigue siendo relevante para una minoría, y su incapacidad de mantenerse como un espacio seguro.

La arbitrariedad para la censura de contenidos en plataformas digitales quedó además validada en México, por medio de la sentencia de la Suprema Corte de Justicia de la Nación que validó el sistema de notificación y retirada, cuestionado por su facilidad para lesionar derechos humanos en línea en nombre del derecho de autor y sin real efecto sobre la “piratería”.

Tecnologías para la vigilancia: un paso adelante, diez atrás

En 2024, la Corte Interamericana de Derechos Humanos emitió un fallo histórico en el caso presentado por el Colectivo de Abogados José Alvear Restrepo (CAJAR), destacando que las actividades de inteligencia deben respetar la privacidad y la protección de datos personales. Esta decisión expuso la vigilancia sistemática ejercida sobre defensores de derechos humanos en Colombia, incluyendo el monitoreo de comunicaciones privadas, y estableció un precedente crucial para limitar abusos en las tareas de inteligencia en toda la región. Esto es especialmente relevante en un contexto en que los Estados latinoamericanos continúan utilizando herramientas intrusivas, como el software Pegasus, sin mecanismos efectivos de supervisión democrática, a pesar de los aprendizajes de la última década. Aunque el fallo representa un avance normativo, la persistencia de prácticas de espionaje y monitoreo masivo refleja la urgencia de fortalecer marcos regulatorios que protejan los derechos humanos.

Por otra parte, el ciberpatrullaje se ha consolidado en 2024 como una herramienta de vigilancia estatal en América Latina, presentada como un mecanismo para prevenir delitos pero aplicada también como medio para vigilar discursos críticos. Esta práctica, que implica el monitoreo constante de redes sociales y espacios digitales, permite perfilar usuarios, recopilar información personal y observar la actividad de activistas y periodistas sin salvaguardas legales suficientes.

Salir a la calle tampoco nos aleja del peligro. El uso de tecnologías de reconocimiento facial en América Latina ha seguido expandiéndose en 2024, especialmente en espacios abiertos al público como estadios. Si bien estas herramientas se presentan como soluciones para mejorar la seguridad, han sido criticadas por facilitar el control social y la vigilancia masiva. Su implementación ha afectado desproporcionadamente a comunidades vulnerables y restringido libertades fundamentales, como el derecho a la protesta.

Contribuyendo y colaborando

En julio de 2024, Derechos Digitales anunció las organizaciones seleccionadas para participar en el primer ciclo del Fondo para la Promoción de los Derechos Digitales (FDD). Este programa fue diseñado como una herramienta para fortalecer las capacidades de las comunidades en la región, sensibilizándolas sobre la importancia de proteger sus derechos en el entorno digital. A través de este fondo, se busca fomentar el desarrollo de iniciativas locales que promuevan un espacio digital más inclusivo, libre y seguro, donde los derechos fundamentales sean respetados y defendidos.

Este fondo se complementa con el ya consolidado Fondo de Respuesta Rápida de Derechos Digitales (FRR), que en 2024 celebró cinco años de funcionamiento. Desde su creación, este fondo ha permitido canalizar recursos hacia acciones urgentes de defensa de los derechos humanos en el entorno digital, proporcionando respaldo inmediato a comunidades y activistas que enfrentan amenazas o vulneraciones en línea.

Ambos mecanismos, al operar en conjunto, constituyen un esfuerzo integral para fortalecer el ecosistema de defensa de los derechos digitales en América Latina. En total, los fondos administrados por Derechos Digitales completaron un año de impacto significativo, apoyando 29 proyectos distintos distribuidos en 14 países de la región, abarcando una amplia gama de temas. Con este modelo de financiamiento, Derechos Digitales continúa impulsando estrategias de defensa y promoción de los derechos digitales, respondiendo a los desafíos urgentes de la región.

Mirando hacia 2025: desafíos y prioridades para los derechos digitales

A medida que nos acercamos a 2025, el escenario global estará marcado por la implementación de acuerdos clave y el desarrollo de procesos internacionales que definirán el futuro de los derechos digitales. La revisión de los veinte años de la Cumbre Mundial sobre la Sociedad de la Información (WSIS+20) será un momento decisivo para evaluar los compromisos adoptados hace dos décadas y proyectar un modelo más inclusivo, sostenible y centrado en derechos humanos para el desarrollo digital. Será una oportunidad para insistir en la participación de la sociedad civil y en la necesidad de garantizar la conectividad, sin comprometer libertades esenciales en nombre de la seguridad o el progreso económico.

Al mismo tiempo, se espera que comience la implementación del GDC, en un proceso todavía rodeado de incertidumbres y preocupaciones. La sociedad civil tendrá el desafío de incidir en los mecanismos de seguimiento y aplicación del Pacto, para asegurar que las decisiones adoptadas protejan los derechos humanos y no se conviertan en herramientas de control o exclusión.

En paralelo, tras su adopción, podría iniciarse la implementación del Tratado sobre Cibercrimen, con implicaciones directas en la regulación de la vigilancia estatal, la cooperación judicial y el intercambio de datos. La vigilancia transfronteriza, el acceso a información privada y las obligaciones impuestas a las empresas tecnológicas requerirán un escrutinio constante para asegurar que los esfuerzos por combatir el cibercrimen no se conviertan en justificaciones para expandir la vigilancia masiva

Con un año electoral en varios países de América Latina, 2025 también traerá desafíos para la estabilidad democrática en la región. Las tecnologías digitales jugarán un papel central tanto como herramientas para la participación política como instrumentos para perjudicar al espacio cívico. Nuestra participación en el proyecto Civic DEFENDERS aparece así como una oportunidad para ejercer nuestra misión junto a organizaciones de todo el mundo.

Al final de un nuevo año de intenso activismo, reafirmamos nuestra confianza en la capacidad de la sociedad civil para liderar cambios significativos y sostenibles. La construcción de un futuro digital justo, inclusivo y democrático dependerá de mantener la solidaridad transregional, de amplificar las voces de la Mayoría Global y de asegurar que los derechos humanos estén al centro de cada decisión que impacte a las tecnologías. Desde Derechos Digitales, seguimos comprometidas a trabajar para ese futuro.

Cosechar Energía Solar para la Resiliencia Digital

La crisis energética de Ecuador

Ecuador atraviesa la mayor crisis energética que se tenga memoria. En octubre de 2023 empezamos con apagones de 3 a 4 horas, que en su momento parecía un montón. Nunca imaginamos que un año después llegarían a durar 14 horas, en mi caso eso significó tener 3 horas de energía al día. Una amiga venezolana me contó que en su país ya no cuentan los apagones, sino los “alumbrones”.

Durante estos meses aprendí que no se puede pensar en resiliencia digital sin pensar en electricidad. Pasé varias semanas que se sentían como meses buscando la forma de trabajar. Intenté con UPS, ir a trabajar en cafeterías o incluso utilizar el plan de datos para conectarme a internet. Fue tal la crisis que después de dos horas de apagón ya no funcionaba ni la telefonía ni el internet móvil. Nos desconectamos de la electricidad, pero también de las comunicaciones.

Ecuador es un país privilegiado con muchas fuentes de aguas en las montañas que descienden hacia el Océano Pacífico y la Amazonía. Esto lo ha convertido en un país ideal para aprovechar la energía hidroeléctrica. También contamos con un parque de centrales termoeléctricas que están pensadas para cuidar el agua en tiempos de sequías. Las mismas estaban sin mantenimiento y ha costado mucho ponerlas a funcionar.

Si bien mi situación era complicada, seguramente no era nada comparado a alguien que vende helados, alimentos refrigerados o las industrias que dependen del suministro eléctrico. Cada vez más en las calles de las ciudades se escuchaba el sonido a generador eléctrico con olor a combustible quemado.

Mientras esto sucedía, yo participaba de una discusión interesante en X sobre energía solar liderada por Edgar Landivar. Él fue mi pionero del desarrollo de software libre en el país, diseñó respiradores de hardware abierto durante la pandemia y ahora fomenta el uso de energía solar. También fue mi primer jefe y un viejo amigo. Él nos contaba sobre el uso de paneles solares y baterías para sobrevivir a los apagones, además de la generación comunitaria que el país podía utilizar para afrontar la crisis de una manera descentralizada y amigable con el medio ambiente.

Busqué soluciones de energía solar para mi casa que, si bien son costosas, son mucho más accesibles de lo que me imaginaba. Intenté encontrar alguien que venda e implemente una solución en poco tiempo pero la demanda saturaba a la oferta y yo pasaría semanas o meses sin una solución hasta que descubrí los generadores solares.

Los generadores solares

Los generadores solares consisten en una estación de carga (powerstation en inglés) y uno o varios paneles solares. La estación de carga tiene baterías para almacenar electricidad, un inversor para convertir la energía directa en alterna que es lo que usamos en nuestras casas. Las baterías se pueden cargar desde la energía de la empresa eléctrica, en el encendedor del automóvil o a través de paneles solares.

Cuando llegó mi generador solar rápidamente la angustia se convirtió en curiosidad. A diferencia del UPS, la estación de carga me da un estimado de tiempo de duración según los dispositivos que están conectados. También me cuenta cuántos watts estoy consumiendo y según eso puedo decidir si desconecto dispositivos para soportar las horas de apagón. Además mi generador permite cargar mientras se usa y de esta manera pude trabajar incluso con apagones no programados que llegaron a ser de 8 horas.

Mi relación con la electricidad cambió desde entonces. Siento que utilizo los paneles solares para cosechar rayos solares que se almacenan como electricidad en mi estación de carga. A diferencia de los generadores a combustión, los rayos del sol no cuestan, no hacen ruido y no emiten gases. Ese mismo sol que se siente tan intenso en épocas de sequía, nos está regalando electricidad y somos muy pocas las personas que la aprovechamos.

El país de las montañas, agua y sol radiante

Si bien mi solución me salvó y pude trabajar con calma otra vez, no es una solución definitiva. De hecho mi generador solar está diseñado para acampar, pero en Ecuador sirve para mucho más, nos da la posibilidad de generar electricidad propia y tener autonomía, poder trabajar incluso si el Estado nos falló.

Una solución solar definitiva tendría que funcionar con una solución fija de paneles solares de mayor capacidad, un inversor que convierta la energía directa en alterna y un banco de baterías para sobrevivir a los apagones. Podría tener el sistema conectado a la red eléctrica de mi casa, encender, focos, prender la refrigeradora, tener internet y algunas otras necesidades básicas o no tan básicas.

Este tipo de sistema se lo conoce como desconectado de la red (off-grid en inglés) y me permite funcionar independientemente con o sin apagones. Dentro de este sistema lo más costoso son las baterías, pero son las que me permiten funcionar al momento del apagón. Con un sistema así puedo aprovechar la energía eléctrica incluso cuando no hay apagón. De esta manera estaría contribuyendo con mis gotitas de agua en los embalses de las hidróelectricas para que otras personas la puedan usar.

Por otro lado, los sistemas conectados a la red (on-grid en inglés) permiten inyectar el excedente de generación solar a la red pública. Si la gente instala paneles solares, esta energía se produce durante el día y probablemente la mayoría de personas en ese momento no se encuentran en casa. Entonces se puede solicitar a la empresa eléctrica un medidor bidireccional. El consumo de la noche o de los días muy nublados se compra a la empresa eléctrica, el excedente que se genera durante el día se lo entrega a la empresa eléctrica y el medidor lo va descontando del valor a pagar a fin de mes.

Esta solución tiene como ventaja que dejaríamos de utilizar la energía durante el día porque la generamos con el sol y además se contribuye con el excedente para que otra gente lo use a través de la empresa eléctrica. Alguien que tiene un sistema de este tipo, no solo guarda sus gotitas en los embalses, también contribuye para que otra gente no tenga que utilizar energía hidroeléctrica durante el día.

Es además una solución distribuida que hace que el país pueda ser más resiliente a crisis energéticas. Podríamos funcionar con energía solar en el día e hidroeléctricas en la noche. Seguro necesitaríamos algunas plantas térmicas o de otro tipo, pero estaríamos en una mejor situación.

Los sistemas solares conectados a la red tienen el problema que se deben desconectar cuando suceden apagones. Las personas que dependemos mucho de electricidad podemos considerar invertir en baterías y tener un sistema híbrido que nos permita resistir a los apagones y contribuir con electricidad al resto.

En varios países de Europa y en varios estados de Estados Unidos el gobierno ha dado incentivos para que la gente contribuya con energía solar. Lamentablemente en Ecuador solo se dieron incentivos claros para comprar generadores eléctricos a combustión. Se ha invertido cientos de millones de dólares en energía térmica y en algunos casos no se sabe si esta funcionaría. Estamos pronto a tener elecciones, esperemos que las y los candidatos hablen de energía solar y energías limpias en sus planes de trabajo.

Regulación de la IA en Brasil: media sanción para un proyecto de ley que seguirá en discusión

El Senado de Brasil dio media sanción, el pasado martes 10 de diciembre, a un proyecto de ley para regulación de la Inteligencia Artificial. Se trata del PL 2.338/23, que tiene por objetivo establecer normas generales para la “gobernanza responsable” de sistemas de Inteligencia Artificial (IA). Se trata de un proyecto que, de ser finalmente aprobado por ambas cámaras, puede sentar un antecedente determinante para la regulación de IA en otros países de la región.

Este proyecto adopta un sistema de riesgos inspirado, en parte, en la reciente Ley de Inteligencia Artificial de la Unión Europea. El proyecto fue acordado tras un extenso proceso de debates bicamerales donde la presencia y aportes de la academia, el sector privado y la sociedad civil fue clave. 

Sin ser ley aún, el caso brasileño merece ser observado de cerca en el resto de la región, en especial de cara a la influencia excesiva que ciertos actores -como el sector de las Big Tech- tuvo al modular ciertos derechos y medidas de protección de derechos que perdieron potencia en el texto aprobado en el Senado.

Pese a todo, esta media sanción es oportuna para repasar cómo fue el proceso de construcción de este proyecto que será ley, y rescatar algunas críticas emitidas desde la sociedad civil.

¿Cómo se llegó hasta aquí?

La media sanción de este proyecto de ley marca el cierre de un proceso que se extendió por casi tres años, iniciado en febrero de 2022 con la creación de la Comisión Especial para la Regulación de la IA (CJSUBIA) por parte de la presidencia del Senado. Esta comisión trabajó durante todo 2022 y emitió un dictamen basado principalmente en el proyecto de ley 2.338/23, que sirvió como insumo clave para la versión final.

En agosto de 2023, se creó la Comisión Temporal Interna sobre la IA (CTIA), donde representantes del Senado debatieron el proyecto, presentaron enmiendas y lograron consolidar una versión final. Este texto fue llevado a la sesión plenaria de la cámara alta el martes 10 de diciembre, donde fue aprobado con media sanción tras un debate que duró apenas dos horas.

Desde Derechos Digitales seguimos este proceso desde la creación del proyecto de ley unificado, en la CJSUBIA, donde presentamos nuestros aportes en audiencias públicas, en mayo de 2022. En el marco de dicho proceso generamos un análisis detallado sobre la composición sectorial, no sólo de las audiencias, sino de todos los espacios de participación de esa comisión, y detectamos una amplia representación del sector privado en todos los espacios, sea tanto a partir de los aportes enviados directamente por representantes de las empresas, como a través de las cámaras y asociaciones que las aglutinan. Si tomamos todas las participaciones como un conjunto, 31% correspondieron al sector privado, mientras que la sociedad civil apenas estuvo representada en el 19% del total. La academia fue otro de los espacios de mayor participación, con cerca del 26% del total.

Este hallazgo fue confirmado, por su cuenta, por el medio Intercept Brasil que en un reporte reciente visibilizó la desproporcionada presencia de representantes de empresas de tecnología en las listas de oradores que participaron de las audiencias de la CTIA y que asistieron “camuflados” como parte de otros sectores que no representaban esas afiliaciones. Esto pone en evidencia los esfuerzos realizados por las empresas de tecnología para influir en el desarrollo del debate de una ley crítica que sentará un antecedente determinante para otras discusiones existentes en la región, un factor que fue denunciado desde distintos espacios, no solo en cuanto al lobby poco transparente, sino también en cuanto a su incidencia intensa para dilatar la votación en el legislativo

Un vistazo a lo que sabemos que se aprobó hasta ahora 

  • Lo bueno: un modelo de gobernanza que promete

Uno de los puntos de mayor resistencia fue la propuesta de creación de una autoridad única para la IA, punto que fue finalmente eliminado del proyecto aprobado en el Senado. En su lugar, esta nueva versión establece la creación del Sistema Nacional de Regulación y Gobernanza de la Inteligencia Artificial (SIA), compuesto por múltiples dependencias de la administración pública en materia de protección de datos y organismos de regulación sectorial, siendo su coordinadora la Agencia Nacional de Protección de Datos (ANPD) de Brasil (Cap IX). 

El SIA tendría la responsabilidad de generar nuevos criterios para la clasificación de un sistema de IA como de alto riesgo (art. 15), lo novedoso es cómo, en el marco de ese trabajo, dicha autoridad deberá garantizar un proceso de participación social así como efectuar análisis previos de impacto normativo (art. 16).

Este sistema de gobernanza puede tener un rol central en la protección de derechos en tanto que, por una parte, desconcentra el rol regulatorio de una tecnología en desarrollo en distintas entidades públicas preexistentes, así como por otro lado supone el fortalecimiento de entidades como la ANPD para robustecer su papel en materia de protección de datos aplicable a los sistemas de IA.

  • Lo regular: evaluaciones de riesgos “voluntarias”

Una de las principales modificaciones en la última versión del texto es la decisión de que la “evaluación preliminar”, es decir, una autoevaluación emprendida por los “agentes de IA” –quienes desarrollan, proveen o adquieren este tipo de sistemas–, previo al despliegue de sus tecnologías de IA en el mercado, será opcional para la mayoría de los sistemas de IA, excepto los sistemas de IA generativa y de propósito general, para los que la evaluación preliminar sí será obligatoria. 

Esta autoevaluación debería apuntar a determinar el nivel de riesgo que representa el sistema de IA de cara a la protección de la seguridad de la información, la transparencia y la ética en su funcionamiento, entre otros (art. 12). Para promover su adopción por el ecosistema de la IA, el proyecto propone un incentivo para que, quienes lo realicen, puedan obtener beneficios en el caso de recibir sanciones administrativas (art. 12, núm. 1). Habrá que ver si el incentivo es suficiente para volver una medida voluntaria en una práctica corriente en el ecosistema de la IA.

  • Lo malo: derechos de las personas trabajadoras y derechos de autor debilitados

Los derechos de las personas trabajadoras de plataformas mediadas por algoritmos quedaron mermados luego de sucesivas enmiendas al texto aprobado en el Senado. El Consejo Nacional de Derechos Humanos de Brasil (CNDH) recomendó (i) que se incluyera como sistemas de IA de alto riesgo a los que distribuyen tareas y evalúan el comportamiento de los trabajadores y trabajadoras, (ii) retomar disposiciones que fomenten la creación y valoración de empleos, la capacitación continua de trabajadores y trabajadoras y (iii) la necesidad de desarrollar evaluaciones de impacto algorítmico. 

Algo de esto se incluyó, pero no todo. Por ejemplo, el art. 14 inciso III reconoce que los mecanismos de “reclutamiento, selección, filtrado, evaluación de candidatos, toma de decisiones sobre promociones o finalización de relaciones laborales, evaluación del desempeño y comportamiento de las personas afectadas en los ámbitos de empleo, gestión de trabajadores y acceso al empleo por cuenta propia” sí son sistemas de IA de alto riesgo. Y en lo relativo a los derechos laborales, se menciona la importancia de la capacitación y fomento del empleo, pero el proyecto al día de hoy no fija garantías de supervisión humana y protección y estabilidad reforzada frente a eventuales despidos motivados por la adopción de la IA en el mundo del trabajo, tal y como había sido pedido por la CNDH.

Respecto de los derechos de autor, hubo una tensión entre los reclamos impulsados principalmente por agrupaciones de artistas y las empresas tecnológicas. El conflicto se centró, principalmente, en las disposiciones del artículo 65 enfocado en la remuneración de los titulares del derecho de autor en los casos en que las empresas que desarrollen sistemas de IA utilicen contenidos que están protegidos.

Los grandes centros de datos –que tienen la materia prima para el desarrollo de sistemas de IA- pedían por su cuenta la eliminación de la remuneración en tanto que desviará recursos esenciales para el desarrollo de otros centros de datos y la inversión tecnológica en el país. Sin embargo, el artículo 65 aprobado en el Senado es un victoria a medias, pues si bien reconoce el derecho a la remuneración, pese a las objeciones del sector privado, dicho pago beneficiará en buena medida a los titulares de los derechos de autor que “tengan condiciones efectivas de negociar”, lo que beneficiará en la práctica a las grandes empresas titulares de los derechos de autor –como grandes editoriales, o empresas discográficas- más que a los titulares de pequeño tamaño y sin músculo para negociar.

Un proyecto que avanza; próximos pasos 

Durante la votación en sesión plenaria, representantes del Senado tuvieron espacio para generar declaraciones acerca del proceso y de la importancia que implica contar con una regulación sobre Inteligencia Artificial. Esta media sanción fue celebrada, por ejemplo, por la Coalición de Derechos en la Red, una agrupación que nuclea más de 50 organizaciones de activistas por los derechos digitales.

 Si bien manifestaron sus preocupaciones frente a algunos puntos, la Coalición consideró esta aprobación como una victoria “frente al lobby de las empresas de tecnología, la industria y la extrema derecha”. Por su parte, la organización Data Privacy Brasil aseguró que la sesión del Pleno del Senado “se caracterizó por la madurez democrática y la construcción de consensos para la aprobación de la legislación”.

Si bien el proyecto plantea algunos interrogantes a futuro, especialmente frente a la merma de ciertos derechos como los de las personas trabajadoras y los de las y los creadores y artistas, su media sanción da lugar a la continuidad en el debate sobre cómo regular la IA en América Latina atendiendo las visiones y necesidades del contexto local. 

En 2025 el proyecto será debatido en la Cámara de Diputados, por lo que esperamos que entonces las victorias reconocidas no sean echadas atrás, y se aproveche esa última oportunidad para desarrollar garantías asociadas a la protección del medio ambiente en tanto que la IA es una tecnología sedienta y demandante en materia de consumo eléctrico, así como la recuperación de las protecciones para los trabajadores y trabajadoras que fueron advertidas por la CNDH.