América Latina ante la presión comercial estadounidense: impactos y perspectivas para una agenda de desarrollo anclada en Derechos Humanos

Son poco más de seis meses desde la asunción de Donald Trump a la presidencia de EE. UU., marcada por la presencia destacada de los CEOs de las empresas de tecnología más importantes del mundo flanqueando al mandatario. Desde entonces, hubo anuncios y señales confusas relacionadas con su política internacional y tecnológica.  

En la arena multilateral, habiendo abandonado programas enfocados en la promoción de su agenda de “libertad en internet” que privilegiaba la desregulación del sector, la diplomacia estadounidense ha renunciado también a compromisos antiguos en materia de gobernanza de internet y ha bloqueado consensos históricos relacionados a la aplicación de los Derechos Humanos en las tecnologías. Por otro lado, el gobierno de Trump ha incorporado de manera directa a su estrategia de comercio el discurso de las Big Tech, según el cual cualquier intento de limitar su dominio monopólico representaría una “barrera no arancelaria” y, como tal, una amenaza a los intereses nacionales de EE. UU.

La actual política de comercio estadounidense consolida una tendencia de creciente abandono de la negociación multilateral en el ámbito de la Organización Mundial del Comercio (OMC). Con eso, Trump se ahorra la necesidad de convencer a un conjunto de países (cada vez más conscientes de la relevancia de la agenda digital para el desarrollo económico) de sostener anticuadas limitaciones a la imposición de impuestos aduaneros al comercio electrónico, entre otras.

En el caso latinoamericano, episodios como la imposición de tarifas a México –seguida de sucesivas negociaciones a cambio del fin de “barreras comerciales no arancelarias”–  y la discusión pública con el presidente colombiano que adelantó la amenaza de imposición de nuevas tarifas luego revisadas tras un acuerdo entre los países, dieron la tónica de las nuevas reglas del juego. Ambos casos ponen de manifiesto acuerdos y concesiones poco transparentes que pueden resultar en graves impactos a los Derechos Humanos de sus poblaciones.

La nueva cara de una vieja estrategia

El contexto actual está marcado por altos niveles de inestabilidad y una muy evidente intención de favorecer intereses propios con pocos beneficios para la región. Al recorte de políticas de cooperación internacional que afectan directamente a la población latinoamericana, se suman amenazas de intervención directa que hace mucho no se veían a la luz del día. Sin embargo, el uso de políticas de comercio para presionar a los países en la adopción de medidas que beneficien la industria tecnológica estadounidense está lejos de ser algo nuevo.

El Reporte “Special 301”, producido por la Oficina del Representante Comercial de EE. UU. (USTR, por la sigla en inglés) y muy conocido en el activismo por derechos digitales, ha sido una de las principales formas de presión aplicada a los países de la región. El documento genera un listado de países que supuestamente fallan en proteger derechos de propiedad intelectual de empresas estadounidenses.

Ya en la primera versión del documento, publicada en 1989 luego de la reforma que incorporó su figura, Argentina, Chile, Colombia y Venezuela aparecían en una “lista de atención” por sostener prácticas consideradas “preocupantes” en materia de propiedad intelectual. Brasil y México, por su parte, eran listados como países cuyas prácticas merecían “atención especial”, pero que –según el documento– no serían investigados por tener progresos en negociaciones bilaterales o multilaterales recientes. Entre 2005 y 2018, Argentina, Bolivia, Brasil, Chile, Colombia, Costa Rica, Ecuador, Guatemala, México, Paraguay, Perú y Venezuela han sido listados en el reporte, sea como países de “atención” o de “atención prioritaria”. La mayoría sigue presente en los listados de la edición 2025 del informe. Uruguay fue incluido en el reporte de 2005 y luego dejó de figurar en la lista.

El título del documento hace referencia a la llamada “Sección 301” de la legislación comercial estadounidense de 1974, que permite la investigación unilateral de prácticas comerciales consideradas perjudiciales a los intereses de EE. UU. por parte del USTR, y la adopción de medidas coercitivas para presionar a países en relación a la apertura de sus mercados. Las investigaciones basadas en la Sección 301 pueden ser iniciadas tanto por iniciativa propia del USTR, como a partir de solicitudes del sector privado.

El contexto de aprobación de la Sección 301 nos hace recordar al escenario regional actual. Según el exdiplomático brasileño Regis Aslanian, el mecanismo plasma una política de “autoritarismo comercial” adoptada por EE. UU. en un período en el que su economía se enfrentaba a riesgos de pérdida de su hegemonía. Él cuenta que, en aquella época, Brasil buscaba consolidar una industria nacional y pasó por investigaciones derivadas de la Sección 301 en 1985 y 1987 por supuestas barreras al comercio e inversiones estadounidenses en sectores que incluían el farmacéutico y el tecnológico. El hito ejemplifica en parte cómo se construyeron las relaciones de dependencia tecnológica que persisten hasta el día de hoy en los países del Sur Global.

La investigación más reciente abierta contra Brasil en el marco de la Sección 301 demuestra que el instrumento aún es relevante para ofrecer un aire de legalidad a la imposición de sanciones arbitrarias contra países. Sin embargo, no fue necesario para el gobierno de Trump esperar el resultado de esas averiguaciones para empezar a penalizar a Brasil: la comunicación sobre la imposición de tarifas del 50% a los productos brasileños incluyó la indicación de apertura de la investigación, que ocurrió días después y sigue sin conclusión.

Ya con relación al “Special 301”, su foco ha estado en el intento de presionar hacia la adopción de medidas de criminalización de la “piratería”, así como otros mecanismos que impidan su circulación, como la imposición de trabas tecnológicas, la obligación de entrega de información por parte de proveedores de internet, entre otras muy bien ejemplificadas en los capítulos latinoamericanos de su última versión. Este tipo de medidas ha sido fuertemente impulsado por el lobby de empresas de producción de contenidos a lo largo de las últimas décadas. Sin embargo, en el escenario actual, se mezclan con la presión contraria por la desregulación: la bandera de moda del lobby tecnológico estadounidense, como se ve en el caso de la investigación contra Brasil.

Un juego con pocos vencedores

El tipo de presión impuesta a la soberanía de los Estados latinoamericanos pone en evidencia la disparidad de poder en las negociaciones, donde se espera la entrega de concesiones a cambio de la simple manutención del status quo. No se trata de una situación exclusiva para América Latina: en Europa, donde las distintas políticas de regulación de tecnologías han estado en el centro de la disputa, el resultado de las negociaciones fue poco explícito en las implicaciones para el futuro de las normativas europeas sobre el tema. Además, una nota oficial de la Casa Blanca incluye entre los acuerdos el fin de las discusiones europeas sobre la imposición de impuestos a grandes plataformas digitales (las llamadas network fees), la intención de revisar “barreras no justificadas al comercio digital” y un acuerdo por mantener en cero los aranceles aduaneros para transmisiones electrónicas. 

Sin embargo, algunos países se encuentran en mejor posición para negociar. El caso de Brasil es un ejemplo de ello, pero también de una situación en que una de las exigencias impuestas no deja otra opción: la imposición de tarifas del 50% vino acompañada de una demanda de intervención en la autonomía del Poder Judicial, imposible de ser atendida por cualquier gobierno mínimamente comprometido con la democracia. La ventaja del país es que su comercio internacional es relativamente independiente de EE. UU., solamente 12% de su Producto Interno Bruto depende de ello. Aún así, el impacto de las tarifas vigentes desde el 6 de agosto es significativo para algunos sectores económicos, lo que mantiene al gobierno interesado en sentarse a la mesa de negociaciones, incluso para discutir medidas relacionadas al sector tecnológico.

Aunque aparezca de manera más sutil en la primera comunicación de Trump, donde se hablaba de “ataques continuos a las actividades comerciales digitales de empresas estadounidenses”, la presión sobre la posición de Brasil en relación a la regulación de tecnologías se encuentra visible en la investigación abierta en el marco de la Sección 301.

Ambas acciones ocurren luego de que la Suprema Corte del país concluyera, en un antiguo caso, que la medida que limita la responsabilidad de intermediarios de internet por la distribución de contenidos de terceros en el Marco Civil de Internet es parcialmente inconstitucional. La decisión busca establecer un régimen de responsabilidad diferenciado, pero genera un ambiente de mayor inseguridad jurídica para las empresas. Entre las demandas de las corporaciones tecnológicas se encuentran la revisión de tal decisión, por un lado, y la oferta de beneficios fiscales para la instalación de sus centros de datos en el país, por el otro.

Entre la resistencia y la construcción de alternativas

El impacto dañino de la política exterior de Trump es visible, y así seguirá siendo por muchos años más. En el caso de América Latina, tiene el potencial de comprometer la sostenibilidad de economías ya frágiles, y dejar desprotegidos a los sectores sociales que más apoyo necesitan. Eso sin hablar del posible retraso en materia de desarrollo, fundamental para superar las desigualdades persistentes, tanto a nivel local como global. El potencial de China en suplir el vacío dejado por EE.UU. en relación a inversiones y generación de riqueza es, seguramente, un aliento para los gobiernos de la región. El país viene buscando proyectar su poder también en espacios multilaterales desprestigiados por la diplomacia estadounidense, aunque persisten las dudas sobre su efectivo compromiso con una agenda de Derechos Humanos.

Confiar únicamente en un giro hacia China como fuerza capaz de reequilibrar las relaciones internacionales parece ser un equívoco. Es fundamental que los países de la región logren aprovechar la oportunidad sin replicar un nuevo modelo de dependencia. Si bien la urgencia puede exigir contrapesos económicos y de desarrollo, si el apoyo internacional, sea de China o Europa, no viene acompañado de un compromiso real en la defensa de derechos, estaríamos sólo cambiando de explotadores.

En ese sentido, el fortalecimiento de la agenda tecnológica en agrupaciones como el G20 y los BRICS puede representar una oportunidad para  sostener compromisos ya existentes con la justicia y los Derechos Humanos, incluso en su relación con las tecnologías. La reciente declaración de líderes de los BRICS sobre inteligencia artificial evidencia que aún hay espacio para una perspectiva de desarrollo anclada en la garantía de derechos fundamentales. Resta ver cómo estos compromisos logran efectivizarse en las conversaciones actuales y cómo esos países pueden resistir a la presión de Trump, que parece tenerlos en la mira.

Emergencia climática y centros de datos: el nuevo extractivismo de las Big Tech

El cambio climático es un riesgo existencial, y los Estados deben actuar con decisión. Así lo sostuvo la Corte Interamericana de Derechos Humanos (Corte IDH) en una reciente Opinión Consultiva (OC32), solicitada por Chile y Colombia con el objetivo de que ésta aclarase el alcance de las obligaciones estatales en la lucha contra la crisis climática global.

En un momento muy oportuno, la Corte declaró la existencia de una emergencia climática en la región considerando, por un lado, los efectos de catástrofes ambientales recientes, como los incendios, inundaciones y derrames de petróleo que tuvieron lugar en 2024. Por el otro, el escenario geopolítico que avanza hacia desarrollos tecnológicos -como la Inteligencia Artificial- sin debidas garantías; y facilita la expansión de las Big Tech en América Latina, sin una evaluación adecuada de su huella ecológica, ni salvaguardas en derechos de la ciudadanía. Estas empresas operan bajo lógicas extractivistas que se aprovechan de los recursos energéticos y naturales de la región para sostener sus operaciones -particularmente el entrenamiento de modelos de IA-, muchas veces a costa del equilibrio de ecosistemas frágiles y del bienestar de las comunidades locales.

Tres claves de una Opinión compleja

La Opinión Consultiva es compleja y en su extensión se afirman distintas ideas clave, de las que rescatamos al menos tres.

La primera, la necesidad de considerar responsabilidades diferenciadas en tanto no todos los Estados ni sectores de la economía contribuyen de la misma forma a la emergencia climática. Quienes más contaminan y emiten gases de efecto invernadero (GEI) deben contar con mayores compromisos en los esfuerzos dirigidos a paliar las consecuencias del cambio climático.

En segundo lugar, la interrelación estrecha entre la protección del clima, la naturaleza y el medio ambiente, y TODOSlos Derechos Humanos. Las acciones de los Estados no pueden limitarse a abstenerse de causar daño ambiental, sino que deben ser activas y progresivas en miras a la protección de derechos fundamentales.

Y en tercer lugar, la obligación estatal de regular las operaciones de las empresas que contaminan para, por un lado, obligar a que adopten medidas efectivas para mitigar el impacto de su cadena de valor en el cambio climático, y aborden sus impactos en los Derechos Humanos. Y, por otro lado, para exigir que divulguen de forma accesible las emisiones de gases de efecto invernadero de su actividad empresarial.

Los centros de datos en América Latina: las crisis por venir

Estas obligaciones deben extenderse también a las políticas digitales. Se sabe que, para que la IA siga creciendo, se necesita una base física: los centros de datos. Estos funcionan sin pausa, día y noche, y consumen enormes cantidades de electricidad, agua y aire. El agua sirve para enfriar los servidores, la electricidad mantiene todo en marcha y alimenta los sistemas de enfriamiento, y el aire ayuda a disipar el calor como recurso alternativo. No es casual que las Big Tech vean en América Latina una fuente para la explotación de esos recursos a bajo costo económico y regulatorio.

Sin embargo, las consecuencias ambientales y sociales de esta actividad son preocupantes. El agua utilizada en estos procesos ya no puede destinarse al consumo humano. La elevada demanda energética puede tensionar infraestructuras ya frágiles, poniendo en riesgo el suministro básico para la población. Además, el uso intensivo de electricidad puede derivar en mayores emisiones de carbono, afectando la calidad del aire. Se estima que para 2030 los centros de datos estarán entre las industrias más contaminantes del planeta.

Varios países han aceptado la instalación de los mismos bajo promesas que no son del todo claras. Como la de la soberanía digital, un tanto abstracta al tratarse de infraestructuras privadas para sostener sistemas de IA propios; o la promesa de generación de fuentes de empleo, que suelen ser temporales o de baja calidad, insuficientes para justificar el daño ambiental.

En México, por ejemplo, empresas como Amazon, Microsoft y Google buscan instalar centros de datos en el desierto de Querétaro. Allí, la crisis hídrica, agravada por sequías extremas del último año, ha puesto a las comunidades afectadas en una situación crítica. Estas comunidades, que rechazan la idea de estas instalaciones tecnológicas, ya han enfrentado dificultades para acceder al agua frente a su explotación por parte de empresas locales.

En Colombia, la narrativa oficial de avanzar hacia una “nube soberana” ha conducido al país a la firma de acuerdos con Emiratos Árabes Unidos para emplazar centros de datos en Santa Marta. Se trata de una zona del Caribe conocida por tener uno de los más costosos servicios de electricidad del país. Además, el agua que beben las comunidades locales ha sido motivo de advertencia de medios y organizaciones sociales que denuncian su mala calidad y la deficiente cobertura del servicio para el consumo humano.

En Chile, la instalación de estos centros se hace bajo la promesa de la generación de empleos y de inversión en la industria local. Recientemente, Microsoft abrió su centro de datos en la región Metropolitana de Santiago, una zona que sufre una megasequía de más de una década. Y Google está rediseñando el despliegue del suyo, en la Comuna de Cerrillos, luego de que un tribunal ambiental obligase a la empresa a evaluar el impacto hídrico del proyecto en una zona donde el agua es escasa.

Brasil, que junto a México es uno de los mayores emisores de gases de efecto invernadero del mundo, avanza también la acogida de centros de datos. En la población de ElDorado do Sul, afectada en 2024 por una inundación calificada por el Estado como el peor desastre ambiental reciente, se instalará la “Ciudad de la IA”, un complejo masivo de centros de datos que ocupará una de las zonas más privilegiadas de la región por su elevación, lo que la beneficiaría ante futuras inundaciones. También se instalará uno propio de Tik Tok en Ceará, que sufre una sequía extrema, y que se estima que agotará el consumo energético de 2,2 millones de brasileños a diario.

Las Big Tech colonizan nuestros recursos y no rinden cuentas

Las Big Tech operan en la región bajo lógicas coloniales ancladas en la explotación de recursos esenciales. Pese a ello, las respuestas regulatorias, cuando se trata de abordar su impacto ambiental, parecen ampliar los beneficios de los que gozan a cambio de promesas de beneficios futuros poco verificables.

En Brasil, por ejemplo, las autoridades nacionales prometen exenciones de impuestos a los centros de datos. Y la elaboración de la política nacional  sobre la materia, que excluyó de participación al Ministerio de Ambiente, propone eliminar las licencias ambientales para “desburocratizar” su instalación por, supuestamente, no tener impacto ambiental.

Las autoridades a nivel local también avanzan en esa senda. Los Concejales de Rio Grande do Sul, donde se ubicará la “Ciudad de la IA”, aprobaron en 2024 una ley que genera exenciones impositivas y flexibiliza los procesos de licenciamiento ambiental para estos centros. Como agradecimiento, las empresas beneficiarias donaron 110 notebooks repartidas en 13 colegios públicos de la región, un gesto que enmarcaron como “promoción del progreso social”.

En Chile, en el mes de junio de 2025, se habría liberado de la obligación de evaluación de impacto ambiental a las Big Tech que instalasen centros de datos en el país.

Entonces, las legislaciones ambientales se ven enflaquecidas, al tiempo que las de regulación de la IA que avanzan en esos mismos países omiten cualquier abordaje serio sobre la materia. La falta de transparencia sobre su impacto ambiental, y su progresiva proliferación en el futuro cercano supondrían una mayor asfixia a la gestión de recursos críticos de países como los nuestros.

La expectativa de que ese crecimiento es tal que, en declaraciones recientes, Sam Altman, líder de OpenAI, responsable de ChatGPT, no descartó que en un futuro cercano todo el planeta estuviese cubierto de centros de datos.

Mientras tanto, las comunidades directamente afectadas suelen tener poca o ninguna participación en las decisiones políticas que definen el destino de los recursos naturales de los que dependen para vivir. Basta ver el caso de una comunidad en Chile. Vecinos organizados y con acceso limitado al agua enfrentaron el proyecto de instalación de un centro de datos de Google. Ante la presión social, las autoridades autorizaron la operación bajo una modalidad de refrigeración por aire en lugar de agua. Pero el conflicto en verdad no se resolvió, tan solo cambió de forma.

Pese a todo, hay motivos para la esperanza

La Opinión Consultiva OC-32/23 de la Corte IDH representa un hito en la consolidación del enfoque de Derechos Humanos frente a la crisis climática. La Corte no solo reafirma que el cambio climático constituye una amenaza real y presente para el ejercicio pleno de los derechos fundamentales, sino que subraya la obligación de los Estados de actuar con urgencia, ambición y coherencia para mitigar sus efectos y proteger a las poblaciones en situación de vulnerabilidad.

Sin embargo, este pronunciamiento también deja planteada una tarea crucial que aún permanece pendiente: abordar con mayor contundencia el papel del sector privado, y en particular de las grandes corporaciones tecnológicas, en la generación y profundización de esta crisis. La responsabilidad ambiental de las Big Tech no puede seguir diluyéndose bajo el discurso de la innovación sin límites o su autorregulación.

En este contexto, los Estados deben asumir con decisión su papel de reguladores en materia ambiental considerando la declaratoria de emergencia climática de la Corte IDH. Esa función debe ser ejercida teniendo a la Opinión Consultiva como base de la discusión para fortalecer mecanismos de transparencia, auditoría de sus operaciones y participación social frente a proyectos extractivistas, como los de los centros de datos.

Por su parte, hay que advertir que la regulación ambiental y las normas sobre IA no pueden operar como marcos aislados ni contradictorios entre sí: deben integrarse en una visión común, coherente y participativa, orientada a garantizar la sostenibilidad del planeta y la dignidad de todas las personas.

Aunque el panorama parezca retador, también se abren puertas de esperanza. Recientemente, otra Opinión, de la Corte Internacional de Justicia de las Naciones Unidas, también se expresó sobre esta materia y reafirmó cómo, en omisión de sus deberes de regular al sector privado y su impacto ambiental, los Estados pueden llegar a ser demandados por otros Estados, y ser encontrados responsables por su inacción.

La tarea de quienes trabajamos en la sociedad civil, será apropiarnos de estos instrumentos legales para exigir por todas las vías posibles una mayor rendición de cuentas para enfrentar este problema de dimensiones globales que no da espera.

Privacidad en la mensajería: ¿cómo asegurarse de eliminar mensajes ante el riesgo de intrusión?

En la actualidad, más de 3 mil millones de personas usan activamente aplicaciones de mensajería en todo el mundo, y las cifran van en aumento. Si bien existe una gran variedad de alternativas con distintas características y funciones, la mayoría comparte elementos en común. Su popularidad varía geográficamente por regiones y también por países. A continuación, analizamos tres de las más relevantes: Signal, WhatsApp y Telegram.

Antecedentes: de la ausencia de privacidad hacia «alguna» privacidad

Más allá de su popularidad, las preocupaciones con la privacidad de las aplicaciones de mensajería –y las respuestas a tales preocupaciones– se han ido incrementando a lo largo del tiempo. Las revelaciones de Edward Snowden sobre vigilancia masiva son un hito clave en esta breve historia, una vez que ayudaron a popularizar el cifrado y otras medidas de protección como estándar.

En este contexto, y como fusión de los proyectos TextSecure y RedPhone, en 2014 nace Signal. El espíritu de esta nueva herramienta se centraba en proteger la privacidad de las comunicaciones, y en ese esfuerzo introdujeron el esquema de seguridad de cifrado de extremo a extremo. Si bien esta aplicación está delimitada por su uso en pequeños nichos o determinadas regiones del mundo (incluso al día de hoy muchas personas la desconocen), ella fue crucial para la introducción de un sistema de protección similar en WhatsApp, la aplicación de mensajería más popular en América Latina. Ante la creciente demanda por resguardar los intercambios de mensajes, la empresa más pujante del rubro tuvo la necesidad de aplicar un mecanismo de cifrado a la altura de las necesidades para no quedar obsoleta. Por ello, en 2016 WhatsApp integra el protocolo Signal para el cifrado de extremo a extremo por defecto para todas las personas usuarias.

Por su parte, Telegram, creada en 2013, no posee este esquema de cifrado de extremo a extremo por defecto en sus conversaciones, solo lo utiliza para los chats secretos. Esta plataforma aplica por defecto el cifrado entre cliente-servidor, lo que significa que, si bien los mensajes viajan cifrados, pueden ser legibles por la empresa o quien tenga acceso a sus servidores. En este sentido, el uso de canales comunes en Telegram es desaconsejado desde un punto de vista de protección de la privacidad.

Desafíos que persisten

El cifrado de extremo a extremo busca dar cuenta de la privacidad de las comunicaciones en tránsito, o sea, de cómo se protegen en el camino de un origen a un destino. Pero, ¿cómo garantizar la privacidad de las comunicaciones en aplicaciones de mensajería ante una intrusión física en el dispositivo?

La pregunta es válida para situaciones simples de extravío o pérdida, pero también en contextos de intervención policial o de intrusión a dispositivos por medio de software diseñado para eso. Ante el reporte de situaciones de abuso en tales acciones en la región y su riesgo para el ejercicio de Derechos Humanos, es fundamental conocer mecanismos para hacer valer el derecho a la privacidad en el uso de herramientas de mensajería.

Existen una serie de medidas que se pueden aplicar para mitigar estos riesgos, que abordamos anteriormente. Algunas son: utilizar contraseña en el dispositivo, contar con una clave de acceso para la aplicación, configurar el chat para mensajes temporales, entre otras. Presentes desde 2016 en Signal y desde 2020 en WhatsApp, los mensajes temporales pueden resultar una estrategia segura, pero solo funcionarán desde el momento en que el chat haya sido configurado para tal efecto.

Entonces, ante el peligro de intervención de un equipo, ¿cómo asegurarnos de que no puedan acceder a las conversaciones o, al menos, a algunas de ellas? La respuesta es simple, pero su implementación no tanto: eliminando esos mensajes. Si estuviéramos hablando de una carta que podemos destruir físicamente quizás la recomendación fuera obvia, pero en dispositivos digitales surge la legítima duda: ¿existe la posibilidad de recuperar un mensaje eliminado? Sí, bajo ciertas circunstancias se pueden restablecer conversaciones eliminadas. De ahí la necesidad de abordar algunos aspectos técnicos para garantizar que el ejercicio del derecho a la privacidad, en este caso, sea más efectivo.

WhatsApp: cómo eliminar mensajes de forma definitiva

Actualmente, existen dos formas de recuperar los chats eliminados: la recuperación de los respaldos en línea por un lado, y la copia de seguridad local de la aplicación, por el otro.

Una instalación típica de WhatsApp ofrece la opción de configurar un respaldo en línea utilizando Google Drive, para usuarios Android, o iCloud, en el caso de Iphone. Los respaldos de Android en Google Drive son únicos y se sobrescriben, es decir, no existen versiones históricas de los archivos. Si se desea que los mensajes no se puedan restablecer, es necesario eliminar el archivo en cuestión desde Google Drive.  

En el caso de Android se debe acceder a la cuenta en Google Drive, ir al apartado “Almacenamiento” y luego a “Copias de seguridad”. Ahí se encuentra el archivo de respaldo de la cuenta de WhatsApp identificado por el número telefónico. Si se desea que los mensajes no se puedan recuperar, se debe eliminar el archivo en cuestión. Es fundamental asegurarse de que el archivo eliminado no quede en la papelera de reciclaje; de ser así, también debe borrarse desde allí.

Además del respaldo en línea, WhatsApp utiliza copias de seguridad locales para posibles restauraciones. El esquema de respaldo local es incremental, es decir utiliza varios archivos para guardar el historial de las conversaciones de forma periódica. Las copias pueden ser encontradas en una carpeta cifrada ubicada en “Android/media/com.whatsapp/WhatsApp/Databases”. Dentro de este directorio encontraremos una serie de archivos cuya nomenclatura es “msgstore.db.crypt14*”. Para eliminar estos archivos de respaldo locales, y que estos no puedan ser recuperables, se debe usar una herramienta de borrado seguro como iShredder o bien conectar el dispositivo al computador y utilizar herramientas como Shred, disponible en la mayoría de las distribuciones GNU/Linux, Eraser para Windows o srm para macOS.

Cabe mencionar que todos estos procedimientos explicados solo aplican al dispositivo donde se ejecute el proceso. Es decir, si la otra persona a quien se dirigen los mensajes no los elimina, seguirá teniendo acceso a los mismos y permanecerán disponibles para terceros en el caso de una extracción o intrusión al dispositivo. También es necesario prestar atención a los mensajes temporales, cuya duración puede ser de 1, 7 o 90 días, pues, según explica WhatsApp, si crea una copia de seguridad antes de que desaparezca un mensaje, este se incluirá en la copia de seguridad.

Eliminar mensajes de WhatsApp definitivamente requiere de al menos esos tres pasos e implementarlos o no depende de la percepción de riesgo que pueda tener cada persona de estar sujeta a una intrusión indebida a sus comunicaciones personales. Aún así, como se ve, hay fragilidades que son intrínsecas al uso de este tipo de aplicaciones y la confianza en la empresa por detrás de la aplicación y en las terceras personas con quienes compartimos nuestras informaciones.

Borrar mensajes, resguardar derechos

Aunque pueda resultar una tarea compleja, y que requiere de varios pasos a seguir, la posibilidad de borrar mensajes de manera segura es una acción concreta hacia una mayor autonomía digital y una defensa efectiva de nuestros derechos. Así como en la vida real, es necesario que los entornos digitales nos provean de herramientas que nos permitan resguardar nuestro derecho a la privacidad en línea y que están accesibles para todas las personas.

Desde Derechos Digitales, sostenemos que la privacidad de las comunicaciones no es un lujo ni una cuestión meramente técnica: es una condición indispensable para el ejercicio de otros derechos, como la libertad de expresión, la organización social y la defensa de los Derechos Humanos. En América Latina, donde diversos Estados han desplegado prácticas de vigilancia sin control ciudadano ni garantías adecuadas, proteger nuestras comunicaciones digitales se vuelve urgente.

De la promesa tecnológica al control estatal: lo que revela el caso mexicano

En junio de 2025, México aprobó un paquete legislativo que incluyó reformas a la Ley de la Guardia Nacional, la Ley General de Población y la Ley General en Materia de Desaparición Forzada. Este conjunto de reformas legales creó una Clave Única de Registro de Población (CURP) biométrica que es obligatoria para acceder a servicios públicos y privados. Además, amplió significativamente las facultades de inteligencia de las Fuerzas Armadas y la Guardia Nacional. Esto se llevó a cabo a pesar de la movilización de organizaciones de la sociedad civil, que advirtieron sobre los graves riesgos que estas reformas representan para los derechos humanos y la democracia en el país.

Lejos de ser un caso aislado, este proceso refleja una tendencia regional cada vez más extendida en América Latina: la consolidación de infraestructuras de vigilancia y control social, legitimadas a través de reformas legales y sustentadas en el uso de tecnologías digitales y biométricas. Este fenómeno revela un panorama en que el tecnosolucionismo y la seguridad se utilizan como argumentos para erosionar libertades, reforzar el poder estatal y profundizar desigualdades estructurales.

Promesas y peligros de la identidad digital

La creación de la CURP biométrica en México implica el establecimiento de una base de datos centralizada que asocia el número único de registro de cada persona con sus datos biométricos, como huellas dactilares y fotografía. El objetivo declarado por el Gobierno es responder a la crisis generada por la creciente desaparición de personas, mediante la construcción de un sistema que permita registrar y rastrear cada interacción y movimiento de la ciudadanía en su vida cotidiana, desde el acceso a servicios públicos hasta actividades privadas, con el fin de facilitar su identificación y localización.

Al tratarse de un registro obligatorio, se elimina la posibilidad de un consentimiento informado sobre la recolección y el uso de los datos personales, lo que agrava los riesgos para la autonomía y la privacidad. Además, habría que considerar qué ocurre con quienes no logran registrarse: ¿quedarán excluidos del acceso a servicios esenciales? La obligatoriedad de la CURP biométrica como requisito para acceder a servicios públicos y privados implica que quienes no estén registrados en esta base o no puedan hacerlo quedarán fuera de derechos y prestaciones básicas.

Así, personas que no logran acercarse a los centros de registro, sobre todo las que viven en zonas remotas; aquellas que no tienen datos biométricos que puedan ser recopilados (como personas mayores con huellas dactilares deterioradas o personas con ciertas discapacidades); y personas trans cuya identidad de género y nombre social no se reflejan en su CURP -especialmente considerando que varios estados mexicanos no reconocen legalmente el nombre social- quedan aún más marginadas. Es decir, además de profundizar desigualdades estructurales ya existentes, este tipo de medidas produce nuevas formas de exclusión, reforzando barreras institucionales y sociales que afectan de manera desproporcionada a los grupos sociales históricamente excluidos.

Al mismo tiempo, este tipo de infraestructura plantea serias preocupaciones en términos de privacidad y desafía directamente el derecho al anonimato. El anonimato protege a las personas frente al rastreo constante de sus actividades y opiniones, especialmente en contextos donde disentir puede tener consecuencias.

También conlleva importantes riesgos en materia de ciberseguridad: aunque existen distintos niveles de madurez en ciberseguridad en los Estados de América Latina, se han registrado repetidos ataques y vulneraciones a bases de datos públicas en varios países. Las filtraciones de datos biométricos resultan especialmente graves, ya que se trata de información que, a diferencia de una contraseña, no puede ser modificada: forma parte intrínseca de la identidad física de cada persona. Su exposición indebida, así, puede llevar a fraudes y robo de identidad.

La creación de bases de datos centralizadas y la recopilación indiscriminada de datos biométricos no son fenómenos exclusivos de México. En 2023, Derechos Digitales ya advertía de la tendencia en un informe sobre la proliferación de sistemas de identidad digital en América Latina, señalando los riesgos asociados y la falta de controles efectivos, como la ausencia de garantías judiciales, la opacidad en el uso de los datos y el acceso por parte de múltiples entidades estatales sin supervisión.

Sin embargo, hay ejemplos que muestran decisiones orientadas a establecer límites: en Brasil, en 2022, el Supremo Tribunal Federal decidió imponer restricciones significativas al Cadastro Base do Cidadão -una base de datos también con información biométrica creada por decreto presidencial- al considerar inconstitucional el acceso irrestricto por parte de todos los órganos gubernamentales, reforzando así la necesidad de controles judiciales y criterios de proporcionalidad. Esta discusión resulta especialmente pertinente para México, donde el nuevo paquete legislativo otorga acceso a la base de datos biométrica a diversas instancias de inteligencia y a las Fuerzas Armadas sin requerir autorización judicial ni mecanismos de control democrático.

Inteligencia sin control: el poder opaco

Las reformas legales recientes en México otorgan a las Fuerzas Armadas y a la Guardia Nacional un poder sin precedentes en materia de inteligencia. Estas instituciones reciben facultades ampliadas para realizar labores de vigilancia e interceptación de comunicaciones sin necesidad de autorización judicial, eliminando cualquier contrapeso democrático. Además, se les concede acceso irrestricto a la base de datos de la CURP biométrica, lo que les permite rastrear de forma masiva e indiscriminada a la población, sin que las personas sean informadas de que sus datos están siendo consultados o utilizados.

Este escenario se ve agravado por la decisión del gobierno mexicano, aprobada en marzo de 2025 por el Congreso, de eliminar instituciones autónomas clave, como el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI). El órgano tenía entre sus competencias garantizar la protección de datos personales y el acceso a la información, y su extinción implica un grave retroceso en materia de transparencia y rendición de cuentas. En este contexto, también resulta pertinente llamar la atención sobre la recientemente aprobada Convención de Cibercrimen de la ONU, que fue incluso apoyada por México, cuyo enfoque favorece a la vigilancia y el intercambio transfronterizo de datos entre agencias sin establecer salvaguardas suficientes en materia de derechos humanos, privacidad y debido proceso.

Las nuevas leyes mexicanas legitiman la vigilancia permanente y opaca, donde el control estatal se expande sin supervisión efectiva. Se trata de una tendencia que no es exclusiva de México. En Argentina, por ejemplo, se transfirió el control de la ciberseguridad a la Secretaría de Inteligencia del Estado (SIDE), consolidando un aparato de vigilancia bajo mando directo del Poder Ejecutivo y debilitando garantías fundamentales. A esto se suma la aprobación reciente de la Ley de Inteligencia en Ecuador, que otorgó facultades amplias y ambiguas a los organismos de inteligencia, sin mecanismos claros de transparencia ni rendición de cuentas.

La tendencia regional apunta a un mismo patrón: justificar el incremento de poderes de vigilancia en nombre de la seguridad nacional, mientras se consolidan estructuras estatales cada vez más autoritarias. Estas reformas fortalecen un poder opaco, erosionan las garantías democráticas y colocan a las poblaciones en una situación de vulnerabilidad constante frente al Estado.

Tecnología como atajo político: el falso remedio

Como se mencionó, el principal argumento del gobierno mexicano para impulsar la CURP biométrica y el nuevo paquete de reformas fue responder a la crisis nacional de desapariciones. Actualmente, México enfrenta más de 129.000 personas desaparecidas, más de 5.600 fosas clandestinas y una crisis forense con más de 70.000 cuerpos sin identificar. Se trata de una situación extrema que exige respuestas urgentes, integrales y respetuosas de los Derechos Humanos.

Sin embargo, el paquete de leyes no fue acompañado de argumentos que sostengan de forma clara y verificable cómo estas reformas legales y la nueva infraestructura de vigilancia contribuirían efectivamente a resolver esta crisis. Por el contrario, las causas estructurales, como la impunidad, corrupción, falta de capacidades forenses e institucionales, no fueron enfrentadas por las reformas. Colectivos de familias buscadoras y organizaciones de derechos digitales han advertido que el paquete legislativo no sólo elude las verdaderas causas de la crisis, sino que instala un sistema de vigilancia masiva sin garantías, que expone aún más a las personas defensoras y a la población en situación de vulnerabilidad.

El tecnosolucionismo presenta la tecnología como una solución mágica a problemas sociales complejos. Pero la tecnología, por sí sola, no resuelve esos problemas ni sustituye políticas públicas integrales. Al contrario, su implementación desmedida y sin garantías puede generar nuevas capas de control social, agravando riesgos a los derechos humanos.

Este fenómeno se agrava cuando las reformas legales y la adopción de tecnologías se realizan sin participación social ni debate público, como pasó en México. En América Latina, esta tendencia es cada vez más visible. Por ejemplo, la implementación creciente de tecnologías de reconocimiento facial para supuestamente mejorar la seguridad pública se ha justificado sin evidencia alguna de su efectividad ni participación social. En cambio, hay abundante evidencia de que estas tecnologías profundizan la discriminación y la violencia contra poblaciones ya marginalizadas, especialmente personas negras y trans.

Es importante reconocer que esta problemática y la narrativa del tecnosolucionismo no se limita a contextos autoritarios. Aunque se agrave en estos casos, también se observan en países cuyos gobiernos se presentan como defensores de los Derechos Humanos. Abordar la implementación de tecnologías desde un enfoque de derechos implica cuestionar quién la diseña y cómo se implementa, con qué objetivos y bajo qué condiciones, priorizando siempre la autonomía y la dignidad de las personas. Cuando el uso de estas tecnologías se legitima a través de legislaciones que no respetan marcos de Derechos Humanos ni contemplan procesos con participación social significativa, su implementación termina consolidando estructuras de control que perpetúan la vigilancia y la exclusión, en lugar de fortalecer la democracia y garantizar derechos.

Recalculando: nuevas estrategias para enfrentar los ajustes en la cooperación internacional

Las discusiones sobre la necesidad de reforma de los mecanismos de cooperación internacional no son nuevas. Hace mucho, organizaciones de distintas regiones del mundo han identificado la tendencia colonizadora de los fondos provenientes del Norte Global y la necesidad imperante de un cambio de perspectiva en cómo se trabajan dichos financiamientos. Las organizaciones sociales vienen reclamando la flexibilización de los fondos: algunos conllevan una carga administrativa importante y complejas metodologías de rendición de cuentas, que si bien pueden ser justificables, a veces se muestran impracticables para algunos grupos. Entre los puntos de crítica se encuentran la demanda de reportes de actividades trimestrales y semestrales, además de las restricciones de presupuesto a ciertos ítems, como personal, entre otros que perjudican la sostenibilidad de organizaciones que cumplen un rol clave en la defensa y protección de derechos.

Medidas así reflejan, en lo administrativo, una disparidad de poder que, en lo sustantivo, se revela en un intento por delimitar el ámbito de actuación de tales organizaciones. En relación con el ámbito tecnológico, hemos denunciado cómo ciertas instituciones promueven el desarrollo y despliegue de tecnologías en países del Sur Global sin considerar su potencial impacto a nuestras poblaciones. La preocupación ha sido recogida por agentes de la cooperación internacional que desarrollaron principios propios en consulta con distintos actores, entre ellos Derechos Digitales.

En un momento en que las posibilidades de diálogo y reflexión crítica sobre tales iniciativas parecían generar cambios de estrategia en algunas agencias, surge otro desafío: crisis económicas, cambios de prioridad y el ascenso de la extrema derecha ponen en jaque la disponibilidad de fondos. Ya para finales de 2024 se conversaba acerca de los recortes que algunos Estados de la Unión Europea (UE) implementarían en planes de desarrollo en países de bajos ingresos. La situación se agudizó a inicios de este año con hechos que reconfiguran todo el ecosistema de cooperación internacional.

2025: Ajuste y restricciones

Sin duda, 2025 llegó con importantes retos para las organizaciones sociales. Por un lado, con el avance de múltiples intentos por restringir cada vez más la acción de la sociedad civil a través de leyes que buscan reducir y controlar los activismos. Por otro lado, con la reducción internacional de las ofertas de financiamiento tradicionales derivada de las medidas adoptadas por el nuevo gobierno de Estados Unidos.

El proceso se inició con la suspensión de la ayuda internacional a través de USAID en enero de este año y culminó en el cierre definitivo de la agencia a inicios de julio, dejando a millones de personas en riesgo de muerte en los próximos años, según señala un estudio reciente. La acción repentina dejó además sin piso (en algunos casos de forma literal) a muchas organizaciones sociales en todos los continentes. No fue un cambio gradual, como la planificación de reducción de presupuesto de los países de la UE pensando en una ejecución a tres años. Tampoco fue algo que se venía advirtiendo en una larga discusión de cómo y cuándo. La decisión del nuevo gobierno de EE. UU. de no continuar con la ayuda internacional tomó totalmente desprevenido a un sector que, ya de por sí, es muy dependiente. Como nunca, las conversaciones sobre independencia financiera y descolonización en la cooperación internacional son vitales.

Si bien uno de los temas que más ha ocupado a la cooperación internacional es la medición de impacto, ahora se suma dimensionar el impacto de esta decisión en nuestros países y en las áreas de trabajo que atiende. Lo inmediato ya lo conocemos bien: despidos, mayor precarización (de un sector muchas veces ya precarizado) y una carrera por la búsqueda de alternativas de financiación que permitan sostener la defensa de derechos en contextos cada vez más riesgosos, así como los compromisos asumidos frente a poblaciones enfrentadas a distintos grados de vulnerabilidad.

Insistimos en resistir (y existir)

No es la primera vez en los últimos años que las organizaciones de derechos humanos latinoamericanas nos vemos enfrentadas a situaciones que ponen en riesgo nuestra propia posibilidad de existencia. Desde Derechos Digitales, y en particular desde las iniciativas de entrega de pequeños fondos que sostenemos, hemos visto la fuerza y resiliencia de estas organizaciones en contextos como la pandemia y el ascenso autoritario en la región. Hemos documentado la insistencia de defensores y defensoras de derechos humanos en seguir adelante incluso frente a múltiples amenazas contra su activismo y su vida, en un continente aún manchado por los altísimos niveles de violencia en su contra.

Esos pequeños recursos que advienen de donantes privados, así como otros de distintas iniciativas presentes en la región, siguen siendo insuficientes para dar cuenta de las consecuencias de los recientes recortes a la cooperación internacional, pero están disponibles para suplir parcialmente sus impactos en actividades puntuales y subsidiar la acción urgente en protección de comunidades y derechos. Por medio del Fondo de Respuesta Rápida (FRR), en 5 años de ejecución hemos podido colaborar con más de 100 proyectos distribuidos en 18 países de nuestra región. Además, a través del recientemente creado Fondo para los Derechos Digitales en América Latina (FDD), ya son 20 iniciativas acompañadas en 11 países. Las beneficiarias son lideradas por comunidades educativas, organizaciones de defensa de las personas LGBTQIA+, grupos indígenas, y otras que difícilmente tendrían acceso directo a fondos para explorar aspectos relacionados con las tecnologías y derechos digitales. Se trata de un experimento que ya ha demostrado buenos resultados, además de abrir una oportunidad adicional para que organizaciones locales fortalezcan sus capacidades y puedan participar activamente en la discusión y construcción de políticas de tecnologías en la región.

Adaptarse para seguir en carrera

Desde Derechos Digitales queremos garantizar alguna sostenibilidad para los fondos que gestionamos, y que también están sujetos a las variaciones que impone el escenario internacional. Para eso, también nos ha tocado adaptar algunas de nuestras acciones.

Con el compromiso de seguir buscando aportes de distintos donantes a esta iniciativa que se muestra de crucial relevancia para la región, hemos implementado algunos cambios al FDD que apuntan a garantizar la posibilidad de continuar operando por al menos dos ciclos más: 2025 y 2026.

Las principales modificaciones son:

1. Ciclos de evaluación: al inicio de estos fondos, se trabajó con dos ciclos de evaluación anuales, a mediados y a fin de año. A partir de julio de 2025 será un único ciclo anual.

2. Recepción de propuestas: el FDD recibía propuestas durante todo el año, independientemente de los ciclos de evaluación. Desde julio sólo se aceptarán postulaciones cuando se haga convocatoria, hasta nuevo aviso.

Por otro lado, se mantienen los requisitos para aplicar: organizaciones sociales registradas; se adjudica sólo un FDD por organización (a quienes ya lo recibieron, no pueden volver a aplicar pero sí pueden hacerlo al FRR); ajustarse a los ítems que este fondo puede financiar. Para conocer mejor todos estos detalles se puede visitar la página web de los fondos.

Esta es una modificación importante para el FDD y sabemos que tendrá un impacto en las organizaciones. Nuestro objetivo es mantener una opción de financiamiento hecha por latinoamericanas para latinoamericanas y, al momento, es nuestra mejor apuesta. La conversación sobre acceso a fondos de cooperación internacional, la sostenibilidad de las organizaciones sociales y el apoyo a las personas activistas sigue en pie, trazando caminos y nuevas formas de hacer nuestro trabajo. El mejor recurso del activismo son sus personas y su compromiso con sociedades justas, libres e igualitarias. Confiemos en eso, y adaptemos nuestras estrategias para que los vaivenes de las etapas históricas que nos tocan vivir no pongan en pausa nuestros sueños.

Hacia una convención para regular el trabajo de plataformas: un avance frente a los desafíos del mercado laboral

Las Tecnologías de Propósitos Generales -o GPTs- han tenido impactos significativos en el mercado laboral durante el último siglo. Esta última ola, caracterizada por las innovaciones en algoritmos e Inteligencia Artificial (IA), ya comienza a mostrar sus primeras consecuencias en términos de empleo. En general, los estudios identifican evidencia suficiente para afirmar que la IA generativa ha perjudicado la generación de empleo y los ingresos del sector freelance. Sin embargo, esto pareciera darse más que nada en las ocupaciones de ingresos medios y bajos, y más aún en los rangos etarios inferiores.

El avance acelerado de tecnologías como la IA y los sistemas automatizados de gestión del trabajo está transformando profundamente las dinámicas laborales a nivel global. En este contexto, la necesidad de contar con un marco normativo robusto y con alcance internacional se vuelve urgente: regular el trabajo en plataformas digitales implica también establecer límites y obligaciones claras sobre el uso de tecnologías como la IA en el mundo del trabajo, garantizando justicia algorítmica, protección social y derechos laborales efectivos para todas las personas trabajadoras, sin importar su estatus contractual o la ubicación de la empresa.

Es por ello que resulta crucial el abordaje sobre el Trabajo Decente en Plataformas y la importancia de su instalación en la agenda regulatoria internacional. La 113ª Conferencia Internacional del Trabajo (CIT), celebrada en Ginebra en junio de 2025, marcó un hito en la agenda global del trabajo: por primera vez, se avanzó formalmente hacia la elaboración de un instrumento internacional para regular el trabajo en plataformas digitales. En un escenario laboral transformado por las tecnologías digitales, este paso no es menor. El mandato final fue claro: se acordó avanzar hacia la redacción de una convención vinculante, acompañada por una recomendación, como marco para garantizar derechos básicos a aquellas personas cuyo trabajo es intermediado por plataformas digitales.

¿Qué nos deja la CIT 2025?

Este avance implica el reconocimiento por parte de los Estados, empleadores y trabajadores -los tres pilares de la OIT- de que la economía de plataformas no puede continuar operando sin garantizar condiciones justas. Y sobre todo, que las reglas para el trabajo decente deben ser globales: las plataformas operan transnacionalmente y los vacíos legales que explotan hoy se convierten en nuevas formas de desprotección.

Uno de los aspectos centrales fue la definición del alcance del futuro instrumento. Se llegó a un consenso para que abarque tanto a quienes desempeñan tareas “basadas en la localización” -como reparto, transporte o cuidado- como a quienes realizan trabajo “remoto” a través de plataformas digitales. Esta concepción amplia resulta especialmente relevante para América Latina, donde la fuerza laboral en plataformas está conformada en buena medida por personas de ingresos medios y con escasa calificación requerida, involucradas tanto en actividades presenciales como en servicios digitales a distancia -como la traducción de textos o el procesamiento de datos-. Ambos sectores, como vimos anteriormente, enfrentan con especial énfasis los efectos de la innovación tecnológica y la falta de marcos regulatorios adecuados.

Desafíos persistentes

Sin embargo, la CIT también expuso las tensiones profundas que persisten sobre qué tipo de trabajo debe regularse y cómo. Los puntos más críticos donde no hubo avances sustantivos son los mismos que hoy generan disputas en nuestros países:

1- La presunción de laboralidad, es decir, reconocer como regla general que quienes trabajan para una plataforma lo hacen en relación de dependencia y no como “autónomos” ficticios.

2- La definición de una remuneración adecuada: la tecnologización aporta flexibilidad a muchas tareas e incluso impacta en la productividad. Sin embargo, esto implica en muchos casos la dedicación de jornadas largas debido a la acumulación de múltiples tareas no consideradas como remunerables. Asimismo, el debate instaura discusiones en torno al uso de indicadores para establecer estas remuneraciones: ¿qué consideramos como ingreso digno?

3- La determinación del tiempo de trabajo: una categoría básica en el derecho laboral, pero borrosa en un sistema que exige estar disponible sin garantizar ingresos mínimos.

4- Habiendo suficiente evidencia sobre los sesgos discriminatorios que reproducen los algoritmos más allá de su diseño u origen, un tema de especial relevancia fue la transparencia y auditabilidad algorítmica. Debido a la asimetría de información entre las personas trabajadoras y las plataformas, se discutió la necesidad de que las plataformas informen de forma clara y accesible cómo operan sus algoritmos de asignación de tareas, evaluación del rendimiento y determinación de ingresos. Sin embargo, aún resta brindar claridad sobre cómo regular las decisiones automatizadas y su impacto en las personas trabajadoras.

5- Y, finalmente, resta profundizar el debate sobre los mecanismos de control y la posibilidad de aplicar la legislación local para resolver conflictos, un punto clave para evitar que las plataformas operen en zonas grises de legalidad.

El caso latinoamericano es ilustrativo: la mayoría de los países no cuentan con legislación específica sobre plataformas, y muchas de las iniciativas que buscaron avanzar en esa dirección han quedado truncas o debilitadas. A la vez, las reglas existentes han mostrado limitaciones para garantizar protección efectiva a las personas trabajadoras, porque fueron desarrolladas sin tomar en cuenta estos escenarios,  o por una debilidad de las instituciones encargadas de su supervisión y aplicación. Mientras tanto, las personas trabajadoras enfrentan bloqueos de cuentas sin justificación, ingresos inestables y jornadas extenuantes.

CIT 2026, una oportunidad histórica

En este contexto, el proceso iniciado en la CIT representa una ventana de oportunidad única. El próximo año será decisivo: en la CIT 2026 se definirá la aprobación (o no) del instrumento. Para que esta instancia sea efectiva, será necesario un trabajo articulado y sostenido por parte de sindicatos, organizaciones de la sociedad civil, investigadores y gobiernos. La participación de América Latina -aunque presente en las delegaciones gubernamentales- fue aún limitada desde la sociedad civil. Fortalecer esa voz será clave para que las demandas del Sur Global tengan peso en la redacción final.

Las nuevas tendencias del mercado laboral ya son tangibles. Vemos una realidad teñida de nuevos esquemas de productividad, sectores con perfiles de mayor demanda y otros en estancamiento. Ahora llegó el momento de definir en qué condiciones seguirá esta transformación: que esta realidad garantice derechos fundamentales con mecanismos de protección será responsabilidad de quienes, desde distintos frentes, podamos incidir en esta etapa.

Las tecnologías deben mitigar el cambio climático, no profundizarlo

«Transforma esta foto como si perteneciera al universo visual de Studio Ghibli, conservando el fondo y la pose. Aplica sus rasgos característicos: colores, trazos y texturas», este es el tipo de instrucción con la que el modelo conversacional de Inteligencia Artificial “ChatGPT” generó las imágenes que, un tiempo atrás, fueron tendencia en redes sociales y que atrajo a nuevas personas usuarias a la plataforma. Medios digitales saturados de nuevas publicaciones  y servidores de alojamiento remoto trabajando para almacenar los archivos recién creados fueron servicios muy demandados durante los días que duró la fiebre Ghibli. ¿Cuál fue el impacto ambiental? El más visible, sin duda, es el consumo de agua para el enfriamiento de servidores,  con un promedio estimado de 3 litros de agua por imagen generada

Ahora imaginemos el impacto ambiental de desechar mil computadoras de uso personal por segundo. Es el equivalente para los 62 millones de toneladas de residuos electrónicos generados a nivel mundial, según se registró en el año 2022. Considerando que el número de personas usuarias de internet en el mundo alcanzó los 5560 millones a principios de 2025, la demanda de recursos, tanto en software como de hardware, solo incrementará en los próximos años, dependiendo del  tipo de tecnología que se despliegue. ¿La solución al evidente problema es detener el avance tecnológico y su uso?

La solución no puede estar más lejos de eso. Aunque los modelos de producción tecnológica se basan en una lógica extractivista, sin considerar costos sociales o ambientales, las tecnologías tienen potencial para reducir el impacto. El uso eficiente de la infraestructura tecnológica es clave para mitigar la huella ambiental. Ciertas innovaciones incluso permiten reducir el uso de recursos naturales si son desplegadas adecuadamente. Algunos ejemplos son la computación en la nube, computación grid y virtualización en centros de datos: modelos que  se comportan como si fueran infraestructuras independientes mientras comparten recursos de un mismo servidor o red de servidores.

Si pensamos en el ciclo de vida de la tecnología, podríamos resumir las fases en: diseño, desarrollo y despliegue. Esta última etapa se realiza en infraestructuras robustas y resilientes, capaces de soportar altos niveles de demanda y peticiones por segundo garantizando respuestas rápidas. La magnitud del consumo varía según el tipo de servicio. Aunque en las fases previas también se requiera infraestructura, el consumo comienza a escalar cuando llega a su etapa de producción (despliegue), aumentando la demanda de energía y sistemas de enfriamiento para los centros de datos.

Algunas acciones para mitigar el impacto

Frente a un escenario que exige día a día más recursos, una de las alternativas es avanzar hacia la descarbonización del sector energético . Se trata de sustituir fuentes fósiles como carbón, petróleo y gas natural por insumos renovables como la energía solar o eólica. Algo de esto analizamos un tiempo atrás a raíz de la crisis energética en Ecuador.

Esta alternativa consolidó una nueva carrera por la neutralidad en emisiones de carbono. Así, multinacionales del sector tecnológico aseguran haber alcanzado esta neutralidad en emisiones de carbono y sostienen compromisos por lograr que toda su cadena de suministro y productos lo sean también. Sin embargo, la veracidad de las declaraciones y los mecanismos utilizados siguen bordeando el greenwashing, una práctica que busca confundir a las personas usuarias sobre el impacto medioambiental real de una empresa o producto. Así mismo, la sustitución de materiales al momento de construir piezas electrónicas o componentes, sin sacrificar rendimiento y calidad, ofrece una oportunidad competitiva a mercados que se aventuran a revolucionar la tecnología. Por ejemplo, en China, donde luego de atravesar limitaciones para el uso de microprocesadores basados en silicio, desarrolló un chip libre de este componente y lo reemplazó por bismuto reduciendo el consumo energético en un 10% e incrementando su velocidad en un 40%.

Otro esfuerzo  es el diseño de infraestructuras para una economía circular, un modelo económico que busca minimizar el desperdicio y maximizar el valor de los recursos, productos y materiales. Desde el inicio, es importante pensar en medidas como plantas de producción modulares y que puedan ser actualizadas, reutilizadas y reciclados sus materiales, además de planificar la recuperación de productos al final de su vida útil. Esto es aún más urgente considerando que solo alrededor de la cuarta parte de la basura electrónica es reciclada correctamente, dejando toneladas de residuos sin tratamiendo adecuado y desperdiciando recursos valiosos, en su mayoría, no renovables. 

Por otro lado, los centros de datos requieren condiciones mínimas para operar adecuadamente como seguridad, capacidad de almacenamiento, transferencia de datos, refrigeración y otros. Pensando en el enfriamiento de un data center promedio, se estima que consume 25 millones de litros de agua al año, lo que equivale a 68 mil litros por día. ¿Y si sumamos el consumo de todas las grandes empresas conocidas que gestionan redes sociales, navegadores web y tiendas en línea? Este consumo puede reducirse si se despliega  en zonas con con climas fríos o cerca de aguas de mar profundas. Un esfuerzo que considera la eficiencia energética y uso de agua es Green Mark Certification for Data Centres en Singapur. 

Un compromiso compartido

La gobernanza de las infraestructuras tecnológicas debería centrarse en la justicia ambiental, respetando y promoviendo derechos y sostenibilidad. Las decisiones sobre qué tecnologías se desarrollan, cómo y para quiénes, deben incorporar una perspectiva social y ambiental en todas sus etapas. Desde la planificación de explotación de minerales necesarios para la construcción de componentes electrónicos hasta el uso de una IA para enseñar idiomas en territorios indígenas, todo debe regirse por modelos de gobernanza comunitarios y no por lógicas extractivistas.

Además, es fundamental incentivar iniciativas que potencien proyectos como redes de Internet autosustentables en comunidades, centros de datos locales y uso de tecnologías, que potencien capacidades situadas. A esto se suma la ciencia abierta, el conocimiento libre y el código abierto como componentes estratégicos para la autonomía e independencia de infraestructuras corporativas y privadas.

El equilibrio entre tecnología y medio ambiente solo será posible si transformamos  la infraestructura digital desde su origen, haciéndola parte de la solución y no del problema. Esto implica proyectar fábricas impulsadas con energía solar in situ, centros de datos enfriados con agua del mar sin riesgos ambientales, procesos de desmontaje eficientes en instalaciones de reciclaje adecuadas y redes inteligentes de distribución, como documenta Google con el proyecto IA de DeepMind, que redujo un 40% el consumo energético para refrigeración.

Pero nada de esto será suficiente sin una voluntad política y ética clara. Reconocer la interdependencia entre sostenibilidad ecológica y equidad social es solo el primer paso: lo que sigue es actuar colectivamente para transformar modelos tecnológicos actuales. Urge reducir la dependencia de sistemas corporativos opacos y avanzar, desde la sociedad civil, comunidades, gobiernos y el sector privado, en la construcción de  de políticas públicas, normativas e infraestructura que prioricen el bien común, fomenten la justicia social y ambiental, y garanticen transparencia y rendición de cuentas a toda la ciudadanía.

Hablar en clave para existir: resistencias digitales frente a la censura algorítmica

Estas frases alteradas aparecen en redes cada vez que abordamos temas que desafían las normas impuestas por el algoritmo: 4bu$o s3xual, su1c1d1o, desvivir. Se le llama “algospeak” a estas estrategias de lenguaje que buscan eludir la vigilancia de plataformas como TikTok, YouTube o Instagram a ciertos contenidos considerados inapropiados. Así se forma un código lleno de caracteres y eufemismos que no surge de la creatividad, sino de la necesidad de resistir un sistema que a menudo castiga la discusión de una realidad muchas veces incómoda mediante el silenciamiento.

La gestión algorítmica no solo limita el presente, también interviene en la posibilidad de construir futuros más justos. Al condicionar qué narrativas son visibles y cuáles no, los algoritmos afectan directamente la capacidad de articular ideas, reflexiones, desacuerdos y alternativas.

Las voces que denuncian violencias estructurales son etiquetadas como “inapropiadas” o simplemente eliminadas. De hecho, las personas defensoras de derechos humanos, activistas y periodistas son especialmente afectadas, porque sus relatos son sistemáticamente considerados como “sensibles” o “peligrosos” por sistemas que no entienden el contexto ni el propósito de las expresiones detectadas por los filtros automatizados.

Esta jerarquización automática de los discursos revela una visión del mundo profundamente sesgada. El algospeak es síntoma de un entorno que redefine lo que podemos decir, que aplica controles automáticos y reorganiza lo que consideramos importante. Pero el daño no es solo individual: afecta también lo que recordamos y cómo construimos colectivamente nuestros relatos en la defensa de los derechos humanos.

La doble vara del algoritmo

Los estándares de las plataformas no se aplican con el mismo rigor para todos los contenidos ni para todas las voces. Un ejemplo claro de este desbalance ocurrió en México, cuando publicaciones que denunciaban abusos policiales fueron eliminadas por usar música con derechos de autor. Aunque el objetivo era denunciar violencia institucional, el algoritmo priorizó la protección de propiedad intelectual por sobre el derecho a la verdad y la justicia. Al mismo tiempo, contenidos que promovían discursos misóginos o racistas se mantuvieron visibles sin consecuencias.

Esta doble vara, que castiga la denuncia y deja pasar el abuso, no es un error: es una consecuencia directa de sistemas diseñados sin contexto, sin perspectiva de derechos y sin rendición de cuentas. Se censuran las pruebas, pero no las violencias. Se penalizan las denuncias, pero no las estructuras que las provocan. Al proteger ciertas narrativas y silenciar otras, los algoritmos refuerzan el statu quo y erosionan las posibilidades de transformación social.

Además, según recoge la Red Internacional de Periodistas, este es un juego asimétrico. En ese laberinto de claves y restricciones, lo que está en riesgo no es solo el alcance inmediato; las denuncias se vuelven más difíciles de rastrear, y la información concreta de organizaciones, activistas o movimientos sociales desaparece para quienes más la necesitan.

El impacto en la acción colectiva y la memoria

El control automático que penaliza palabras sin ponerlas en contexto condiciona la forma en que narramos nuestras luchas, ya que nos obliga a moldear las palabras que usamos para nombrar nuestras realidades. En muchos casos, estas son palabras que han costado años conceptualizar y consensuar dentro de los movimientos sociales. Al no llamar las cosas por su nombre, se diluye el mensaje y se fragmenta la memoria colectiva.

Como advierte la revista Forced Migration Review, cuando comunidades en condiciones vulnerables se reapropian de términos o usan lenguajes de denuncia, los algoritmos parecen ser más efectivos para eliminar sus contenidos que para moderar discursos de odio o acoso que les atacan. Este desbalance se vuelve crítico cuando miramos quiénes quedan sistemáticamente fuera de las reglas del juego. Las experiencias de personas refugiadas y/o racializadas, por ejemplo, se vuelven aún más invisibilizadas.

Existe un desfase entre los contextos locales y las reglas impuestas globalmente por las plataformas. Muchas veces, los sistemas de moderación algorítmica no están adaptados a las realidades sociales, culturales y lingüísticas de comunidades del Sur Global, lo que intensifica la exclusión digital. Una palabra que en un idioma puede ser una forma legítima de denuncia, en otro es catalogada como violenta o riesgosa. Esta desconexión refuerza la desigualdad en el acceso a la palabra pública y subraya la necesidad de una moderación en el entorno digital que escuche y responda a las realidades plurales que habitan internet.

Quienes dominan los códigos pueden sortear la censura; quienes no, quedan afuera de la conversación. El Digital Future Society alerta que a activistas, creadores de contenido y periodistas se les exige desarrollar un lenguaje que se reinventa una y otra vez frente a la opacidad algorítmica. Pero cuando las palabras cambian constantemente para eludir la censura, se vuelve más difícil ponerlas en común y hacerlas accesibles para otras personas. Frente a estas restricciones debemos repensar cómo nos comunicamos y qué estrategias podemos adoptar.

¿Cómo resistimos?

Nombrar con claridad es un acto político. Llamar las cosas por su nombre, sin eufemismos, es también una forma de resistencia. Reapropiarse del lenguaje algorítmico no significa aceptarlo, sino visibilizarlo como síntoma de un sistema injusto. Algunas organizaciones ya crean glosarios y recursos compartidos para descifrar el algospeak, como el Algospeak Dictionary del Colectivo de Derechos Digitales para la Salud y los Derechos Sexuales y Reproductivos. Democratizar estos conocimientos es clave para que más personas puedan resistir y participar.

También necesitamos exigir mayor transparencia algorítmica. Las plataformas deben explicar cómo moderan y bajo qué criterios y con qué sesgos. Este reclamo no es técnico: es político. Implica defender la libertad de expresión, pero también proteger los temas políticos, culturales y sociales que importan y que hoy están siendo eliminados por sistemas automatizados.

Por último, urge construir y habilitar redes que no estén subordinadas a intereses corporativos. Espacios descentralizados como el fediverso, los medios comunitarios, cooperativas digitales o las alianzas entre organizaciones pueden resguardar nuestras narrativas y sostener la memoria. Resistir también es cuidar redes donde nuestras palabras no sean censuradas por algoritmos opacos.

Palabras que pesan

Las palabras tienen peso. Y cuando las escribimos completas, aunque duelan, aunque molesten, estamos recordando que hay cosas que no pueden ser contenidas, ni siquiera por un algoritmo. Recuperar el lenguaje, cuidarlo y defenderlo es una tarea urgente para quienes luchan por una internet más justa.

En tiempos de automatización y censura silenciosa, reapropiarnos del derecho a nombrar también es reapropiarnos del derecho a existir. No basta con adaptarse: necesitamos transformar el entorno digital para que nuestras palabras no tengan que esconderse.

El desafío de construir el futuro de los derechos humanos

La historia de Derechos Digitales comenzó hace dos décadas apostando a una idea común: que las tecnologías permitirían democratizar el ejercicio de un conjunto de derechos humanos de los cuales buena parte de nuestras poblaciones se veían excluidas. En particular, los derechos a acceder y compartir libremente contenidos artísticos, culturales y científico-académicos, así como noticias y opiniones sobre una amplia variedad de temas. Iniciamos nuestro activismo luchando por garantías a estas libertades en el ámbito tecnológico: que no se impusieran barreras técnicas ni jurídicas al acceso. Al contrario, que los nuevos marcos protegieran y desarrollaran nuestros derechos digitales.

Si bien nuestros orígenes se enmarcan más de una década después de que la apertura democrática en la mayoría de los países del Cono Sur abriera espacio a las primeras iniciativas sociales similares, construimos nuestro trabajo a partir de sus luchas y logros, y de las reflexiones y avances de movimientos iniciados años antes. No partimos desde cero, sino desde un mapa que ya mostraba zonas de conflicto, alianzas posibles y caminos por ensayar.

Una historia construida sobre sueños de libertad

Nuestra relación más obvia, al haber sido responsables de la adaptación y difusión de las licencias Creative Commons a Chile, es con el movimiento de “cultura libre”: con el que compartimos la resistencia al avance desenfrenado de la propiedad intelectual como mecanismo para controlar la circulación de contenidos digitales y proteger antiguos monopolios culturales y mediáticos. Sin embargo, este también nace con fuerte inspiración en dos movimientos previos: el que se construye alrededor del software libre, y aquel que se origina de las disputas por el acceso libre al conocimiento, en particular el acceso a la literatura científica.

El primer texto de nuestra actual página web, con fecha de 5 de mayo de 2005 refleja esta vinculación fundante. Su título: “¿Qué es el software libre?”. Su conclusión:

Considerando las políticas de licenciamiento impuestas por soluciones propietarias, las que suelen socavar las libertades ciudadanas, los beneficios que reporta el trabajo colaborativo y el aliciente para el desarrollo nacional, y los costes asociados a la implementación de soluciones informáticas de código abierto, Derechos Digitales manifiesta su decidida opción por el software libre u open source”.

Otro ejemplo del mismo mes, que apunta al vínculo con movimientos más tradicionales de derechos humanos, es el texto de Daniel Álvarez Valenzuela, fundador y entonces director de Derechos Digitales. Según él, internet podría “conferir a los ciudadanos ‘de a pie’ las mismas posibilidades de ejercer su derecho a la libertad de expresión que los grandes grupos económicos”.

Así, al argumentar sobre cómo la propiedad intelectual representaba una “mordaza” a la libertad de expresión, Álvarez recupera las reivindicaciones del fuerte activismo por la libertad de expresión y el derecho a la comunicación en América Latina. Movimientos responsables por denunciar la censura estatal y cuestionar el monopolio económico de los medios de comunicación en nuestra región.

Nuestros primeros textos reflejan otras relaciones con temáticas de interés de distintos grupos: transparencia y acceso a la información, acceso a la justicia, protección de datos, entre otras. Si bien esas referencias ampliaban el marco conceptual desde el cual abordábamos lo digital, nuestras alianzas y formas de trabajo siguieron, durante bastante tiempo, ligadas sobre todo a comunidades técnicas y jurídicas. Así, por mucho tiempo nuestro trabajo se enmarcó en un nicho dentro del amplio espectro del activismo en derechos humanos.

Promesas secuestradas

En 20 años de actuación, maduramos nuestra concepción sobre estas bases, siempre buscando proteger el ejercicio de derechos facilitado por las tecnologías de intentos de captura, criminalización y vigilancia. Pero lo que antes tomaba la forma de una discusión técnica, jurídica y delimitada a un ambiente digital accesible a una pequeña élite regional, hoy está en el centro de las preocupaciones cotidianas de un sinnúmero de personas afectadas de diferentes formas por las tecnologías digitales.

Primero porque el acceso a internet se ha incrementado significativamente en la región, aunque de manera desigual y a menudo en condiciones precarias. Las brechas no son solo de infraestructura, sino también de calidad, asequibilidad y autonomía. Muchas conexiones son lentas, inestables o costosas, y buena parte del acceso ocurre exclusivamente vía móvil, con planes que restringen contenidos y vulneran el principio de neutralidad de la red. Además, persiste una desigualdad profunda en el acceso a dispositivos adecuados y en las competencias necesarias para usar internet de forma segura, crítica y orientada al ejercicio de derechos. La desconexión ya no es el único problema: también lo es una conectividad limitada, subordinada y sin garantías.

Segundo porque ya no es necesario “estar” en internet para sentir los efectos de la digitalización que –a pesar de la eterna promesa de eficiencia– parece haber traído más riesgos que ventajas. La digitalización atraviesa hoy el acceso a servicios esenciales como salud, educación o justicia, sin que existan garantías adecuadas para todas las personas. Estas transformaciones, impulsadas muchas veces por actores privados sin transparencia ni control democrático, o embelesadas por la promesa de la inteligencia artificial, terminan agravando desigualdades y generando nuevas formas de exclusión. Si antes una preocupación central era con el filtrado de datos y la ciberseguridad, a ella se suman también las consecuencias tangibles de los mismos, la violencia y la manipulación del debate público digital a nuestras vidas y sociedades. Ya no hablamos solo de acceso a información, sino de la posibilidad misma de participar en la esfera pública sin ser invisibilizadas, acosadas o manipuladas.

Tercero, porque nuestros cuerpos son capturados y transformados en rastros digitales explotables para distintos fines ajenos a nuestra voluntad, a medida que las tecnologías digitales se aplican para mediar nuestro acceso a espacios y derechos. La expansión de sistemas de identificación biométrica, el monitoreo de actividades y el análisis predictivo han convertido nuestra vida en datos a explotar y nuestras huellas digitales en materia prima para el control social, la discriminación automatizada y la extracción de valor. Lo que alguna vez se entendió como mediación tecnológica, hoy opera como filtro, barrera o condición de acceso a la vida en sociedad.

Las promesas de apertura, descentralización y acceso que inspiraron el nacimiento del campo han sido sistemáticamente desplazadas por dinámicas de concentración, extracción y control que definen las infraestructuras digitales contemporáneas.

En estas condiciones, el entorno digital ya no parece un espacio naturalmente propicio para el ejercicio de derechos. Lo que comenzó como un terreno fértil para imaginar nuevas libertades, hoy plantea desafíos más urgentes, más desiguales, más difíciles de revertir. Pero si algo hemos aprendido en estos veinte años, es que el conflicto no clausura la posibilidad, sino que nos obliga a repensar nuestro trabajo.

Por el derecho a soñar

A pesar de estos patentes cambios y de un contexto geopolítico internacional refractario a las narrativas de derechos humanos, hoy más que nunca nos parece central reivindicar nuestra misión. No como una consigna repetida, sino como una tarea que se redefine constantemente frente a amenazas más sofisticadas, actores más poderosos y exclusiones más profundas. El escenario que enfrentamos es a menudo hostil, pero también más disputado: cada vez hay más fisuras que visibilizan una diversidad de voces que reclaman por justicia. Voces que requieren ambientes seguros para seguir manifestándose y entornos habilitantes, incluso a nivel digital.

A 20 años de nuestra fundación, seguimos apostando en el software libre para garantizar libertad, autonomía y protección. Mantenemos nuestra convicción en la necesidad de democratizar las comunicaciones y romper con los monopolios que se actualizan cada día a costa de la libertad de nuestras comunidades. Confiamos, más que nunca, en que los derechos humanos son una herramienta viva para enfrentar las crisis del presente y construir el futuro.

Los próximos años exigirán más que resistencia: necesitaremos nuevas alianzas, nuevas formas de incidencia y una comprensión más amplia de qué significa hoy defender derechos en entornos digitales. Necesitaremos resiliencia y solidaridad. Desde los márgenes donde trabajamos como sociedad civil latinoamericana y en toda la región, sabemos que no basta con reaccionar, sino que debemos proponer el futuro que queremos. Este seguirá siendo nuestro lugar.

Cuando la ciberseguridad es cooptada por la inteligencia estatal

La ciberseguridad se ha consolidado como un tema primordial para los Estados latinoamericanos en los últimos años. Entre la creciente digitalización y las amenazas cibernéticas, se ha impulsado la formulación de estrategias nacionales y otras políticas públicas que establecen tanto los objetivos de los gobiernos en la materia, como, en muchos casos, las entidades responsables de su implementación. En ese contexto, y como señalamos en una reciente publicación, es fundamental abordar a las políticas de ciberseguridad desde enfoques basados en derechos humanos que coloquen a las personas al centro de las acciones de prevención y respuesta a los ciberataques contemplando sus riesgos específicos y necesidades, priorizando el ejercicio de derechos fundamentales. En las últimas semanas, Argentina ha captado la atención del ámbito de la ciberseguridad debido a una serie de decisiones gubernamentales que han encendido varias alarmas.

¿Qué fue lo que ocurrió?

En septiembre de 2023, Argentina aprobó su Segunda Estrategia Nacional de Ciberseguridad, un documento que, a primera vista, representó un avance significativo en la región al incorporar principios de derechos humanos y perspectiva de género. No obstante, ese enfoque ha quedado en entredicho tras una serie de decisiones adoptadas por el gobierno actual. En julio de 2024, la reestructuración del Sistema de Inteligencia Nacional -que disolvió la Agencia Federal de Inteligencia y restituyó sus funciones a la vieja Secretaría de Inteligencia del Estado (SIDE), restablecida bajo el control directo y exclusivo del Poder Ejecutivo- marcó el primer giro. Luego, en abril de 2025, con el Decreto 274/2025, la preocupación se intensificó: la SIDE pasó a controlar la Agencia Federal de Ciberseguridad y, con ello, la implementación de la Estrategia Nacional y la operación del CERT.ar. Este modelo de gobernanza en la política de ciberseguridad no tiene precedentes, ni dentro ni fuera de América Latina.

A la par de dichas reformas, en mayo de 2025 la SIDE aprobó el Plan de Inteligencia Nacional (PIN). Este es un documento definido por el gobierno como “secreto”, que establece los lineamientos del Sistema de Inteligencia para “promover los intereses estratégicos” del gobierno. Al PIN sólo tienen acceso el presidente, la SIDE y la Comisión Bicameral Permanente de Fiscalización de los Organismos de Inteligencia. Esta restricción para la consulta del documento siembra de entrada preocupaciones no solo sobre su opacidad sino sobre los retrocesos que pueda representar para las libertades y los derechos fundamentales de la ciudadanía. Más aún, y según lo señalado por medios como La Nación que ha logrado acceder al documento extraoficialmente, el PIN otorga facultades a la SIDE para recabar información sobre todas aquellas personas que, a criterio de la entidad, “erosionen” o “manipulen” la confianza de la opinión pública sobre las políticas de seguridad y económicas del gobierno actual; una práctica prohibida por la propia Ley de Inteligencia Nacional

La aprobación del PIN despertó las alarmas del gremio periodístico y del sector de la sociedad civil argentina, pues la ampliación de las facultades operativas de la SIDE básicamente legitima la persecución y vigilancia a quienes expresen opiniones críticas, un pilar fundamental para el debate democrático. De hecho, el periodista de la Nación que reveló la existencia del nuevo documento de inteligencia estatal reportó ataques a sus cuentas de redes sociales, así como amenazas recibidas a través de estas. La gravedad de este caso visibiliza un patrón sistemático en el país y en la región que amenaza la libertad de expresión así como el derecho de acceso a la información pública, aspectos que hemos documentado en otros artículos.

Los peligros del cambio en la gobernanza de la ciberseguridad

Designar la ciberseguridad al mando de organismos de inteligencia implica un retroceso en la medida que desplaza el enfoque centrado en las personas, limita la participación social y profundiza riesgos de vigilancia. Este cambio se alinea con una concepción conservadora de la ciberseguridad, anclada en una visión técnica centrada exclusivamente en la protección de infraestructuras críticas del Estado, puesto que las agencias de inteligencia tienen como núcleo la protección de los intereses estatales desde el ámbito de la seguridad nacional. Es importante destacar que este enfoque ha sido paulatinamente superado por marcos más integrales y centrados en derechos humanos, que colocan a las personas en el núcleo de las políticas de prevención y respuesta.

Sumado a lo anterior, disponer el desarrollo y la implementación de políticas de ciberseguridad bajo la estructura oculta de la inteligencia estatal, lejos de ser un detalle técnico, reactiva una lógica peligrosa y ya conocida en la región: la priorización discursiva de la seguridad nacional como justificación para restringir libertades fundamentales. A saber, a lo largo del siglo pasado, esta narrativa fue utilizada por regímenes dictatoriales para vigilar, censurar y reprimir a la disidencia bajo la «doctrina de seguridad nacional».

Ahora bien, uno de los pilares en los procesos de Memoria, Verdad y Justicia en la superación de las dictaduras de la región ha sido precisamente la exigencia de límites democráticos al accionar de las agencias de inteligencia. La persistencia de mecanismos opacos y sin controles –como es el caso argentino– no solo es un problema de transparencia, sino una evidencia de que las prácticas y finalidades mismas de dichas agencias siguen siendo incompatibles con los principios democráticos, lo que va en contramano de fallos históricos recientes en la región.

En el escenario argentino, el rediseño del sistema de inteligencia y el traspaso del control de la ciberseguridad a la SIDE no son hechos menores ni aislados, sino parte de un proyecto político del actual gobierno. Este proyecto impulsa discursos y medidas abiertamente regresivas en temas como género, diversidad, protesta social y acceso a la información pública, que han sido denunciados por organismos y organizaciones internacionales como la Relatoría Especial para la Libertad de Expresión de la OEA y Reporteros Sin Fronteras. Esta agenda antiderechos tiene graves impactos especialmente sobre grupos históricamente vulnerables, entre ellos mujeres y personas LGBTQIA+, que además son un blanco frecuente y desproporcionado de las prácticas de vigilancia y los ataques digitales, particularmente quienes ejercen liderazgos políticos, sociales o periodísticos. Precisamente, quienes deberían estar en el centro de las políticas de ciberseguridad son quienes más riesgos enfrentan con los recientes giros autoritarios.

El cambio de gobernanza en cuestión se articula, además, con decisiones geopolíticas de alineamiento expreso con los intereses de Estados Unidos e Israel, países mencionados explícitamente como referentes estratégicos en el nuevo PIN argentino. Esta alineación no solo refuerza una lógica de seguridad nacional que pone en tensión los derechos fundamentales, sino que también reproduce un modelo caracterizado por la concentración de poder y la falta de controles democráticos efectivos. En el caso argentino, donde no existen mecanismos efectivos institucionales de fiscalización sobre las agencias de inteligencia, la pregunta que se impone con fuerza es ¿quién vigila a quienes vigilan?

Implicancias del caso argentino para nuestra región

El caso argentino hace eco en hechos históricos y expone cómo los marcos legales pueden ser utilizados para habilitar prácticas autoritarias. Además, y tomando como referencia un informe reciente de Derechos Digitales, junto a otras acciones realizadas por el gobierno argentino el último tiempo, como la Resolución 428/2024, el caso consolida un rumbo para el despliegue de prácticas de vigilancia bajo normas poco claras, un camino que el Estado ya venía trazando desde 2020. Lo ocurrido en las últimas semanas formaliza dichas actividades y habilita otras como el monitoreo masivo en redes, bajo una estructura que convierte la ciberseguridad en un instrumento político para vigilar y silenciar a la disidencia.

Como vemos, el problema no es nuevo; lo nuevo es que se legitiman la persecución y la vigilancia por vía legal. Estamos ante una disputa política que requiere respuestas claras por parte de los Estados. La región evidencia un panorama en el cual crece la tolerancia hacia formas autoritarias de gobierno. Argentina, un país considerado históricamente como referente en materia de derechos humanos, se ha venido alejando de ese lugar. Este retroceso insta a la activación de compromisos concretos del resto de los países de la región, no solo para construir y defender estándares comunes, sino para impedir que un modelo de ciberseguridad como este sea replicado.

La preocupación es aún mayor considerando que Argentina es uno de los países de América Latina con las estructuras institucionales más robustas en esta área. Cuenta con más recursos técnicos, capacidades operativas y fuerza política que muchos otros. En una región marcada por profundas asimetrías entre países —donde muchos carecen de marcos sólidos, personal capacitado y financiamiento adecuado para la ciberseguridad—, existe el riesgo real de que modelos autoritarios como el argentino influyan negativamente en el diseño de políticas públicas en otros Estados.

Reafirmar un enfoque en ciberseguridad basado en derechos humanos no es una aspiración técnica, sino una urgencia democrática. La protección de la privacidad, la libertad de expresión y la inclusión digital debe estar en el centro de toda política pública en la materia. Fortalecer la gobernanza democrática -con participación multisectorial, perspectiva de género y atención a las desigualdades estructurales cómo las de género- es una tarea impostergable. Solo así podremos construir resiliencia digital sin ceder las libertades que sostienen nuestras democracias.