Cooperativas tecnológicas: otra narrativa para el futuro digital

Hablar de derechos digitales en América Latina implica, muchas veces, enfrentarse a un ecosistema profundamente desigual. Las grandes empresas tecnológicas concentran poder económico y político, dictan las reglas de la comunicación en línea y, de manera sistemática precarizan la vida de millones de personas trabajadoras. Desde quienes desarrollan software sin estabilidad laboral, hasta repartidores que sostienen con su cuerpo la economía de plataformas, expandiéndose una lógica de extracción de datos, de recursos y de vidas.

Frente a eso, es posible imaginar otros futuros. Y no solo imaginar, también construirlos, poco a poco, en las decisiones cotidianas del presente. Una de esas formas ha sido reivindicar cómo trabajamos y con quién trabajamos. Elegir cooperativas, colectivos y tecnologías libres no es simplemente contratar servicios; es parte de un gesto político de coherencia. Una manera de decir que nuestros valores como la privacidad, la libertad de expresión, el trabajo colaborativo, la justicia social y la participación democrática, no se quedan en el papel, sino que atraviesan también nuestras prácticas.

Narrativas en disputa: del dominio corporativo a la cooperación

Las big tech han impuesto no solo sus plataformas, sino también sus narrativas: que el desarrollo tecnológico es inevitable, que la innovación es neutra, que el éxito depende de la escala. Ese relato invisibiliza las formas alternativas de producir tecnologías, desde economías solidarias hasta infraestructuras comunitarias, y también atraviesa debates más recientes, como los de la inteligencia artificial. En nuestro informe Latin America in a Glimpse 2024 mostramos que en la región ya existen miradas situadas que disputan esos discursos dominantes, y que impulsan una IA comunitaria, ética y decolonial, parte de un esfuerzo más amplio por pensar tecnologías desde nuestras realidades.

Allí también entran las cooperativas tecnológicas. Una cooperativa no es solo una empresa distinta, sino un intento del trabajo desde otros principios: decisiones compartidas, distribución más equitativa del valor y una mayor consideración de la vida de quienes participan. No es un modelo perfecto ni libre de tensiones, pero refleja una aspiración de alejarse de la lógica extractiva dominante y acercarse a formas de colaboración más horizontales y cuidadosas.

El informe Plataformas de propiedad de las personas trabajadoras e interseccionalidad (WOIP), realizado con cooperativas y colectivos de Brasil y Argentina que producen y gestionan tecnología desde sus propios espacios de trabajo, ya sea programando software, diseñando servicios digitales, sosteniendo infraestructuras comunitarias o creando alternativas de reparto, muestra que estas experiencias no solo enfrentan al poder corporativo, sino que también disputan la imaginación sobre lo que la tecnología puede ser. Desde la “soberanía digital popular” del Movimiento de Trabajadores Sin Techo en Brasil, hasta la “intercooperación” de la Federación Argentina de Cooperativas de Tecnología (FACTTIC), lo que aparece es un mosaico de alternativas que priorizan la diversidad, el cuidado y la dignidad laboral.

La investigación-acción de WOIP también muestra que pensar en cooperativas tecnológicas no es solo una cuestión organizativa, sino una forma distinta de ubicar la tecnología en nuestras sociedades. Uno de los aportes centrales del informe es la idea de “cuidar antes de programar”. En la práctica, esto significa incorporar principios de cuidado, diversidad e interseccionalidad en el diseño de plataformas y servicios. Cooperativas como FACTTIC en Argentina o colectivos en Brasil han mostrado que es posible organizar el trabajo tecnológico de manera que las decisiones no dependan únicamente de la eficiencia técnica, sino también de la inclusión de voces diversas y de la sostenibilidad de las comunidades involucradas.

Y no es solo el campo tecnológico. Por ejemplo, el libro CAPS LOCK: Cómo se apropió el capitalismo del diseño gráfico y cómo escapar de ello de Ruben Pater y Manuel Moreno nos recuerda que existen colectivos de diseño en distintas partes del mundo que han desafiado durante años las lógicas de competencia y explotación en su práctica profesional. Experiencias como Brave New Alps (Italia), Common Knowledge (Reino Unido), Cooperativa de Diseño (Argentina), Mídia NINJA (Brasil), Open Source Publishing (Bélgica) o The Public (Canadá) muestran que es posible sostener prácticas gráficas y culturales desde principios anticapitalistas. Sus trayectorias ofrecen aprendizajes útiles para entender las posibilidades, junto con los desafíos y obstáculos concretos que enfrentan quienes buscan cambiar la forma en que trabajamos y creamos.

La campaña internacional Hire a Coop, que comenzó animando a las universidades a contratar cooperativas para llevar a cabo servicios de desarrollo y diseño, va en la misma línea: visibilizar que existe un mundo alternativo al de Silicon Valley, un mundo donde la contratación de servicios tecnológicos puede ser un acto de justicia, una forma de redistribución y una apuesta por modelos más democráticos de innovación.

Por ello, vemos en esas experiencias y campañas un recordatorio potente: disputar el modelo de las grandes tecnológicas es regular o criticar sus excesos, y también huir de sus tentáculos y explorar y visibilizar las prácticas que ya existen en la región y el mundo. Cooperativas, colectivos y comunidades digitales están demostrando que es posible producir tecnología desde otros valores, y nuestro rol también es acompañar, amplificar y aprender de esas iniciativas.

Nuestra experiencia: prácticas que buscan coherencia

En Derechos Digitales también hemos intentado recorrer este camino. Cuando llegó el momento de crear nuestro nuevo sitio web, elegimos trabajar con el Maizal, una cooperativa de Argentina que no solo entendió nuestros criterios de privacidad y seguridad, sino que se relacionó con nosotras desde la horizontalidad y el respeto mutuo. No fue una elección meramente técnica, sino parte de un compromiso por alinear lo que defendemos en nuestra comunicación con la manera en que producimos esa comunicación.

Esta decisión se suma a otras que forman parte de nuestra práctica institucional, como optar crecientemente por software libre, mantener nuestra agencia en las comunicaciones internas, y resguardar el control sobre nuestra información y programas. Son pasos que buscan coherencia entre discurso y práctica. Y sabemos que es un camino aún en construcción, donde seguiremos aprendiendo, corrigiendo y equivocándonos.

Pero creemos que esa es la clave: atreverse a ensayar, a equivocarse y a volver a intentar. Porque disputar las narrativas sobre el futuro tecnológico no se hace solo con palabras, sino también con prácticas concretas, con elecciones cotidianas que nos recuerdan que otra tecnología es posible y que podemos demostrar a otras que no estarán solas en la exploración de ese camino. Y esa otra tecnología empieza también en cómo decidimos trabajar juntas, cómo elegimos organizarnos y cómo construimos, en colectivo, un futuro más justo.

Infancias en línea: riesgos, regulaciones y desafíos para América Latina

En 2017, el Fondo de las Naciones Unidas para la Infancia (UNICEF) publicó la estimación de que 1 de cada 3 usuarios de internet en todo el mundo era niño, niña o adolescente. A pesar de que aún existen muchos jóvenes que no tienen un acceso significativo a internet – y de que esto constituye un problema de orden primario -, es posible que hoy, casi una década después, la proporción de personas con menos de 18 años en entornos digitales sea aún mayor. En la realidad latinoamericana, estadísticas de países como Brasil, Argentina y México muestran que niños, niñas y adolescentes no solo pasan cada vez más tiempo conectados, sino que también comienzan a acceder a internet a edades cada vez más tempranas.

El punto sobre el cual UNICEF venía alertando al menos desde 2017 es que la infraestructura y las aplicaciones de internet, en esencia, no fueron diseñadas para este público, ni evolucionaron considerando la etapa de desarrollo físico, cognitivo y psicosocial que atraviesan niños, niñas y adolescentes. A esto se suma la lógica de explotación comercial sobre la cual opera internet desde hace años, muy distante de aquella idea inicial de un espacio libre, abierto y creativo. Estos factores exponen a los más jóvenes a una serie de riesgos online, considerablemente más graves que para los usuarios adultos.

En los últimos meses, la discusión sobre estos temas se intensificó. En el Reino Unido entró en vigor un paquete de medidas regulatorias que coloca en el centro la protección infantil en línea. En Brasil, el debate ganó aún más visibilidad tras una denuncia sobre la “adultización” e hipersexualización de niños y adolescentes en entornos digitales. Ambos episodios muestran cómo la agenda de protección en internet se consolidó como un tema urgente en todo el mundo. Sin embargo, es importante reflexionarlo desde una perspectiva localizada desde el contexto latinoamericano.

Niños y adolescentes están, de hecho, en riesgo en internet

La OCDE clasifica los riesgos a los que están expuestos niños, niñas y adolescentes en internet en cuatro categorías – las “4 C’s”. La primera son los riesgos de exposición a contenido inadecuado, como materiales nocivos, discursos de odio, desinformación u otros contenidos ilegales. Aquí entra, por ejemplo, la exposición a la pornografía, con consecuencias que van desde la erotización precoz hasta el estímulo a la violencia y la reproducción de estigmas de género. También entra el acceso a juegos de azar, un problema creciente en América Latina.

La segunda categoría son los riesgos de conducta, que abarcan aquellos creados por las propias interacciones de los niños en entornos digitales. Pueden manifestarse en comportamientos odiosos o nocivos, como el ciberacoso o la automutilación, muchas veces incentivados por el diseño de las plataformas y la viralización de ciertos contenidos. A comienzos de 2025, por ejemplo, una niña de 8 años murió en Brasil tras inhalar desodorante en aerosol en un reto de TikTok.

El tercer grupo son los riesgos de contacto, cuando niños y adolescentes son expuestos a interacciones dañinas o criminales con terceros adultos. Estos encuentros pueden ir desde situaciones de acoso hasta casos de explotación sexual infantil. Recientemente, en Estados Unidos, la fiscalía de Lousiana demandó a la plataforma de juegos Roblox, muy popular entre el público infantil, por no implementar mecanismos básicos de seguridad, lo que habría permitido que pedófilos se hicieran pasar por niños y entablaran interacciones malintencionadas a través del chat.

La cuarta dimensión son los riesgos de consumo, ligados al perfilado comercial y la inducción de gastos, parte estructural del modelo de negocio de las grandes plataformas digitales. Niños y adolescentes, en proceso de desarrollo, carecen hasta cierta edad de herramientas para distinguir publicidad de contenido orgánico. Incluso siendo ya un poco más viejos, no cuentan con recursos suficientes para lidiar con las presiones comerciales. Las prácticas de perfilamiento, como ya denunciaron distintos whistleblowers, han sido utilizadas por plataformas para aprovechar la vulnerabilidad emocional de adolescentes (sobre todo niñas). Entre sus prácticas está la promoción de contenidos que estimulan distorsiones corporales para mantenerlas enganchadas, aun con pleno conocimiento de sus efectos nocivos en la salud mental.

La OCDE señala, además, que existen riesgos transversales, como la pérdida de privacidad, la salud física y mental y los derivados de tecnologías digitales avanzadas o biométricas. Temas como el sharenting, los sesgos de los sistemas de inteligencia artificial y los impactos del uso excesivo de redes sociales en el sedentarismo juvenil entran en esta categoría. Casos recientes publicados en la prensa, como la denuncia de las ganancias de YouTube con contenidos abusivos sobre niños, muestran cómo estas dimensiones se combinan y retroalimentan.

Es esencial reconocer estos riesgos, así como el hecho de que pueden afectar de manera trágica el desarrollo de una persona en formación. También es importante destacar que no recaen de forma homogénea: estudios comparativos señalan que las plataformas aplican reglas más laxas en países del Sur Global. En América Latina, niños indígenas y afrodescendientes tienen menos acceso tanto a internet como a educación formal, incluida la educación digital. Además, en un contexto en el que las plataformas digitales lucran con la vulneración de derechos, la carga del cuidado recae de forma desproporcionada en las familias y, especialmente, en las madres. En una región con altas tasas de maternidad en solitario y bajos niveles de alfabetización digital, muchas mujeres no cuentan con el tiempo ni con las herramientas necesarias para acompañar la navegación segura de sus hijos, lo que los vuelve aún más vulnerables.

 La respuesta regulatoria

No es en vano que, sobre todo en los últimos cinco años, este tema comenzó a recibir creciente atención de reguladores en todo el mundo. En 2020, el Comité de los Derechos del Niño de la ONU redactó la versión final de su Observación General 25 relativa a los derechos de los niños en relación con el entorno digital, aprobándola a comienzos de 2021. El documento representó un hito en el derecho internacional de los derechos humanos, al interpretar la Convención sobre los Derechos del Niño de 1989 a la luz de los avances tecnológicos, reafirmando que todos los derechos de niños, niñas y adolescentes se extienden también al entorno digital. Conviene recordar que la Convención de 1989 es el tratado internacional más ratificado del mundo, y que instauró la doctrina de la protección integral, reconociendo a todas las personas con menos de 18 años como sujetos de derechos, con autonomía progresiva para su ejercicio, y, por lo tanto, debiendo ser promovidos y protegidos en todos los espacios.

2021 también marcó la aprobación del Age Appropriate Design Code por el ICO del Reino Unido, que estableció estándares de diseño para productos y servicios digitales destinados o con alta probabilidad de ser utilizados por niños y adolescentes. La iniciativa inspiró en los años siguientes diversas medidas por parte de autoridades de protección de datos, especialmente en Europa, como en Suecia e Irlanda. El Digital Services Act (DSA), aprobado en 2023 en la Unión Europea, también tiene reglas específicas para el grupo, señalando el principio de su mejor interés para el desarrollo de servicios digitales y reglas diferenciadas para el tratamiento de sus datos.

En 2024, Australia aprobó una ley inédita que prohíbe el acceso de personas con menos de 16 años a redes sociales y la Unión Africana adoptó directrices para la protección en línea de niños, niñas y adolescentes. La discusión también ganó fuerza en los Estados Unidos, donde ya recibió media sanción el Kids Online Safety Act (KOSA), aunque bajo apoyo desde argumentos problemáticos de políticos conservadores, como la protección de niños a “contenidos LGBT”. En 2025, nuevamente el Reino Unido, esta vez a través de la Ofcom, publicó una serie de directrices condensadas en los ya mencionados Protection of Children Codes and Guidance.

Estas iniciativas también resonaron en América Latina. En julio de 2025, Colombia aprobó la Ley 2489, “por medio de la cual se establecen disposiciones para el desarrollo de entornos digitales sanos y seguros para los niños, niñas y adolescentes del país”. En Brasil, desde 2022 se debate en el Congreso Nacional el Proyecto de Ley nº 2628,  que también establece reglas específicas para la protección de los más jóvenes en internet. El texto fue aprobado en el Senado a finales de 2024 y recién aprobado también en la Cámara de los Diputados, en agosto de 2025. Ahora vuelve al Senado para aprobación final, incluyendo dispositivos como la prohibición del uso de datos de personas con menos de 18 años para publicidad comportamental, además de previsiones sobre supervisión parental, vedación de acceso a contenidos dañinos y rendición de cuentas por parte de las aplicaciones digitales. Su tramitación recobró fuerza en agosto de este año, tras la referida denuncia del influencer Felca digital sobre la adultización e hipersexualización de niños y adolescentes en internet.

Un punto común de estas iniciativas regulatorias es establecer reglas diferenciadas para el uso de entornos digitales por parte de niños y adolescentes, ya sea en relación con los contenidos a los que pueden (o no) acceder, o en relación con prácticas de diseño y extracción de datos. Para que esa diferenciación ocurra en la práctica, gobiernos y empresas que proveen servicios digitales señalan que es necesario poder identificar quiénes son las personas con menos de 18 años en internet. En este contexto, aun cuando no aparezcan de forma explícita en todas las normativas recientes, la implementación de mecanismos de verificación de edad ha pasado a ser considerada una puerta de entrada esencial para la defensa de la infancia.

Informes de autoridades y análisis recientes hablan de una “ola global” de sistemas de verificación de edad en toda internet, donde la protección de la infancia se presenta como justificación para extender controles de identidad a todos los usuarios, incluso en aplicaciones que no son consideradas de alto riesgo. Esta tendencia recuerda al debate de la última década que oponía la defensa de la criptografía fuerte al combate contra la circulación de material de abuso sexual infantil, dividiendo en grupos opuestos, de manera simplista, a defensores de la privacidad y defensores de la infancia.

Más allá de soluciones fáciles

Esa falsa oposición plantea trampas que empobrecen el debate y dificultan la búsqueda de soluciones. Tiene, al menos, dos problemas centrales. El primero es no reconocer que niños y adolescentes, como sujetos de derechos, también tienen derecho a la privacidad y deben poder ejercerlo en el marco de su autonomía progresiva. Si pensamos en quienes viven en contextos familiares o comunitarios represivos, buscando información sobre su sexualidad o identidad de género, por ejemplo, este derecho se vuelve aún más importante.

Extender mecanismos de verificación de edad de manera indiscriminada altera la estructura de internet y puede afectar también a las propias infancias. No se trata de sacrificar las características fundamentales de la red como el acceso abierto y el anonimato relativo en nombre de su protección, porque ellas también se benefician de estas condiciones. El desafío es matizar el debate y reconocer las tensiones en juego, incluyendo en las discusiones regulatorias también agentes técnicos que puedan apoyar a desarrollar estos matices.

El segundo problema es desconsiderar que las tecnologías operan dentro de entramados sociotécnicos complejos. Así como no son, de manera aislada, la raíz de los riesgos que enfrentan niños y adolescentes, tampoco serán, de manera aislada, la solución.

Debemos discutir seriamente temas como la cultura de la violación y la ausencia de educación sexual en las escuelas, y cómo estas problemáticas atraviesan desigualdades de género y raza. En América Latina, entre 2018 y 2022, casi 490.000 niñas con menos de 18 años fueron víctimas de delitos contra su dignidad sexual, un dato que evidencia la urgencia de ese debate. Además, es necesario debatir el modelo económico que sostiene internet: el capitalismo de vigilancia. Un sistema nocivo para todos los usuarios, pero que impacta de manera particularmente severa a niños, niñas y adolescentes.

Estamos en un potencial punto de inflexión en la forma en que se estructura la internet y circulan sus usuarios. El debate sobre la protección de las infancias es indispensable, pero no puede reducirse a fórmulas simplistas ni a la falsa oposición entre privacidad y seguridad. América Latina no debe importar soluciones regulatorias prefabricadas sin crítica, sino comprometerse en un proyecto político y social que coloque a niños, niñas y adolescentes en toda su diversidad en el centro de un futuro digital verdaderamente justo.

La reforma laboral de Colombia y el trabajo por plataformas digitales: ecos de luchas previas y desafíos que persisten

Al igual que en la región y el mundo, el trabajo mediado por plataformas digitales se ha expandido aceleradamente en Colombia. Aspectos estructurales como las altas y persistentes tasas de desempleo e informalidad en el país, sumado a los flujos migratorios, han propiciado el crecimiento de esta modalidad de trabajo que, por demás, promete ficciones como el trabajo por cuenta propia y la diversificación de ingresos, que contrastan con realidades distintas en la práctica.

Tras más de una década de operación en el país de compañías tecnológicas que ofrecen servicios como transporte privado -Uber, Cabify, Didi-, reparto y mensajería -Rappi, Didi Food- e incluso servicios domésticos y de cuidado -Hogaru, AseoYa, AUX-, en junio del año en curso se aprobó una reforma laboral que extiende medidas para promover la formalización del trabajo del sector de plataformas digitales de reparto en específico. En ese contexto, es importante resaltar que esta reforma responde a años de organización sindical y lucha colectiva por parte de las personas repartidoras, quienes, a través de mesas de negociación con el gobierno y la principal plataforma de reparto en Colombia- Rappi- construyeron la antesala de las medidas que contempla la reforma actual.

Ahora bien, conforme analizaremos a lo largo de esta columna, aunque algunas demandas de este sector fueron abordadas en la normativa,  disposiciones muy relevantes relativas a la transparencia algorítmica y protección de datos, requieren de mayor profundidad considerando su influencia determinante en el ejercicio del derecho al trabajo mediante plataformas.

Las luchas del colectivo de repartidores de plataformas como piedra angular de la reforma

Los estudios de sociología destacan el rol clave de los movimientos sindicales en los procesos de reconfiguración del rumbo de las políticas estatales y empresariales. Si bien no es el único caso en el país, en esta columna nos concentraremos en la organización sindical de repartidores, un movimiento atravesado por una alta precariedad y marcado por eufemismos corporativos que encubren la condición laboral bajo etiquetas como “usuarios” o “socios”. En este contexto, las personas repartidoras carecen de garantías mínimas de protección laboral y seguridad social, de salarios dignos y de mecanismos de réplica o de debido proceso frente a decisiones tomadas por un algoritmo.

Esta situación se agrava si consideramos que, aunque el trabajo mediado por plataformas se concibió inicialmente como una fuente extra de ingresos en el tiempo libre, terminó por convertirse en la fuente principal de sustento económico de más de 600 mil personas. En ese sentido, es importante mencionar que según investigaciones sobre el tema en el país,  la fuerza laboral migrante forma una gran parte de este sector, experimentando riesgos y exclusiones diferenciadas.

Tales retos, reconocidos en varios informes de la Organización Mundial del Trabajo (OIT), han dado lugar a  múltiples iniciativas de organización colectiva que, desde 2020, han demandado la garantía de derechos laborales mínimos. Entre sus principales demandas se encuentran: el reconocimiento de una relación laboral; el pago de los aportes a salud, pensión y riesgos laborales; el reconocimiento y la garantía del derecho a la asociación colectiva; la adecuación de espacios públicos para la espera de pedidos- dada la constante exposición al sol y a la lluvia- y la transparencia algorítmica, que implica clarificar los criterios y posibles sesgos que alimentan los algoritmos, especialmente frente al bloqueo de las cuentas y las medidas de supervisión en el proceso de recogida y entrega de paquetes. La reforma tomó en cuenta algunos de los puntos de este pliego de peticiones, respondiendo – al menos en parte- a las demandas históricas de la organización sindical.  

Considerando estos antecedentes, ¿qué demandas del colectivo de trabajadores fueron incluidas en la ley de reforma laboral, y qué desafíos y zonas grises persisten?

Los logros de la reforma laboral

La reforma se nutrió de un proceso participativo que incluyó al gobierno, las plataformas digitales agrupadas en el gremio Alianza In, los sindicatos de trabajadores de plataformas de reparto Unidapp y Asdiapp, así como a la academia y la sociedad civil. El resultado se plasmó en 7 artículos, que siguen ciertas tendencias de un impulso global y regional por regular el trabajo mediante plataformas. Entre los avances más relevantes se encuentran: el reconocimiento de una relación laboral entre las plataformas y las personas repartidoras bajo dos modalidades – dependiente o autónoma-, la obligación de establecer contratos acordes y garantizar la afiliación al sistema de seguridad social, con esquemas de aportes según la modalidad de relación laboral. Además, la reforma establece mecanismos de transparencia sobre la utilización de sistemas automatizados; incluyendo la supervisión humana de las decisiones automatizadas y la claridad en el tratamiento de los datos de las personas trabajadoras.  

A la luz de las demandas de las organizaciones sindicales, la aprobación de la reforma laboral representa un avance en la lucha contra la precariedad y la elevada informalidad que ha caracterizado al trabajo de reparto por plataformas digitales en Colombia. Para el presidente de la organización sindical Unidapp, este paso supone ganar “una batalla muy importante” al incorporar, por primera vez, un  reconocimiento mínimo de la seguridad social, uno de sus reclamos históricos. Sin embargo, considerando que las plataformas digitales de trabajo, como entornos digitales que median la prestación de servicios, se apoyan de forma sustancial en decisiones algorítmicas y en el tratamiento de datos personales -incluyendo las decisiones sobre bloqueo de cuentas-  estos aspectos permanecen como puntos críticos que la reforma no abordó con la profundidad necesaria y que requieren una lectura desde los derechos humanos.

La caja negra del algoritmo y la necesidad de una política de gestión algorítmica integral

En resonancia con las discusiones respecto al trabajo decente en plataformas abordadas en la 113a Conferencia Internacional del Trabajo (CIT), y con iniciativas legislativas en países como México, Chile y Uruguay,  la reforma laboral colombiana incorpora dos artículos breves dedicados a la transparencia en el uso de sistemas automatizados que inciden en la toma de decisiones y la supervisión sobre el trabajo de las personas repartidoras. Estas disposiciones se centran en el deber de informar a las personas trabajadoras sobre los sistemas empleados por ejemplo para la asignación de pedidos o la suspensión de cuentas, mediante un documento conciso, transparente, inteligible y fácilmente accesible. Así mismo, se establece la necesidad de la supervisión humana de las decisiones automatizadas que afectan las condiciones laborales, incluyendo al evaluación constante de su impacto.

Si bien estas medidas representan un paso hacia el cumplimiento del principio de “explicabilidad” – fundamental para garantizar que las personas trabajadoras puedan impugnar decisiones tomadas de forma automatizada, persisten interrogantes sobre aspectos claves, como si esta información se entregará antes de la implementación de los algoritmos, si habrá un plazo entre la notificación y el despliegue de los sistemas, con qué periodicidad se evaluará su impacto; cuánto demorará la revisión humana prevista y cuáles serían los mecanismos para acceder a esta.

Según la asociación sindical referida, en las plataformas de reparto en Colombia los algoritmos se utilizan principalmente para decidir respecto a bloqueos y suspensiones de cuentas. Aún después de las negociaciones con plataformas como Rappi -antecedentes de las medidas de transparencia que contempla la reforma-  persiste la falta de claridad sobre todas las causales posibles de bloqueos que aplican las plataformas. Informar sobre la existencia -ya conocida- de algoritmos para la gestión del trabajo es un paso relevante, pero no suficiente para abordar la complejidad de la transparencia algorítmica como dimensión del derecho a la información y como base para la auditoría y el control democrático de las plataformas. Conforme a las orientaciones internacionales,  se requiere avanzar hacia una política de gestión algorítmica integral, interseccional y basada en el principio de no discriminación, que especifique qué datos se utilizan y con qué criterios, y que reduzca los sesgos que inciden en las condiciones de trabajo.

Por otra parte, la supervisión humana prevista en la reforma no considera las barreras que actualmente enfrentan las personas repartidoras para apelar las decisiones automatizadas. Según el sindicato referido, hoy este proceso solo ocurre como tercer paso después de un bloqueo y para acceder a éste es necesario interponer un derecho de petición o una acción de tutela. En la práctica, si un cliente presenta una queja, el algoritmo puede sancionar de forma automática a la persona repartidora sin garantizar un debido proceso. Aunque la reforma incorpora la posibilidad de una revisión humana tras una decisión automatizada, no detalla los procedimientos que deberán seguir las personas trabajadoras, ni los mecanismos a utilizar, los cuales, en la actualidad demandan tiempo, recursos y conocimientos que resultan incompatibles con las  necesidades de este grupo para quienes un día sin trabajar impacta de forma considerable su mínimo vital.

El lugar de los datos personales.

La reforma laboral incorpora algunas disposiciones relevantes sobre el tratamiento de los datos personales de las personas trabajadoras. En primer lugar, establece que las finalidades de dicho tratamiento por parte de las plataformas deben presentarse de forma clara, sencilla y transparente, contar con la autorización previa de las personas trabajadoras y respetar el derecho de hábeas data. Esta medida es clave para el sindicato Unidapp ya que, sostienen que aunque existe conocimiento sobre los datos recopilados por las plataformas, persiste la falta de claridad respecto a los usos concretos que se les da, lo que refuerza la necesidad de mayor transparencia en este ámbito.

Si bien Colombia cuenta con la ley de protección de datos (Ley 1581 de 2012), que ampara el derecho constitucional que tienen todas las personas a conocer, actualizar y rectificar las informaciones que se hayan recogido sobre ellas en bases de datos, no contiene disposiciones propias sobre el tratamiento de datos por parte de sistemas automatizados que aplican al caso del trabajo por plataformas digitales, un aspecto que será contemplado en la reforma recientemente anunciada por el gobierno actual a dicha ley.

En segundo lugar, la reforma incorpora la creación de un mecanismo “de reconocimiento de identidad plena que permita individualizar al trabajador digital en servicios de reparto” conforme al derecho de hábeas data. Sin embargo, el texto no precisa qué datos se utilizarán para esta verificación, lo cual abre interrogantes sobre aspectos relevantes como dónde se almacenará la información; si se incluirán datos sensibles, como los biométricos; bajo qué criterios de protección operará el mecanismo y si se prevén riesgos identificados en estudios previos, como la posible instrumentalización de estos datos para prácticas de vigilancia por parte de las plataformas.

Los desafíos de la reforma más allá del trabajo de reparto

En su estado actual la reforma laboral sólo contempló a trabajadores de plataformas digitales de reparto pero, no quedan claros los criterios que justifican la exclusión de sectores como el transporte privado – con más de 1 millón de conductores registrados -, el trabajo doméstico – intermediado por más de 5 aplicaciones digitales en el momento –, o las plataformas webcam – un segmento del trabajo por plataformas altamente expuesto a violaciones laborales y explotación sexual. Estos son sectores que también se encuentran en situaciones de vulnerabilidad, expuestos a decisiones algorítmicas opacas y a la falta de claridad en torno al uso de sus datos personales.

A lo largo de esta columna se han señalado aspectos que requieren revisión en la etapa de reglamentación e implementación de la reforma laboral, con la participación significativa de la sociedad civil y de organizaciones de personas trabajadoras. Eventuales avances hacia convenios internacionales vinculantes, que parten de las discusiones promovidas en el ámbito de la OIT, podrían tener un rol crucial para fomentar la cooperación e intercambio a nivel regional, nutriendo la experiencia colombiana y ofreciendo una oportunidad para cerrar brechas y avanzar hacia un trabajo en plataformas con garantías mínimas comunes en América Latina , que se extiendan a todos los sectores y servicios. Estas garantías deben de requerir a las compañías tecnológicas a implementar sistemas algorítmicos transparentes, que aseguren en todo momento la privacidad y protección de datos de las personas trabajadoras, en cumplimiento con  estándares y orientaciones internacionales, así como con la legislación nacional vigente.

América Latina ante la presión comercial estadounidense: impactos y perspectivas para una agenda de desarrollo anclada en Derechos Humanos

Son poco más de seis meses desde la asunción de Donald Trump a la presidencia de EE. UU., marcada por la presencia destacada de los CEOs de las empresas de tecnología más importantes del mundo flanqueando al mandatario. Desde entonces, hubo anuncios y señales confusas relacionadas con su política internacional y tecnológica.  

En la arena multilateral, habiendo abandonado programas enfocados en la promoción de su agenda de “libertad en internet” que privilegiaba la desregulación del sector, la diplomacia estadounidense ha renunciado también a compromisos antiguos en materia de gobernanza de internet y ha bloqueado consensos históricos relacionados a la aplicación de los Derechos Humanos en las tecnologías. Por otro lado, el gobierno de Trump ha incorporado de manera directa a su estrategia de comercio el discurso de las Big Tech, según el cual cualquier intento de limitar su dominio monopólico representaría una “barrera no arancelaria” y, como tal, una amenaza a los intereses nacionales de EE. UU.

La actual política de comercio estadounidense consolida una tendencia de creciente abandono de la negociación multilateral en el ámbito de la Organización Mundial del Comercio (OMC). Con eso, Trump se ahorra la necesidad de convencer a un conjunto de países (cada vez más conscientes de la relevancia de la agenda digital para el desarrollo económico) de sostener anticuadas limitaciones a la imposición de impuestos aduaneros al comercio electrónico, entre otras.

En el caso latinoamericano, episodios como la imposición de tarifas a México –seguida de sucesivas negociaciones a cambio del fin de “barreras comerciales no arancelarias”–  y la discusión pública con el presidente colombiano que adelantó la amenaza de imposición de nuevas tarifas luego revisadas tras un acuerdo entre los países, dieron la tónica de las nuevas reglas del juego. Ambos casos ponen de manifiesto acuerdos y concesiones poco transparentes que pueden resultar en graves impactos a los Derechos Humanos de sus poblaciones.

La nueva cara de una vieja estrategia

El contexto actual está marcado por altos niveles de inestabilidad y una muy evidente intención de favorecer intereses propios con pocos beneficios para la región. Al recorte de políticas de cooperación internacional que afectan directamente a la población latinoamericana, se suman amenazas de intervención directa que hace mucho no se veían a la luz del día. Sin embargo, el uso de políticas de comercio para presionar a los países en la adopción de medidas que beneficien la industria tecnológica estadounidense está lejos de ser algo nuevo.

El Reporte “Special 301”, producido por la Oficina del Representante Comercial de EE. UU. (USTR, por la sigla en inglés) y muy conocido en el activismo por derechos digitales, ha sido una de las principales formas de presión aplicada a los países de la región. El documento genera un listado de países que supuestamente fallan en proteger derechos de propiedad intelectual de empresas estadounidenses.

Ya en la primera versión del documento, publicada en 1989 luego de la reforma que incorporó su figura, Argentina, Chile, Colombia y Venezuela aparecían en una “lista de atención” por sostener prácticas consideradas “preocupantes” en materia de propiedad intelectual. Brasil y México, por su parte, eran listados como países cuyas prácticas merecían “atención especial”, pero que –según el documento– no serían investigados por tener progresos en negociaciones bilaterales o multilaterales recientes. Entre 2005 y 2018, Argentina, Bolivia, Brasil, Chile, Colombia, Costa Rica, Ecuador, Guatemala, México, Paraguay, Perú y Venezuela han sido listados en el reporte, sea como países de “atención” o de “atención prioritaria”. La mayoría sigue presente en los listados de la edición 2025 del informe. Uruguay fue incluido en el reporte de 2005 y luego dejó de figurar en la lista.

El título del documento hace referencia a la llamada “Sección 301” de la legislación comercial estadounidense de 1974, que permite la investigación unilateral de prácticas comerciales consideradas perjudiciales a los intereses de EE. UU. por parte del USTR, y la adopción de medidas coercitivas para presionar a países en relación a la apertura de sus mercados. Las investigaciones basadas en la Sección 301 pueden ser iniciadas tanto por iniciativa propia del USTR, como a partir de solicitudes del sector privado.

El contexto de aprobación de la Sección 301 nos hace recordar al escenario regional actual. Según el exdiplomático brasileño Regis Aslanian, el mecanismo plasma una política de “autoritarismo comercial” adoptada por EE. UU. en un período en el que su economía se enfrentaba a riesgos de pérdida de su hegemonía. Él cuenta que, en aquella época, Brasil buscaba consolidar una industria nacional y pasó por investigaciones derivadas de la Sección 301 en 1985 y 1987 por supuestas barreras al comercio e inversiones estadounidenses en sectores que incluían el farmacéutico y el tecnológico. El hito ejemplifica en parte cómo se construyeron las relaciones de dependencia tecnológica que persisten hasta el día de hoy en los países del Sur Global.

La investigación más reciente abierta contra Brasil en el marco de la Sección 301 demuestra que el instrumento aún es relevante para ofrecer un aire de legalidad a la imposición de sanciones arbitrarias contra países. Sin embargo, no fue necesario para el gobierno de Trump esperar el resultado de esas averiguaciones para empezar a penalizar a Brasil: la comunicación sobre la imposición de tarifas del 50% a los productos brasileños incluyó la indicación de apertura de la investigación, que ocurrió días después y sigue sin conclusión.

Ya con relación al “Special 301”, su foco ha estado en el intento de presionar hacia la adopción de medidas de criminalización de la “piratería”, así como otros mecanismos que impidan su circulación, como la imposición de trabas tecnológicas, la obligación de entrega de información por parte de proveedores de internet, entre otras muy bien ejemplificadas en los capítulos latinoamericanos de su última versión. Este tipo de medidas ha sido fuertemente impulsado por el lobby de empresas de producción de contenidos a lo largo de las últimas décadas. Sin embargo, en el escenario actual, se mezclan con la presión contraria por la desregulación: la bandera de moda del lobby tecnológico estadounidense, como se ve en el caso de la investigación contra Brasil.

Un juego con pocos vencedores

El tipo de presión impuesta a la soberanía de los Estados latinoamericanos pone en evidencia la disparidad de poder en las negociaciones, donde se espera la entrega de concesiones a cambio de la simple manutención del status quo. No se trata de una situación exclusiva para América Latina: en Europa, donde las distintas políticas de regulación de tecnologías han estado en el centro de la disputa, el resultado de las negociaciones fue poco explícito en las implicaciones para el futuro de las normativas europeas sobre el tema. Además, una nota oficial de la Casa Blanca incluye entre los acuerdos el fin de las discusiones europeas sobre la imposición de impuestos a grandes plataformas digitales (las llamadas network fees), la intención de revisar “barreras no justificadas al comercio digital” y un acuerdo por mantener en cero los aranceles aduaneros para transmisiones electrónicas. 

Sin embargo, algunos países se encuentran en mejor posición para negociar. El caso de Brasil es un ejemplo de ello, pero también de una situación en que una de las exigencias impuestas no deja otra opción: la imposición de tarifas del 50% vino acompañada de una demanda de intervención en la autonomía del Poder Judicial, imposible de ser atendida por cualquier gobierno mínimamente comprometido con la democracia. La ventaja del país es que su comercio internacional es relativamente independiente de EE. UU., solamente 12% de su Producto Interno Bruto depende de ello. Aún así, el impacto de las tarifas vigentes desde el 6 de agosto es significativo para algunos sectores económicos, lo que mantiene al gobierno interesado en sentarse a la mesa de negociaciones, incluso para discutir medidas relacionadas al sector tecnológico.

Aunque aparezca de manera más sutil en la primera comunicación de Trump, donde se hablaba de “ataques continuos a las actividades comerciales digitales de empresas estadounidenses”, la presión sobre la posición de Brasil en relación a la regulación de tecnologías se encuentra visible en la investigación abierta en el marco de la Sección 301.

Ambas acciones ocurren luego de que la Suprema Corte del país concluyera, en un antiguo caso, que la medida que limita la responsabilidad de intermediarios de internet por la distribución de contenidos de terceros en el Marco Civil de Internet es parcialmente inconstitucional. La decisión busca establecer un régimen de responsabilidad diferenciado, pero genera un ambiente de mayor inseguridad jurídica para las empresas. Entre las demandas de las corporaciones tecnológicas se encuentran la revisión de tal decisión, por un lado, y la oferta de beneficios fiscales para la instalación de sus centros de datos en el país, por el otro.

Entre la resistencia y la construcción de alternativas

El impacto dañino de la política exterior de Trump es visible, y así seguirá siendo por muchos años más. En el caso de América Latina, tiene el potencial de comprometer la sostenibilidad de economías ya frágiles, y dejar desprotegidos a los sectores sociales que más apoyo necesitan. Eso sin hablar del posible retraso en materia de desarrollo, fundamental para superar las desigualdades persistentes, tanto a nivel local como global. El potencial de China en suplir el vacío dejado por EE.UU. en relación a inversiones y generación de riqueza es, seguramente, un aliento para los gobiernos de la región. El país viene buscando proyectar su poder también en espacios multilaterales desprestigiados por la diplomacia estadounidense, aunque persisten las dudas sobre su efectivo compromiso con una agenda de Derechos Humanos.

Confiar únicamente en un giro hacia China como fuerza capaz de reequilibrar las relaciones internacionales parece ser un equívoco. Es fundamental que los países de la región logren aprovechar la oportunidad sin replicar un nuevo modelo de dependencia. Si bien la urgencia puede exigir contrapesos económicos y de desarrollo, si el apoyo internacional, sea de China o Europa, no viene acompañado de un compromiso real en la defensa de derechos, estaríamos sólo cambiando de explotadores.

En ese sentido, el fortalecimiento de la agenda tecnológica en agrupaciones como el G20 y los BRICS puede representar una oportunidad para  sostener compromisos ya existentes con la justicia y los Derechos Humanos, incluso en su relación con las tecnologías. La reciente declaración de líderes de los BRICS sobre inteligencia artificial evidencia que aún hay espacio para una perspectiva de desarrollo anclada en la garantía de derechos fundamentales. Resta ver cómo estos compromisos logran efectivizarse en las conversaciones actuales y cómo esos países pueden resistir a la presión de Trump, que parece tenerlos en la mira.

Emergencia climática y centros de datos: el nuevo extractivismo de las Big Tech

El cambio climático es un riesgo existencial, y los Estados deben actuar con decisión. Así lo sostuvo la Corte Interamericana de Derechos Humanos (Corte IDH) en una reciente Opinión Consultiva (OC32), solicitada por Chile y Colombia con el objetivo de que ésta aclarase el alcance de las obligaciones estatales en la lucha contra la crisis climática global.

En un momento muy oportuno, la Corte declaró la existencia de una emergencia climática en la región considerando, por un lado, los efectos de catástrofes ambientales recientes, como los incendios, inundaciones y derrames de petróleo que tuvieron lugar en 2024. Por el otro, el escenario geopolítico que avanza hacia desarrollos tecnológicos -como la Inteligencia Artificial- sin debidas garantías; y facilita la expansión de las Big Tech en América Latina, sin una evaluación adecuada de su huella ecológica, ni salvaguardas en derechos de la ciudadanía. Estas empresas operan bajo lógicas extractivistas que se aprovechan de los recursos energéticos y naturales de la región para sostener sus operaciones -particularmente el entrenamiento de modelos de IA-, muchas veces a costa del equilibrio de ecosistemas frágiles y del bienestar de las comunidades locales.

Tres claves de una Opinión compleja

La Opinión Consultiva es compleja y en su extensión se afirman distintas ideas clave, de las que rescatamos al menos tres.

La primera, la necesidad de considerar responsabilidades diferenciadas en tanto no todos los Estados ni sectores de la economía contribuyen de la misma forma a la emergencia climática. Quienes más contaminan y emiten gases de efecto invernadero (GEI) deben contar con mayores compromisos en los esfuerzos dirigidos a paliar las consecuencias del cambio climático.

En segundo lugar, la interrelación estrecha entre la protección del clima, la naturaleza y el medio ambiente, y TODOSlos Derechos Humanos. Las acciones de los Estados no pueden limitarse a abstenerse de causar daño ambiental, sino que deben ser activas y progresivas en miras a la protección de derechos fundamentales.

Y en tercer lugar, la obligación estatal de regular las operaciones de las empresas que contaminan para, por un lado, obligar a que adopten medidas efectivas para mitigar el impacto de su cadena de valor en el cambio climático, y aborden sus impactos en los Derechos Humanos. Y, por otro lado, para exigir que divulguen de forma accesible las emisiones de gases de efecto invernadero de su actividad empresarial.

Los centros de datos en América Latina: las crisis por venir

Estas obligaciones deben extenderse también a las políticas digitales. Se sabe que, para que la IA siga creciendo, se necesita una base física: los centros de datos. Estos funcionan sin pausa, día y noche, y consumen enormes cantidades de electricidad, agua y aire. El agua sirve para enfriar los servidores, la electricidad mantiene todo en marcha y alimenta los sistemas de enfriamiento, y el aire ayuda a disipar el calor como recurso alternativo. No es casual que las Big Tech vean en América Latina una fuente para la explotación de esos recursos a bajo costo económico y regulatorio.

Sin embargo, las consecuencias ambientales y sociales de esta actividad son preocupantes. El agua utilizada en estos procesos ya no puede destinarse al consumo humano. La elevada demanda energética puede tensionar infraestructuras ya frágiles, poniendo en riesgo el suministro básico para la población. Además, el uso intensivo de electricidad puede derivar en mayores emisiones de carbono, afectando la calidad del aire. Se estima que para 2030 los centros de datos estarán entre las industrias más contaminantes del planeta.

Varios países han aceptado la instalación de los mismos bajo promesas que no son del todo claras. Como la de la soberanía digital, un tanto abstracta al tratarse de infraestructuras privadas para sostener sistemas de IA propios; o la promesa de generación de fuentes de empleo, que suelen ser temporales o de baja calidad, insuficientes para justificar el daño ambiental.

En México, por ejemplo, empresas como Amazon, Microsoft y Google buscan instalar centros de datos en el desierto de Querétaro. Allí, la crisis hídrica, agravada por sequías extremas del último año, ha puesto a las comunidades afectadas en una situación crítica. Estas comunidades, que rechazan la idea de estas instalaciones tecnológicas, ya han enfrentado dificultades para acceder al agua frente a su explotación por parte de empresas locales.

En Colombia, la narrativa oficial de avanzar hacia una “nube soberana” ha conducido al país a la firma de acuerdos con Emiratos Árabes Unidos para emplazar centros de datos en Santa Marta. Se trata de una zona del Caribe conocida por tener uno de los más costosos servicios de electricidad del país. Además, el agua que beben las comunidades locales ha sido motivo de advertencia de medios y organizaciones sociales que denuncian su mala calidad y la deficiente cobertura del servicio para el consumo humano.

En Chile, la instalación de estos centros se hace bajo la promesa de la generación de empleos y de inversión en la industria local. Recientemente, Microsoft abrió su centro de datos en la región Metropolitana de Santiago, una zona que sufre una megasequía de más de una década. Y Google está rediseñando el despliegue del suyo, en la Comuna de Cerrillos, luego de que un tribunal ambiental obligase a la empresa a evaluar el impacto hídrico del proyecto en una zona donde el agua es escasa.

Brasil, que junto a México es uno de los mayores emisores de gases de efecto invernadero del mundo, avanza también la acogida de centros de datos. En la población de ElDorado do Sul, afectada en 2024 por una inundación calificada por el Estado como el peor desastre ambiental reciente, se instalará la “Ciudad de la IA”, un complejo masivo de centros de datos que ocupará una de las zonas más privilegiadas de la región por su elevación, lo que la beneficiaría ante futuras inundaciones. También se instalará uno propio de Tik Tok en Ceará, que sufre una sequía extrema, y que se estima que agotará el consumo energético de 2,2 millones de brasileños a diario.

Las Big Tech colonizan nuestros recursos y no rinden cuentas

Las Big Tech operan en la región bajo lógicas coloniales ancladas en la explotación de recursos esenciales. Pese a ello, las respuestas regulatorias, cuando se trata de abordar su impacto ambiental, parecen ampliar los beneficios de los que gozan a cambio de promesas de beneficios futuros poco verificables.

En Brasil, por ejemplo, las autoridades nacionales prometen exenciones de impuestos a los centros de datos. Y la elaboración de la política nacional  sobre la materia, que excluyó de participación al Ministerio de Ambiente, propone eliminar las licencias ambientales para “desburocratizar” su instalación por, supuestamente, no tener impacto ambiental.

Las autoridades a nivel local también avanzan en esa senda. Los Concejales de Rio Grande do Sul, donde se ubicará la “Ciudad de la IA”, aprobaron en 2024 una ley que genera exenciones impositivas y flexibiliza los procesos de licenciamiento ambiental para estos centros. Como agradecimiento, las empresas beneficiarias donaron 110 notebooks repartidas en 13 colegios públicos de la región, un gesto que enmarcaron como “promoción del progreso social”.

En Chile, en el mes de junio de 2025, se habría liberado de la obligación de evaluación de impacto ambiental a las Big Tech que instalasen centros de datos en el país.

Entonces, las legislaciones ambientales se ven enflaquecidas, al tiempo que las de regulación de la IA que avanzan en esos mismos países omiten cualquier abordaje serio sobre la materia. La falta de transparencia sobre su impacto ambiental, y su progresiva proliferación en el futuro cercano supondrían una mayor asfixia a la gestión de recursos críticos de países como los nuestros.

La expectativa de que ese crecimiento es tal que, en declaraciones recientes, Sam Altman, líder de OpenAI, responsable de ChatGPT, no descartó que en un futuro cercano todo el planeta estuviese cubierto de centros de datos.

Mientras tanto, las comunidades directamente afectadas suelen tener poca o ninguna participación en las decisiones políticas que definen el destino de los recursos naturales de los que dependen para vivir. Basta ver el caso de una comunidad en Chile. Vecinos organizados y con acceso limitado al agua enfrentaron el proyecto de instalación de un centro de datos de Google. Ante la presión social, las autoridades autorizaron la operación bajo una modalidad de refrigeración por aire en lugar de agua. Pero el conflicto en verdad no se resolvió, tan solo cambió de forma.

Pese a todo, hay motivos para la esperanza

La Opinión Consultiva OC-32/23 de la Corte IDH representa un hito en la consolidación del enfoque de Derechos Humanos frente a la crisis climática. La Corte no solo reafirma que el cambio climático constituye una amenaza real y presente para el ejercicio pleno de los derechos fundamentales, sino que subraya la obligación de los Estados de actuar con urgencia, ambición y coherencia para mitigar sus efectos y proteger a las poblaciones en situación de vulnerabilidad.

Sin embargo, este pronunciamiento también deja planteada una tarea crucial que aún permanece pendiente: abordar con mayor contundencia el papel del sector privado, y en particular de las grandes corporaciones tecnológicas, en la generación y profundización de esta crisis. La responsabilidad ambiental de las Big Tech no puede seguir diluyéndose bajo el discurso de la innovación sin límites o su autorregulación.

En este contexto, los Estados deben asumir con decisión su papel de reguladores en materia ambiental considerando la declaratoria de emergencia climática de la Corte IDH. Esa función debe ser ejercida teniendo a la Opinión Consultiva como base de la discusión para fortalecer mecanismos de transparencia, auditoría de sus operaciones y participación social frente a proyectos extractivistas, como los de los centros de datos.

Por su parte, hay que advertir que la regulación ambiental y las normas sobre IA no pueden operar como marcos aislados ni contradictorios entre sí: deben integrarse en una visión común, coherente y participativa, orientada a garantizar la sostenibilidad del planeta y la dignidad de todas las personas.

Aunque el panorama parezca retador, también se abren puertas de esperanza. Recientemente, otra Opinión, de la Corte Internacional de Justicia de las Naciones Unidas, también se expresó sobre esta materia y reafirmó cómo, en omisión de sus deberes de regular al sector privado y su impacto ambiental, los Estados pueden llegar a ser demandados por otros Estados, y ser encontrados responsables por su inacción.

La tarea de quienes trabajamos en la sociedad civil, será apropiarnos de estos instrumentos legales para exigir por todas las vías posibles una mayor rendición de cuentas para enfrentar este problema de dimensiones globales que no da espera.

Privacidad en la mensajería: ¿cómo asegurarse de eliminar mensajes ante el riesgo de intrusión?

En la actualidad, más de 3 mil millones de personas usan activamente aplicaciones de mensajería en todo el mundo, y las cifran van en aumento. Si bien existe una gran variedad de alternativas con distintas características y funciones, la mayoría comparte elementos en común. Su popularidad varía geográficamente por regiones y también por países. A continuación, analizamos tres de las más relevantes: Signal, WhatsApp y Telegram.

Antecedentes: de la ausencia de privacidad hacia «alguna» privacidad

Más allá de su popularidad, las preocupaciones con la privacidad de las aplicaciones de mensajería –y las respuestas a tales preocupaciones– se han ido incrementando a lo largo del tiempo. Las revelaciones de Edward Snowden sobre vigilancia masiva son un hito clave en esta breve historia, una vez que ayudaron a popularizar el cifrado y otras medidas de protección como estándar.

En este contexto, y como fusión de los proyectos TextSecure y RedPhone, en 2014 nace Signal. El espíritu de esta nueva herramienta se centraba en proteger la privacidad de las comunicaciones, y en ese esfuerzo introdujeron el esquema de seguridad de cifrado de extremo a extremo. Si bien esta aplicación está delimitada por su uso en pequeños nichos o determinadas regiones del mundo (incluso al día de hoy muchas personas la desconocen), ella fue crucial para la introducción de un sistema de protección similar en WhatsApp, la aplicación de mensajería más popular en América Latina. Ante la creciente demanda por resguardar los intercambios de mensajes, la empresa más pujante del rubro tuvo la necesidad de aplicar un mecanismo de cifrado a la altura de las necesidades para no quedar obsoleta. Por ello, en 2016 WhatsApp integra el protocolo Signal para el cifrado de extremo a extremo por defecto para todas las personas usuarias.

Por su parte, Telegram, creada en 2013, no posee este esquema de cifrado de extremo a extremo por defecto en sus conversaciones, solo lo utiliza para los chats secretos. Esta plataforma aplica por defecto el cifrado entre cliente-servidor, lo que significa que, si bien los mensajes viajan cifrados, pueden ser legibles por la empresa o quien tenga acceso a sus servidores. En este sentido, el uso de canales comunes en Telegram es desaconsejado desde un punto de vista de protección de la privacidad.

Desafíos que persisten

El cifrado de extremo a extremo busca dar cuenta de la privacidad de las comunicaciones en tránsito, o sea, de cómo se protegen en el camino de un origen a un destino. Pero, ¿cómo garantizar la privacidad de las comunicaciones en aplicaciones de mensajería ante una intrusión física en el dispositivo?

La pregunta es válida para situaciones simples de extravío o pérdida, pero también en contextos de intervención policial o de intrusión a dispositivos por medio de software diseñado para eso. Ante el reporte de situaciones de abuso en tales acciones en la región y su riesgo para el ejercicio de Derechos Humanos, es fundamental conocer mecanismos para hacer valer el derecho a la privacidad en el uso de herramientas de mensajería.

Existen una serie de medidas que se pueden aplicar para mitigar estos riesgos, que abordamos anteriormente. Algunas son: utilizar contraseña en el dispositivo, contar con una clave de acceso para la aplicación, configurar el chat para mensajes temporales, entre otras. Presentes desde 2016 en Signal y desde 2020 en WhatsApp, los mensajes temporales pueden resultar una estrategia segura, pero solo funcionarán desde el momento en que el chat haya sido configurado para tal efecto.

Entonces, ante el peligro de intervención de un equipo, ¿cómo asegurarnos de que no puedan acceder a las conversaciones o, al menos, a algunas de ellas? La respuesta es simple, pero su implementación no tanto: eliminando esos mensajes. Si estuviéramos hablando de una carta que podemos destruir físicamente quizás la recomendación fuera obvia, pero en dispositivos digitales surge la legítima duda: ¿existe la posibilidad de recuperar un mensaje eliminado? Sí, bajo ciertas circunstancias se pueden restablecer conversaciones eliminadas. De ahí la necesidad de abordar algunos aspectos técnicos para garantizar que el ejercicio del derecho a la privacidad, en este caso, sea más efectivo.

WhatsApp: cómo eliminar mensajes de forma definitiva

Actualmente, existen dos formas de recuperar los chats eliminados: la recuperación de los respaldos en línea por un lado, y la copia de seguridad local de la aplicación, por el otro.

Una instalación típica de WhatsApp ofrece la opción de configurar un respaldo en línea utilizando Google Drive, para usuarios Android, o iCloud, en el caso de Iphone. Los respaldos de Android en Google Drive son únicos y se sobrescriben, es decir, no existen versiones históricas de los archivos. Si se desea que los mensajes no se puedan restablecer, es necesario eliminar el archivo en cuestión desde Google Drive.  

En el caso de Android se debe acceder a la cuenta en Google Drive, ir al apartado “Almacenamiento” y luego a “Copias de seguridad”. Ahí se encuentra el archivo de respaldo de la cuenta de WhatsApp identificado por el número telefónico. Si se desea que los mensajes no se puedan recuperar, se debe eliminar el archivo en cuestión. Es fundamental asegurarse de que el archivo eliminado no quede en la papelera de reciclaje; de ser así, también debe borrarse desde allí.

Además del respaldo en línea, WhatsApp utiliza copias de seguridad locales para posibles restauraciones. El esquema de respaldo local es incremental, es decir utiliza varios archivos para guardar el historial de las conversaciones de forma periódica. Las copias pueden ser encontradas en una carpeta cifrada ubicada en “Android/media/com.whatsapp/WhatsApp/Databases”. Dentro de este directorio encontraremos una serie de archivos cuya nomenclatura es “msgstore.db.crypt14*”. Para eliminar estos archivos de respaldo locales, y que estos no puedan ser recuperables, se debe usar una herramienta de borrado seguro como iShredder o bien conectar el dispositivo al computador y utilizar herramientas como Shred, disponible en la mayoría de las distribuciones GNU/Linux, Eraser para Windows o srm para macOS.

Cabe mencionar que todos estos procedimientos explicados solo aplican al dispositivo donde se ejecute el proceso. Es decir, si la otra persona a quien se dirigen los mensajes no los elimina, seguirá teniendo acceso a los mismos y permanecerán disponibles para terceros en el caso de una extracción o intrusión al dispositivo. También es necesario prestar atención a los mensajes temporales, cuya duración puede ser de 1, 7 o 90 días, pues, según explica WhatsApp, si crea una copia de seguridad antes de que desaparezca un mensaje, este se incluirá en la copia de seguridad.

Eliminar mensajes de WhatsApp definitivamente requiere de al menos esos tres pasos e implementarlos o no depende de la percepción de riesgo que pueda tener cada persona de estar sujeta a una intrusión indebida a sus comunicaciones personales. Aún así, como se ve, hay fragilidades que son intrínsecas al uso de este tipo de aplicaciones y la confianza en la empresa por detrás de la aplicación y en las terceras personas con quienes compartimos nuestras informaciones.

Borrar mensajes, resguardar derechos

Aunque pueda resultar una tarea compleja, y que requiere de varios pasos a seguir, la posibilidad de borrar mensajes de manera segura es una acción concreta hacia una mayor autonomía digital y una defensa efectiva de nuestros derechos. Así como en la vida real, es necesario que los entornos digitales nos provean de herramientas que nos permitan resguardar nuestro derecho a la privacidad en línea y que están accesibles para todas las personas.

Desde Derechos Digitales, sostenemos que la privacidad de las comunicaciones no es un lujo ni una cuestión meramente técnica: es una condición indispensable para el ejercicio de otros derechos, como la libertad de expresión, la organización social y la defensa de los Derechos Humanos. En América Latina, donde diversos Estados han desplegado prácticas de vigilancia sin control ciudadano ni garantías adecuadas, proteger nuestras comunicaciones digitales se vuelve urgente.

De la promesa tecnológica al control estatal: lo que revela el caso mexicano

En junio de 2025, México aprobó un paquete legislativo que incluyó reformas a la Ley de la Guardia Nacional, la Ley General de Población y la Ley General en Materia de Desaparición Forzada. Este conjunto de reformas legales creó una Clave Única de Registro de Población (CURP) biométrica que es obligatoria para acceder a servicios públicos y privados. Además, amplió significativamente las facultades de inteligencia de las Fuerzas Armadas y la Guardia Nacional. Esto se llevó a cabo a pesar de la movilización de organizaciones de la sociedad civil, que advirtieron sobre los graves riesgos que estas reformas representan para los derechos humanos y la democracia en el país.

Lejos de ser un caso aislado, este proceso refleja una tendencia regional cada vez más extendida en América Latina: la consolidación de infraestructuras de vigilancia y control social, legitimadas a través de reformas legales y sustentadas en el uso de tecnologías digitales y biométricas. Este fenómeno revela un panorama en que el tecnosolucionismo y la seguridad se utilizan como argumentos para erosionar libertades, reforzar el poder estatal y profundizar desigualdades estructurales.

Promesas y peligros de la identidad digital

La creación de la CURP biométrica en México implica el establecimiento de una base de datos centralizada que asocia el número único de registro de cada persona con sus datos biométricos, como huellas dactilares y fotografía. El objetivo declarado por el Gobierno es responder a la crisis generada por la creciente desaparición de personas, mediante la construcción de un sistema que permita registrar y rastrear cada interacción y movimiento de la ciudadanía en su vida cotidiana, desde el acceso a servicios públicos hasta actividades privadas, con el fin de facilitar su identificación y localización.

Al tratarse de un registro obligatorio, se elimina la posibilidad de un consentimiento informado sobre la recolección y el uso de los datos personales, lo que agrava los riesgos para la autonomía y la privacidad. Además, habría que considerar qué ocurre con quienes no logran registrarse: ¿quedarán excluidos del acceso a servicios esenciales? La obligatoriedad de la CURP biométrica como requisito para acceder a servicios públicos y privados implica que quienes no estén registrados en esta base o no puedan hacerlo quedarán fuera de derechos y prestaciones básicas.

Así, personas que no logran acercarse a los centros de registro, sobre todo las que viven en zonas remotas; aquellas que no tienen datos biométricos que puedan ser recopilados (como personas mayores con huellas dactilares deterioradas o personas con ciertas discapacidades); y personas trans cuya identidad de género y nombre social no se reflejan en su CURP -especialmente considerando que varios estados mexicanos no reconocen legalmente el nombre social- quedan aún más marginadas. Es decir, además de profundizar desigualdades estructurales ya existentes, este tipo de medidas produce nuevas formas de exclusión, reforzando barreras institucionales y sociales que afectan de manera desproporcionada a los grupos sociales históricamente excluidos.

Al mismo tiempo, este tipo de infraestructura plantea serias preocupaciones en términos de privacidad y desafía directamente el derecho al anonimato. El anonimato protege a las personas frente al rastreo constante de sus actividades y opiniones, especialmente en contextos donde disentir puede tener consecuencias.

También conlleva importantes riesgos en materia de ciberseguridad: aunque existen distintos niveles de madurez en ciberseguridad en los Estados de América Latina, se han registrado repetidos ataques y vulneraciones a bases de datos públicas en varios países. Las filtraciones de datos biométricos resultan especialmente graves, ya que se trata de información que, a diferencia de una contraseña, no puede ser modificada: forma parte intrínseca de la identidad física de cada persona. Su exposición indebida, así, puede llevar a fraudes y robo de identidad.

La creación de bases de datos centralizadas y la recopilación indiscriminada de datos biométricos no son fenómenos exclusivos de México. En 2023, Derechos Digitales ya advertía de la tendencia en un informe sobre la proliferación de sistemas de identidad digital en América Latina, señalando los riesgos asociados y la falta de controles efectivos, como la ausencia de garantías judiciales, la opacidad en el uso de los datos y el acceso por parte de múltiples entidades estatales sin supervisión.

Sin embargo, hay ejemplos que muestran decisiones orientadas a establecer límites: en Brasil, en 2022, el Supremo Tribunal Federal decidió imponer restricciones significativas al Cadastro Base do Cidadão -una base de datos también con información biométrica creada por decreto presidencial- al considerar inconstitucional el acceso irrestricto por parte de todos los órganos gubernamentales, reforzando así la necesidad de controles judiciales y criterios de proporcionalidad. Esta discusión resulta especialmente pertinente para México, donde el nuevo paquete legislativo otorga acceso a la base de datos biométrica a diversas instancias de inteligencia y a las Fuerzas Armadas sin requerir autorización judicial ni mecanismos de control democrático.

Inteligencia sin control: el poder opaco

Las reformas legales recientes en México otorgan a las Fuerzas Armadas y a la Guardia Nacional un poder sin precedentes en materia de inteligencia. Estas instituciones reciben facultades ampliadas para realizar labores de vigilancia e interceptación de comunicaciones sin necesidad de autorización judicial, eliminando cualquier contrapeso democrático. Además, se les concede acceso irrestricto a la base de datos de la CURP biométrica, lo que les permite rastrear de forma masiva e indiscriminada a la población, sin que las personas sean informadas de que sus datos están siendo consultados o utilizados.

Este escenario se ve agravado por la decisión del gobierno mexicano, aprobada en marzo de 2025 por el Congreso, de eliminar instituciones autónomas clave, como el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI). El órgano tenía entre sus competencias garantizar la protección de datos personales y el acceso a la información, y su extinción implica un grave retroceso en materia de transparencia y rendición de cuentas. En este contexto, también resulta pertinente llamar la atención sobre la recientemente aprobada Convención de Cibercrimen de la ONU, que fue incluso apoyada por México, cuyo enfoque favorece a la vigilancia y el intercambio transfronterizo de datos entre agencias sin establecer salvaguardas suficientes en materia de derechos humanos, privacidad y debido proceso.

Las nuevas leyes mexicanas legitiman la vigilancia permanente y opaca, donde el control estatal se expande sin supervisión efectiva. Se trata de una tendencia que no es exclusiva de México. En Argentina, por ejemplo, se transfirió el control de la ciberseguridad a la Secretaría de Inteligencia del Estado (SIDE), consolidando un aparato de vigilancia bajo mando directo del Poder Ejecutivo y debilitando garantías fundamentales. A esto se suma la aprobación reciente de la Ley de Inteligencia en Ecuador, que otorgó facultades amplias y ambiguas a los organismos de inteligencia, sin mecanismos claros de transparencia ni rendición de cuentas.

La tendencia regional apunta a un mismo patrón: justificar el incremento de poderes de vigilancia en nombre de la seguridad nacional, mientras se consolidan estructuras estatales cada vez más autoritarias. Estas reformas fortalecen un poder opaco, erosionan las garantías democráticas y colocan a las poblaciones en una situación de vulnerabilidad constante frente al Estado.

Tecnología como atajo político: el falso remedio

Como se mencionó, el principal argumento del gobierno mexicano para impulsar la CURP biométrica y el nuevo paquete de reformas fue responder a la crisis nacional de desapariciones. Actualmente, México enfrenta más de 129.000 personas desaparecidas, más de 5.600 fosas clandestinas y una crisis forense con más de 70.000 cuerpos sin identificar. Se trata de una situación extrema que exige respuestas urgentes, integrales y respetuosas de los Derechos Humanos.

Sin embargo, el paquete de leyes no fue acompañado de argumentos que sostengan de forma clara y verificable cómo estas reformas legales y la nueva infraestructura de vigilancia contribuirían efectivamente a resolver esta crisis. Por el contrario, las causas estructurales, como la impunidad, corrupción, falta de capacidades forenses e institucionales, no fueron enfrentadas por las reformas. Colectivos de familias buscadoras y organizaciones de derechos digitales han advertido que el paquete legislativo no sólo elude las verdaderas causas de la crisis, sino que instala un sistema de vigilancia masiva sin garantías, que expone aún más a las personas defensoras y a la población en situación de vulnerabilidad.

El tecnosolucionismo presenta la tecnología como una solución mágica a problemas sociales complejos. Pero la tecnología, por sí sola, no resuelve esos problemas ni sustituye políticas públicas integrales. Al contrario, su implementación desmedida y sin garantías puede generar nuevas capas de control social, agravando riesgos a los derechos humanos.

Este fenómeno se agrava cuando las reformas legales y la adopción de tecnologías se realizan sin participación social ni debate público, como pasó en México. En América Latina, esta tendencia es cada vez más visible. Por ejemplo, la implementación creciente de tecnologías de reconocimiento facial para supuestamente mejorar la seguridad pública se ha justificado sin evidencia alguna de su efectividad ni participación social. En cambio, hay abundante evidencia de que estas tecnologías profundizan la discriminación y la violencia contra poblaciones ya marginalizadas, especialmente personas negras y trans.

Es importante reconocer que esta problemática y la narrativa del tecnosolucionismo no se limita a contextos autoritarios. Aunque se agrave en estos casos, también se observan en países cuyos gobiernos se presentan como defensores de los Derechos Humanos. Abordar la implementación de tecnologías desde un enfoque de derechos implica cuestionar quién la diseña y cómo se implementa, con qué objetivos y bajo qué condiciones, priorizando siempre la autonomía y la dignidad de las personas. Cuando el uso de estas tecnologías se legitima a través de legislaciones que no respetan marcos de Derechos Humanos ni contemplan procesos con participación social significativa, su implementación termina consolidando estructuras de control que perpetúan la vigilancia y la exclusión, en lugar de fortalecer la democracia y garantizar derechos.

Recalculando: nuevas estrategias para enfrentar los ajustes en la cooperación internacional

Las discusiones sobre la necesidad de reforma de los mecanismos de cooperación internacional no son nuevas. Hace mucho, organizaciones de distintas regiones del mundo han identificado la tendencia colonizadora de los fondos provenientes del Norte Global y la necesidad imperante de un cambio de perspectiva en cómo se trabajan dichos financiamientos. Las organizaciones sociales vienen reclamando la flexibilización de los fondos: algunos conllevan una carga administrativa importante y complejas metodologías de rendición de cuentas, que si bien pueden ser justificables, a veces se muestran impracticables para algunos grupos. Entre los puntos de crítica se encuentran la demanda de reportes de actividades trimestrales y semestrales, además de las restricciones de presupuesto a ciertos ítems, como personal, entre otros que perjudican la sostenibilidad de organizaciones que cumplen un rol clave en la defensa y protección de derechos.

Medidas así reflejan, en lo administrativo, una disparidad de poder que, en lo sustantivo, se revela en un intento por delimitar el ámbito de actuación de tales organizaciones. En relación con el ámbito tecnológico, hemos denunciado cómo ciertas instituciones promueven el desarrollo y despliegue de tecnologías en países del Sur Global sin considerar su potencial impacto a nuestras poblaciones. La preocupación ha sido recogida por agentes de la cooperación internacional que desarrollaron principios propios en consulta con distintos actores, entre ellos Derechos Digitales.

En un momento en que las posibilidades de diálogo y reflexión crítica sobre tales iniciativas parecían generar cambios de estrategia en algunas agencias, surge otro desafío: crisis económicas, cambios de prioridad y el ascenso de la extrema derecha ponen en jaque la disponibilidad de fondos. Ya para finales de 2024 se conversaba acerca de los recortes que algunos Estados de la Unión Europea (UE) implementarían en planes de desarrollo en países de bajos ingresos. La situación se agudizó a inicios de este año con hechos que reconfiguran todo el ecosistema de cooperación internacional.

2025: Ajuste y restricciones

Sin duda, 2025 llegó con importantes retos para las organizaciones sociales. Por un lado, con el avance de múltiples intentos por restringir cada vez más la acción de la sociedad civil a través de leyes que buscan reducir y controlar los activismos. Por otro lado, con la reducción internacional de las ofertas de financiamiento tradicionales derivada de las medidas adoptadas por el nuevo gobierno de Estados Unidos.

El proceso se inició con la suspensión de la ayuda internacional a través de USAID en enero de este año y culminó en el cierre definitivo de la agencia a inicios de julio, dejando a millones de personas en riesgo de muerte en los próximos años, según señala un estudio reciente. La acción repentina dejó además sin piso (en algunos casos de forma literal) a muchas organizaciones sociales en todos los continentes. No fue un cambio gradual, como la planificación de reducción de presupuesto de los países de la UE pensando en una ejecución a tres años. Tampoco fue algo que se venía advirtiendo en una larga discusión de cómo y cuándo. La decisión del nuevo gobierno de EE. UU. de no continuar con la ayuda internacional tomó totalmente desprevenido a un sector que, ya de por sí, es muy dependiente. Como nunca, las conversaciones sobre independencia financiera y descolonización en la cooperación internacional son vitales.

Si bien uno de los temas que más ha ocupado a la cooperación internacional es la medición de impacto, ahora se suma dimensionar el impacto de esta decisión en nuestros países y en las áreas de trabajo que atiende. Lo inmediato ya lo conocemos bien: despidos, mayor precarización (de un sector muchas veces ya precarizado) y una carrera por la búsqueda de alternativas de financiación que permitan sostener la defensa de derechos en contextos cada vez más riesgosos, así como los compromisos asumidos frente a poblaciones enfrentadas a distintos grados de vulnerabilidad.

Insistimos en resistir (y existir)

No es la primera vez en los últimos años que las organizaciones de derechos humanos latinoamericanas nos vemos enfrentadas a situaciones que ponen en riesgo nuestra propia posibilidad de existencia. Desde Derechos Digitales, y en particular desde las iniciativas de entrega de pequeños fondos que sostenemos, hemos visto la fuerza y resiliencia de estas organizaciones en contextos como la pandemia y el ascenso autoritario en la región. Hemos documentado la insistencia de defensores y defensoras de derechos humanos en seguir adelante incluso frente a múltiples amenazas contra su activismo y su vida, en un continente aún manchado por los altísimos niveles de violencia en su contra.

Esos pequeños recursos que advienen de donantes privados, así como otros de distintas iniciativas presentes en la región, siguen siendo insuficientes para dar cuenta de las consecuencias de los recientes recortes a la cooperación internacional, pero están disponibles para suplir parcialmente sus impactos en actividades puntuales y subsidiar la acción urgente en protección de comunidades y derechos. Por medio del Fondo de Respuesta Rápida (FRR), en 5 años de ejecución hemos podido colaborar con más de 100 proyectos distribuidos en 18 países de nuestra región. Además, a través del recientemente creado Fondo para los Derechos Digitales en América Latina (FDD), ya son 20 iniciativas acompañadas en 11 países. Las beneficiarias son lideradas por comunidades educativas, organizaciones de defensa de las personas LGBTQIA+, grupos indígenas, y otras que difícilmente tendrían acceso directo a fondos para explorar aspectos relacionados con las tecnologías y derechos digitales. Se trata de un experimento que ya ha demostrado buenos resultados, además de abrir una oportunidad adicional para que organizaciones locales fortalezcan sus capacidades y puedan participar activamente en la discusión y construcción de políticas de tecnologías en la región.

Adaptarse para seguir en carrera

Desde Derechos Digitales queremos garantizar alguna sostenibilidad para los fondos que gestionamos, y que también están sujetos a las variaciones que impone el escenario internacional. Para eso, también nos ha tocado adaptar algunas de nuestras acciones.

Con el compromiso de seguir buscando aportes de distintos donantes a esta iniciativa que se muestra de crucial relevancia para la región, hemos implementado algunos cambios al FDD que apuntan a garantizar la posibilidad de continuar operando por al menos dos ciclos más: 2025 y 2026.

Las principales modificaciones son:

1. Ciclos de evaluación: al inicio de estos fondos, se trabajó con dos ciclos de evaluación anuales, a mediados y a fin de año. A partir de julio de 2025 será un único ciclo anual.

2. Recepción de propuestas: el FDD recibía propuestas durante todo el año, independientemente de los ciclos de evaluación. Desde julio sólo se aceptarán postulaciones cuando se haga convocatoria, hasta nuevo aviso.

Por otro lado, se mantienen los requisitos para aplicar: organizaciones sociales registradas; se adjudica sólo un FDD por organización (a quienes ya lo recibieron, no pueden volver a aplicar pero sí pueden hacerlo al FRR); ajustarse a los ítems que este fondo puede financiar. Para conocer mejor todos estos detalles se puede visitar la página web de los fondos.

Esta es una modificación importante para el FDD y sabemos que tendrá un impacto en las organizaciones. Nuestro objetivo es mantener una opción de financiamiento hecha por latinoamericanas para latinoamericanas y, al momento, es nuestra mejor apuesta. La conversación sobre acceso a fondos de cooperación internacional, la sostenibilidad de las organizaciones sociales y el apoyo a las personas activistas sigue en pie, trazando caminos y nuevas formas de hacer nuestro trabajo. El mejor recurso del activismo son sus personas y su compromiso con sociedades justas, libres e igualitarias. Confiemos en eso, y adaptemos nuestras estrategias para que los vaivenes de las etapas históricas que nos tocan vivir no pongan en pausa nuestros sueños.

Hacia una convención para regular el trabajo de plataformas: un avance frente a los desafíos del mercado laboral

Las Tecnologías de Propósitos Generales -o GPTs- han tenido impactos significativos en el mercado laboral durante el último siglo. Esta última ola, caracterizada por las innovaciones en algoritmos e Inteligencia Artificial (IA), ya comienza a mostrar sus primeras consecuencias en términos de empleo. En general, los estudios identifican evidencia suficiente para afirmar que la IA generativa ha perjudicado la generación de empleo y los ingresos del sector freelance. Sin embargo, esto pareciera darse más que nada en las ocupaciones de ingresos medios y bajos, y más aún en los rangos etarios inferiores.

El avance acelerado de tecnologías como la IA y los sistemas automatizados de gestión del trabajo está transformando profundamente las dinámicas laborales a nivel global. En este contexto, la necesidad de contar con un marco normativo robusto y con alcance internacional se vuelve urgente: regular el trabajo en plataformas digitales implica también establecer límites y obligaciones claras sobre el uso de tecnologías como la IA en el mundo del trabajo, garantizando justicia algorítmica, protección social y derechos laborales efectivos para todas las personas trabajadoras, sin importar su estatus contractual o la ubicación de la empresa.

Es por ello que resulta crucial el abordaje sobre el Trabajo Decente en Plataformas y la importancia de su instalación en la agenda regulatoria internacional. La 113ª Conferencia Internacional del Trabajo (CIT), celebrada en Ginebra en junio de 2025, marcó un hito en la agenda global del trabajo: por primera vez, se avanzó formalmente hacia la elaboración de un instrumento internacional para regular el trabajo en plataformas digitales. En un escenario laboral transformado por las tecnologías digitales, este paso no es menor. El mandato final fue claro: se acordó avanzar hacia la redacción de una convención vinculante, acompañada por una recomendación, como marco para garantizar derechos básicos a aquellas personas cuyo trabajo es intermediado por plataformas digitales.

¿Qué nos deja la CIT 2025?

Este avance implica el reconocimiento por parte de los Estados, empleadores y trabajadores -los tres pilares de la OIT- de que la economía de plataformas no puede continuar operando sin garantizar condiciones justas. Y sobre todo, que las reglas para el trabajo decente deben ser globales: las plataformas operan transnacionalmente y los vacíos legales que explotan hoy se convierten en nuevas formas de desprotección.

Uno de los aspectos centrales fue la definición del alcance del futuro instrumento. Se llegó a un consenso para que abarque tanto a quienes desempeñan tareas “basadas en la localización” -como reparto, transporte o cuidado- como a quienes realizan trabajo “remoto” a través de plataformas digitales. Esta concepción amplia resulta especialmente relevante para América Latina, donde la fuerza laboral en plataformas está conformada en buena medida por personas de ingresos medios y con escasa calificación requerida, involucradas tanto en actividades presenciales como en servicios digitales a distancia -como la traducción de textos o el procesamiento de datos-. Ambos sectores, como vimos anteriormente, enfrentan con especial énfasis los efectos de la innovación tecnológica y la falta de marcos regulatorios adecuados.

Desafíos persistentes

Sin embargo, la CIT también expuso las tensiones profundas que persisten sobre qué tipo de trabajo debe regularse y cómo. Los puntos más críticos donde no hubo avances sustantivos son los mismos que hoy generan disputas en nuestros países:

1- La presunción de laboralidad, es decir, reconocer como regla general que quienes trabajan para una plataforma lo hacen en relación de dependencia y no como “autónomos” ficticios.

2- La definición de una remuneración adecuada: la tecnologización aporta flexibilidad a muchas tareas e incluso impacta en la productividad. Sin embargo, esto implica en muchos casos la dedicación de jornadas largas debido a la acumulación de múltiples tareas no consideradas como remunerables. Asimismo, el debate instaura discusiones en torno al uso de indicadores para establecer estas remuneraciones: ¿qué consideramos como ingreso digno?

3- La determinación del tiempo de trabajo: una categoría básica en el derecho laboral, pero borrosa en un sistema que exige estar disponible sin garantizar ingresos mínimos.

4- Habiendo suficiente evidencia sobre los sesgos discriminatorios que reproducen los algoritmos más allá de su diseño u origen, un tema de especial relevancia fue la transparencia y auditabilidad algorítmica. Debido a la asimetría de información entre las personas trabajadoras y las plataformas, se discutió la necesidad de que las plataformas informen de forma clara y accesible cómo operan sus algoritmos de asignación de tareas, evaluación del rendimiento y determinación de ingresos. Sin embargo, aún resta brindar claridad sobre cómo regular las decisiones automatizadas y su impacto en las personas trabajadoras.

5- Y, finalmente, resta profundizar el debate sobre los mecanismos de control y la posibilidad de aplicar la legislación local para resolver conflictos, un punto clave para evitar que las plataformas operen en zonas grises de legalidad.

El caso latinoamericano es ilustrativo: la mayoría de los países no cuentan con legislación específica sobre plataformas, y muchas de las iniciativas que buscaron avanzar en esa dirección han quedado truncas o debilitadas. A la vez, las reglas existentes han mostrado limitaciones para garantizar protección efectiva a las personas trabajadoras, porque fueron desarrolladas sin tomar en cuenta estos escenarios,  o por una debilidad de las instituciones encargadas de su supervisión y aplicación. Mientras tanto, las personas trabajadoras enfrentan bloqueos de cuentas sin justificación, ingresos inestables y jornadas extenuantes.

CIT 2026, una oportunidad histórica

En este contexto, el proceso iniciado en la CIT representa una ventana de oportunidad única. El próximo año será decisivo: en la CIT 2026 se definirá la aprobación (o no) del instrumento. Para que esta instancia sea efectiva, será necesario un trabajo articulado y sostenido por parte de sindicatos, organizaciones de la sociedad civil, investigadores y gobiernos. La participación de América Latina -aunque presente en las delegaciones gubernamentales- fue aún limitada desde la sociedad civil. Fortalecer esa voz será clave para que las demandas del Sur Global tengan peso en la redacción final.

Las nuevas tendencias del mercado laboral ya son tangibles. Vemos una realidad teñida de nuevos esquemas de productividad, sectores con perfiles de mayor demanda y otros en estancamiento. Ahora llegó el momento de definir en qué condiciones seguirá esta transformación: que esta realidad garantice derechos fundamentales con mecanismos de protección será responsabilidad de quienes, desde distintos frentes, podamos incidir en esta etapa.

Las tecnologías deben mitigar el cambio climático, no profundizarlo

«Transforma esta foto como si perteneciera al universo visual de Studio Ghibli, conservando el fondo y la pose. Aplica sus rasgos característicos: colores, trazos y texturas», este es el tipo de instrucción con la que el modelo conversacional de Inteligencia Artificial “ChatGPT” generó las imágenes que, un tiempo atrás, fueron tendencia en redes sociales y que atrajo a nuevas personas usuarias a la plataforma. Medios digitales saturados de nuevas publicaciones  y servidores de alojamiento remoto trabajando para almacenar los archivos recién creados fueron servicios muy demandados durante los días que duró la fiebre Ghibli. ¿Cuál fue el impacto ambiental? El más visible, sin duda, es el consumo de agua para el enfriamiento de servidores,  con un promedio estimado de 3 litros de agua por imagen generada

Ahora imaginemos el impacto ambiental de desechar mil computadoras de uso personal por segundo. Es el equivalente para los 62 millones de toneladas de residuos electrónicos generados a nivel mundial, según se registró en el año 2022. Considerando que el número de personas usuarias de internet en el mundo alcanzó los 5560 millones a principios de 2025, la demanda de recursos, tanto en software como de hardware, solo incrementará en los próximos años, dependiendo del  tipo de tecnología que se despliegue. ¿La solución al evidente problema es detener el avance tecnológico y su uso?

La solución no puede estar más lejos de eso. Aunque los modelos de producción tecnológica se basan en una lógica extractivista, sin considerar costos sociales o ambientales, las tecnologías tienen potencial para reducir el impacto. El uso eficiente de la infraestructura tecnológica es clave para mitigar la huella ambiental. Ciertas innovaciones incluso permiten reducir el uso de recursos naturales si son desplegadas adecuadamente. Algunos ejemplos son la computación en la nube, computación grid y virtualización en centros de datos: modelos que  se comportan como si fueran infraestructuras independientes mientras comparten recursos de un mismo servidor o red de servidores.

Si pensamos en el ciclo de vida de la tecnología, podríamos resumir las fases en: diseño, desarrollo y despliegue. Esta última etapa se realiza en infraestructuras robustas y resilientes, capaces de soportar altos niveles de demanda y peticiones por segundo garantizando respuestas rápidas. La magnitud del consumo varía según el tipo de servicio. Aunque en las fases previas también se requiera infraestructura, el consumo comienza a escalar cuando llega a su etapa de producción (despliegue), aumentando la demanda de energía y sistemas de enfriamiento para los centros de datos.

Algunas acciones para mitigar el impacto

Frente a un escenario que exige día a día más recursos, una de las alternativas es avanzar hacia la descarbonización del sector energético . Se trata de sustituir fuentes fósiles como carbón, petróleo y gas natural por insumos renovables como la energía solar o eólica. Algo de esto analizamos un tiempo atrás a raíz de la crisis energética en Ecuador.

Esta alternativa consolidó una nueva carrera por la neutralidad en emisiones de carbono. Así, multinacionales del sector tecnológico aseguran haber alcanzado esta neutralidad en emisiones de carbono y sostienen compromisos por lograr que toda su cadena de suministro y productos lo sean también. Sin embargo, la veracidad de las declaraciones y los mecanismos utilizados siguen bordeando el greenwashing, una práctica que busca confundir a las personas usuarias sobre el impacto medioambiental real de una empresa o producto. Así mismo, la sustitución de materiales al momento de construir piezas electrónicas o componentes, sin sacrificar rendimiento y calidad, ofrece una oportunidad competitiva a mercados que se aventuran a revolucionar la tecnología. Por ejemplo, en China, donde luego de atravesar limitaciones para el uso de microprocesadores basados en silicio, desarrolló un chip libre de este componente y lo reemplazó por bismuto reduciendo el consumo energético en un 10% e incrementando su velocidad en un 40%.

Otro esfuerzo  es el diseño de infraestructuras para una economía circular, un modelo económico que busca minimizar el desperdicio y maximizar el valor de los recursos, productos y materiales. Desde el inicio, es importante pensar en medidas como plantas de producción modulares y que puedan ser actualizadas, reutilizadas y reciclados sus materiales, además de planificar la recuperación de productos al final de su vida útil. Esto es aún más urgente considerando que solo alrededor de la cuarta parte de la basura electrónica es reciclada correctamente, dejando toneladas de residuos sin tratamiendo adecuado y desperdiciando recursos valiosos, en su mayoría, no renovables. 

Por otro lado, los centros de datos requieren condiciones mínimas para operar adecuadamente como seguridad, capacidad de almacenamiento, transferencia de datos, refrigeración y otros. Pensando en el enfriamiento de un data center promedio, se estima que consume 25 millones de litros de agua al año, lo que equivale a 68 mil litros por día. ¿Y si sumamos el consumo de todas las grandes empresas conocidas que gestionan redes sociales, navegadores web y tiendas en línea? Este consumo puede reducirse si se despliega  en zonas con con climas fríos o cerca de aguas de mar profundas. Un esfuerzo que considera la eficiencia energética y uso de agua es Green Mark Certification for Data Centres en Singapur. 

Un compromiso compartido

La gobernanza de las infraestructuras tecnológicas debería centrarse en la justicia ambiental, respetando y promoviendo derechos y sostenibilidad. Las decisiones sobre qué tecnologías se desarrollan, cómo y para quiénes, deben incorporar una perspectiva social y ambiental en todas sus etapas. Desde la planificación de explotación de minerales necesarios para la construcción de componentes electrónicos hasta el uso de una IA para enseñar idiomas en territorios indígenas, todo debe regirse por modelos de gobernanza comunitarios y no por lógicas extractivistas.

Además, es fundamental incentivar iniciativas que potencien proyectos como redes de Internet autosustentables en comunidades, centros de datos locales y uso de tecnologías, que potencien capacidades situadas. A esto se suma la ciencia abierta, el conocimiento libre y el código abierto como componentes estratégicos para la autonomía e independencia de infraestructuras corporativas y privadas.

El equilibrio entre tecnología y medio ambiente solo será posible si transformamos  la infraestructura digital desde su origen, haciéndola parte de la solución y no del problema. Esto implica proyectar fábricas impulsadas con energía solar in situ, centros de datos enfriados con agua del mar sin riesgos ambientales, procesos de desmontaje eficientes en instalaciones de reciclaje adecuadas y redes inteligentes de distribución, como documenta Google con el proyecto IA de DeepMind, que redujo un 40% el consumo energético para refrigeración.

Pero nada de esto será suficiente sin una voluntad política y ética clara. Reconocer la interdependencia entre sostenibilidad ecológica y equidad social es solo el primer paso: lo que sigue es actuar colectivamente para transformar modelos tecnológicos actuales. Urge reducir la dependencia de sistemas corporativos opacos y avanzar, desde la sociedad civil, comunidades, gobiernos y el sector privado, en la construcción de  de políticas públicas, normativas e infraestructura que prioricen el bien común, fomenten la justicia social y ambiental, y garanticen transparencia y rendición de cuentas a toda la ciudadanía.