Infancias en línea: riesgos, regulaciones y desafíos para América Latina

En 2017, el Fondo de las Naciones Unidas para la Infancia (UNICEF) publicó la estimación de que 1 de cada 3 usuarios de internet en todo el mundo era niño, niña o adolescente. A pesar de que aún existen muchos jóvenes que no tienen un acceso significativo a internet – y de que esto constituye un problema de orden primario -, es posible que hoy, casi una década después, la proporción de personas con menos de 18 años en entornos digitales sea aún mayor. En la realidad latinoamericana, estadísticas de países como Brasil, Argentina y México muestran que niños, niñas y adolescentes no solo pasan cada vez más tiempo conectados, sino que también comienzan a acceder a internet a edades cada vez más tempranas.

El punto sobre el cual UNICEF venía alertando al menos desde 2017 es que la infraestructura y las aplicaciones de internet, en esencia, no fueron diseñadas para este público, ni evolucionaron considerando la etapa de desarrollo físico, cognitivo y psicosocial que atraviesan niños, niñas y adolescentes. A esto se suma la lógica de explotación comercial sobre la cual opera internet desde hace años, muy distante de aquella idea inicial de un espacio libre, abierto y creativo. Estos factores exponen a los más jóvenes a una serie de riesgos online, considerablemente más graves que para los usuarios adultos.

En los últimos meses, la discusión sobre estos temas se intensificó. En el Reino Unido entró en vigor un paquete de medidas regulatorias que coloca en el centro la protección infantil en línea. En Brasil, el debate ganó aún más visibilidad tras una denuncia sobre la “adultización” e hipersexualización de niños y adolescentes en entornos digitales. Ambos episodios muestran cómo la agenda de protección en internet se consolidó como un tema urgente en todo el mundo. Sin embargo, es importante reflexionarlo desde una perspectiva localizada desde el contexto latinoamericano.

Niños y adolescentes están, de hecho, en riesgo en internet

La OCDE clasifica los riesgos a los que están expuestos niños, niñas y adolescentes en internet en cuatro categorías – las “4 C’s”. La primera son los riesgos de exposición a contenido inadecuado, como materiales nocivos, discursos de odio, desinformación u otros contenidos ilegales. Aquí entra, por ejemplo, la exposición a la pornografía, con consecuencias que van desde la erotización precoz hasta el estímulo a la violencia y la reproducción de estigmas de género. También entra el acceso a juegos de azar, un problema creciente en América Latina.

La segunda categoría son los riesgos de conducta, que abarcan aquellos creados por las propias interacciones de los niños en entornos digitales. Pueden manifestarse en comportamientos odiosos o nocivos, como el ciberacoso o la automutilación, muchas veces incentivados por el diseño de las plataformas y la viralización de ciertos contenidos. A comienzos de 2025, por ejemplo, una niña de 8 años murió en Brasil tras inhalar desodorante en aerosol en un reto de TikTok.

El tercer grupo son los riesgos de contacto, cuando niños y adolescentes son expuestos a interacciones dañinas o criminales con terceros adultos. Estos encuentros pueden ir desde situaciones de acoso hasta casos de explotación sexual infantil. Recientemente, en Estados Unidos, la fiscalía de Lousiana demandó a la plataforma de juegos Roblox, muy popular entre el público infantil, por no implementar mecanismos básicos de seguridad, lo que habría permitido que pedófilos se hicieran pasar por niños y entablaran interacciones malintencionadas a través del chat.

La cuarta dimensión son los riesgos de consumo, ligados al perfilado comercial y la inducción de gastos, parte estructural del modelo de negocio de las grandes plataformas digitales. Niños y adolescentes, en proceso de desarrollo, carecen hasta cierta edad de herramientas para distinguir publicidad de contenido orgánico. Incluso siendo ya un poco más viejos, no cuentan con recursos suficientes para lidiar con las presiones comerciales. Las prácticas de perfilamiento, como ya denunciaron distintos whistleblowers, han sido utilizadas por plataformas para aprovechar la vulnerabilidad emocional de adolescentes (sobre todo niñas). Entre sus prácticas está la promoción de contenidos que estimulan distorsiones corporales para mantenerlas enganchadas, aun con pleno conocimiento de sus efectos nocivos en la salud mental.

La OCDE señala, además, que existen riesgos transversales, como la pérdida de privacidad, la salud física y mental y los derivados de tecnologías digitales avanzadas o biométricas. Temas como el sharenting, los sesgos de los sistemas de inteligencia artificial y los impactos del uso excesivo de redes sociales en el sedentarismo juvenil entran en esta categoría. Casos recientes publicados en la prensa, como la denuncia de las ganancias de YouTube con contenidos abusivos sobre niños, muestran cómo estas dimensiones se combinan y retroalimentan.

Es esencial reconocer estos riesgos, así como el hecho de que pueden afectar de manera trágica el desarrollo de una persona en formación. También es importante destacar que no recaen de forma homogénea: estudios comparativos señalan que las plataformas aplican reglas más laxas en países del Sur Global. En América Latina, niños indígenas y afrodescendientes tienen menos acceso tanto a internet como a educación formal, incluida la educación digital. Además, en un contexto en el que las plataformas digitales lucran con la vulneración de derechos, la carga del cuidado recae de forma desproporcionada en las familias y, especialmente, en las madres. En una región con altas tasas de maternidad en solitario y bajos niveles de alfabetización digital, muchas mujeres no cuentan con el tiempo ni con las herramientas necesarias para acompañar la navegación segura de sus hijos, lo que los vuelve aún más vulnerables.

 La respuesta regulatoria

No es en vano que, sobre todo en los últimos cinco años, este tema comenzó a recibir creciente atención de reguladores en todo el mundo. En 2020, el Comité de los Derechos del Niño de la ONU redactó la versión final de su Observación General 25 relativa a los derechos de los niños en relación con el entorno digital, aprobándola a comienzos de 2021. El documento representó un hito en el derecho internacional de los derechos humanos, al interpretar la Convención sobre los Derechos del Niño de 1989 a la luz de los avances tecnológicos, reafirmando que todos los derechos de niños, niñas y adolescentes se extienden también al entorno digital. Conviene recordar que la Convención de 1989 es el tratado internacional más ratificado del mundo, y que instauró la doctrina de la protección integral, reconociendo a todas las personas con menos de 18 años como sujetos de derechos, con autonomía progresiva para su ejercicio, y, por lo tanto, debiendo ser promovidos y protegidos en todos los espacios.

2021 también marcó la aprobación del Age Appropriate Design Code por el ICO del Reino Unido, que estableció estándares de diseño para productos y servicios digitales destinados o con alta probabilidad de ser utilizados por niños y adolescentes. La iniciativa inspiró en los años siguientes diversas medidas por parte de autoridades de protección de datos, especialmente en Europa, como en Suecia e Irlanda. El Digital Services Act (DSA), aprobado en 2023 en la Unión Europea, también tiene reglas específicas para el grupo, señalando el principio de su mejor interés para el desarrollo de servicios digitales y reglas diferenciadas para el tratamiento de sus datos.

En 2024, Australia aprobó una ley inédita que prohíbe el acceso de personas con menos de 16 años a redes sociales y la Unión Africana adoptó directrices para la protección en línea de niños, niñas y adolescentes. La discusión también ganó fuerza en los Estados Unidos, donde ya recibió media sanción el Kids Online Safety Act (KOSA), aunque bajo apoyo desde argumentos problemáticos de políticos conservadores, como la protección de niños a “contenidos LGBT”. En 2025, nuevamente el Reino Unido, esta vez a través de la Ofcom, publicó una serie de directrices condensadas en los ya mencionados Protection of Children Codes and Guidance.

Estas iniciativas también resonaron en América Latina. En julio de 2025, Colombia aprobó la Ley 2489, “por medio de la cual se establecen disposiciones para el desarrollo de entornos digitales sanos y seguros para los niños, niñas y adolescentes del país”. En Brasil, desde 2022 se debate en el Congreso Nacional el Proyecto de Ley nº 2628,  que también establece reglas específicas para la protección de los más jóvenes en internet. El texto fue aprobado en el Senado a finales de 2024 y recién aprobado también en la Cámara de los Diputados, en agosto de 2025. Ahora vuelve al Senado para aprobación final, incluyendo dispositivos como la prohibición del uso de datos de personas con menos de 18 años para publicidad comportamental, además de previsiones sobre supervisión parental, vedación de acceso a contenidos dañinos y rendición de cuentas por parte de las aplicaciones digitales. Su tramitación recobró fuerza en agosto de este año, tras la referida denuncia del influencer Felca digital sobre la adultización e hipersexualización de niños y adolescentes en internet.

Un punto común de estas iniciativas regulatorias es establecer reglas diferenciadas para el uso de entornos digitales por parte de niños y adolescentes, ya sea en relación con los contenidos a los que pueden (o no) acceder, o en relación con prácticas de diseño y extracción de datos. Para que esa diferenciación ocurra en la práctica, gobiernos y empresas que proveen servicios digitales señalan que es necesario poder identificar quiénes son las personas con menos de 18 años en internet. En este contexto, aun cuando no aparezcan de forma explícita en todas las normativas recientes, la implementación de mecanismos de verificación de edad ha pasado a ser considerada una puerta de entrada esencial para la defensa de la infancia.

Informes de autoridades y análisis recientes hablan de una “ola global” de sistemas de verificación de edad en toda internet, donde la protección de la infancia se presenta como justificación para extender controles de identidad a todos los usuarios, incluso en aplicaciones que no son consideradas de alto riesgo. Esta tendencia recuerda al debate de la última década que oponía la defensa de la criptografía fuerte al combate contra la circulación de material de abuso sexual infantil, dividiendo en grupos opuestos, de manera simplista, a defensores de la privacidad y defensores de la infancia.

Más allá de soluciones fáciles

Esa falsa oposición plantea trampas que empobrecen el debate y dificultan la búsqueda de soluciones. Tiene, al menos, dos problemas centrales. El primero es no reconocer que niños y adolescentes, como sujetos de derechos, también tienen derecho a la privacidad y deben poder ejercerlo en el marco de su autonomía progresiva. Si pensamos en quienes viven en contextos familiares o comunitarios represivos, buscando información sobre su sexualidad o identidad de género, por ejemplo, este derecho se vuelve aún más importante.

Extender mecanismos de verificación de edad de manera indiscriminada altera la estructura de internet y puede afectar también a las propias infancias. No se trata de sacrificar las características fundamentales de la red como el acceso abierto y el anonimato relativo en nombre de su protección, porque ellas también se benefician de estas condiciones. El desafío es matizar el debate y reconocer las tensiones en juego, incluyendo en las discusiones regulatorias también agentes técnicos que puedan apoyar a desarrollar estos matices.

El segundo problema es desconsiderar que las tecnologías operan dentro de entramados sociotécnicos complejos. Así como no son, de manera aislada, la raíz de los riesgos que enfrentan niños y adolescentes, tampoco serán, de manera aislada, la solución.

Debemos discutir seriamente temas como la cultura de la violación y la ausencia de educación sexual en las escuelas, y cómo estas problemáticas atraviesan desigualdades de género y raza. En América Latina, entre 2018 y 2022, casi 490.000 niñas con menos de 18 años fueron víctimas de delitos contra su dignidad sexual, un dato que evidencia la urgencia de ese debate. Además, es necesario debatir el modelo económico que sostiene internet: el capitalismo de vigilancia. Un sistema nocivo para todos los usuarios, pero que impacta de manera particularmente severa a niños, niñas y adolescentes.

Estamos en un potencial punto de inflexión en la forma en que se estructura la internet y circulan sus usuarios. El debate sobre la protección de las infancias es indispensable, pero no puede reducirse a fórmulas simplistas ni a la falsa oposición entre privacidad y seguridad. América Latina no debe importar soluciones regulatorias prefabricadas sin crítica, sino comprometerse en un proyecto político y social que coloque a niños, niñas y adolescentes en toda su diversidad en el centro de un futuro digital verdaderamente justo.

Contribución a la consulta abierta del Grupo de Trabajo del Consejo de la UIT sobre Internet (CWG-Internet) sobre conectividad significativa en países en desarrollo sin litoral

En el marco de los procesos de consulta abierta del Grupo de Trabajo del Consejo de la UIT sobre Internet (CWG-Internet) presentamos, junto con TEDIC, esta contribución sobre conectividad significativa en países en desarrollo sin litoral. En las Américas sólo dos países responden a tal categoría, Bolivia y Paraguay. En este documento sostenemos que la conectividad significativa habilita el ejercicio de los derechos humanos, y ofrecemos un análisis contextual evaluando los desafíos y las estrategias para avanzar hacia marcos de conectividad significativa en Bolivia y Paraguay desde una perspectiva de derechos humanos e interseccional.

Fondo de Respuesta Rápida

El Fondo de Respuesta Rápida para la protección de derechos digitales en América Latina (FRR) brinda apoyo a activistas y organizaciones de la sociedad civil que enfrentan emergencias que no pueden ser satisfechas por los ciclos de financiamiento tradicionales.

Desde su inicio en 2019, el FRR ha respondido a crecientes amenazas y abusos relacionados con la protección de los derechos humanos en entornos digitales. Este fondo es administrado por Derechos Digitales, con el apoyo de fondos internacionales. 

De la promesa tecnológica al control estatal: lo que revela el caso mexicano

En junio de 2025, México aprobó un paquete legislativo que incluyó reformas a la Ley de la Guardia Nacional, la Ley General de Población y la Ley General en Materia de Desaparición Forzada. Este conjunto de reformas legales creó una Clave Única de Registro de Población (CURP) biométrica que es obligatoria para acceder a servicios públicos y privados. Además, amplió significativamente las facultades de inteligencia de las Fuerzas Armadas y la Guardia Nacional. Esto se llevó a cabo a pesar de la movilización de organizaciones de la sociedad civil, que advirtieron sobre los graves riesgos que estas reformas representan para los derechos humanos y la democracia en el país.

Lejos de ser un caso aislado, este proceso refleja una tendencia regional cada vez más extendida en América Latina: la consolidación de infraestructuras de vigilancia y control social, legitimadas a través de reformas legales y sustentadas en el uso de tecnologías digitales y biométricas. Este fenómeno revela un panorama en que el tecnosolucionismo y la seguridad se utilizan como argumentos para erosionar libertades, reforzar el poder estatal y profundizar desigualdades estructurales.

Promesas y peligros de la identidad digital

La creación de la CURP biométrica en México implica el establecimiento de una base de datos centralizada que asocia el número único de registro de cada persona con sus datos biométricos, como huellas dactilares y fotografía. El objetivo declarado por el Gobierno es responder a la crisis generada por la creciente desaparición de personas, mediante la construcción de un sistema que permita registrar y rastrear cada interacción y movimiento de la ciudadanía en su vida cotidiana, desde el acceso a servicios públicos hasta actividades privadas, con el fin de facilitar su identificación y localización.

Al tratarse de un registro obligatorio, se elimina la posibilidad de un consentimiento informado sobre la recolección y el uso de los datos personales, lo que agrava los riesgos para la autonomía y la privacidad. Además, habría que considerar qué ocurre con quienes no logran registrarse: ¿quedarán excluidos del acceso a servicios esenciales? La obligatoriedad de la CURP biométrica como requisito para acceder a servicios públicos y privados implica que quienes no estén registrados en esta base o no puedan hacerlo quedarán fuera de derechos y prestaciones básicas.

Así, personas que no logran acercarse a los centros de registro, sobre todo las que viven en zonas remotas; aquellas que no tienen datos biométricos que puedan ser recopilados (como personas mayores con huellas dactilares deterioradas o personas con ciertas discapacidades); y personas trans cuya identidad de género y nombre social no se reflejan en su CURP -especialmente considerando que varios estados mexicanos no reconocen legalmente el nombre social- quedan aún más marginadas. Es decir, además de profundizar desigualdades estructurales ya existentes, este tipo de medidas produce nuevas formas de exclusión, reforzando barreras institucionales y sociales que afectan de manera desproporcionada a los grupos sociales históricamente excluidos.

Al mismo tiempo, este tipo de infraestructura plantea serias preocupaciones en términos de privacidad y desafía directamente el derecho al anonimato. El anonimato protege a las personas frente al rastreo constante de sus actividades y opiniones, especialmente en contextos donde disentir puede tener consecuencias.

También conlleva importantes riesgos en materia de ciberseguridad: aunque existen distintos niveles de madurez en ciberseguridad en los Estados de América Latina, se han registrado repetidos ataques y vulneraciones a bases de datos públicas en varios países. Las filtraciones de datos biométricos resultan especialmente graves, ya que se trata de información que, a diferencia de una contraseña, no puede ser modificada: forma parte intrínseca de la identidad física de cada persona. Su exposición indebida, así, puede llevar a fraudes y robo de identidad.

La creación de bases de datos centralizadas y la recopilación indiscriminada de datos biométricos no son fenómenos exclusivos de México. En 2023, Derechos Digitales ya advertía de la tendencia en un informe sobre la proliferación de sistemas de identidad digital en América Latina, señalando los riesgos asociados y la falta de controles efectivos, como la ausencia de garantías judiciales, la opacidad en el uso de los datos y el acceso por parte de múltiples entidades estatales sin supervisión.

Sin embargo, hay ejemplos que muestran decisiones orientadas a establecer límites: en Brasil, en 2022, el Supremo Tribunal Federal decidió imponer restricciones significativas al Cadastro Base do Cidadão -una base de datos también con información biométrica creada por decreto presidencial- al considerar inconstitucional el acceso irrestricto por parte de todos los órganos gubernamentales, reforzando así la necesidad de controles judiciales y criterios de proporcionalidad. Esta discusión resulta especialmente pertinente para México, donde el nuevo paquete legislativo otorga acceso a la base de datos biométrica a diversas instancias de inteligencia y a las Fuerzas Armadas sin requerir autorización judicial ni mecanismos de control democrático.

Inteligencia sin control: el poder opaco

Las reformas legales recientes en México otorgan a las Fuerzas Armadas y a la Guardia Nacional un poder sin precedentes en materia de inteligencia. Estas instituciones reciben facultades ampliadas para realizar labores de vigilancia e interceptación de comunicaciones sin necesidad de autorización judicial, eliminando cualquier contrapeso democrático. Además, se les concede acceso irrestricto a la base de datos de la CURP biométrica, lo que les permite rastrear de forma masiva e indiscriminada a la población, sin que las personas sean informadas de que sus datos están siendo consultados o utilizados.

Este escenario se ve agravado por la decisión del gobierno mexicano, aprobada en marzo de 2025 por el Congreso, de eliminar instituciones autónomas clave, como el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI). El órgano tenía entre sus competencias garantizar la protección de datos personales y el acceso a la información, y su extinción implica un grave retroceso en materia de transparencia y rendición de cuentas. En este contexto, también resulta pertinente llamar la atención sobre la recientemente aprobada Convención de Cibercrimen de la ONU, que fue incluso apoyada por México, cuyo enfoque favorece a la vigilancia y el intercambio transfronterizo de datos entre agencias sin establecer salvaguardas suficientes en materia de derechos humanos, privacidad y debido proceso.

Las nuevas leyes mexicanas legitiman la vigilancia permanente y opaca, donde el control estatal se expande sin supervisión efectiva. Se trata de una tendencia que no es exclusiva de México. En Argentina, por ejemplo, se transfirió el control de la ciberseguridad a la Secretaría de Inteligencia del Estado (SIDE), consolidando un aparato de vigilancia bajo mando directo del Poder Ejecutivo y debilitando garantías fundamentales. A esto se suma la aprobación reciente de la Ley de Inteligencia en Ecuador, que otorgó facultades amplias y ambiguas a los organismos de inteligencia, sin mecanismos claros de transparencia ni rendición de cuentas.

La tendencia regional apunta a un mismo patrón: justificar el incremento de poderes de vigilancia en nombre de la seguridad nacional, mientras se consolidan estructuras estatales cada vez más autoritarias. Estas reformas fortalecen un poder opaco, erosionan las garantías democráticas y colocan a las poblaciones en una situación de vulnerabilidad constante frente al Estado.

Tecnología como atajo político: el falso remedio

Como se mencionó, el principal argumento del gobierno mexicano para impulsar la CURP biométrica y el nuevo paquete de reformas fue responder a la crisis nacional de desapariciones. Actualmente, México enfrenta más de 129.000 personas desaparecidas, más de 5.600 fosas clandestinas y una crisis forense con más de 70.000 cuerpos sin identificar. Se trata de una situación extrema que exige respuestas urgentes, integrales y respetuosas de los Derechos Humanos.

Sin embargo, el paquete de leyes no fue acompañado de argumentos que sostengan de forma clara y verificable cómo estas reformas legales y la nueva infraestructura de vigilancia contribuirían efectivamente a resolver esta crisis. Por el contrario, las causas estructurales, como la impunidad, corrupción, falta de capacidades forenses e institucionales, no fueron enfrentadas por las reformas. Colectivos de familias buscadoras y organizaciones de derechos digitales han advertido que el paquete legislativo no sólo elude las verdaderas causas de la crisis, sino que instala un sistema de vigilancia masiva sin garantías, que expone aún más a las personas defensoras y a la población en situación de vulnerabilidad.

El tecnosolucionismo presenta la tecnología como una solución mágica a problemas sociales complejos. Pero la tecnología, por sí sola, no resuelve esos problemas ni sustituye políticas públicas integrales. Al contrario, su implementación desmedida y sin garantías puede generar nuevas capas de control social, agravando riesgos a los derechos humanos.

Este fenómeno se agrava cuando las reformas legales y la adopción de tecnologías se realizan sin participación social ni debate público, como pasó en México. En América Latina, esta tendencia es cada vez más visible. Por ejemplo, la implementación creciente de tecnologías de reconocimiento facial para supuestamente mejorar la seguridad pública se ha justificado sin evidencia alguna de su efectividad ni participación social. En cambio, hay abundante evidencia de que estas tecnologías profundizan la discriminación y la violencia contra poblaciones ya marginalizadas, especialmente personas negras y trans.

Es importante reconocer que esta problemática y la narrativa del tecnosolucionismo no se limita a contextos autoritarios. Aunque se agrave en estos casos, también se observan en países cuyos gobiernos se presentan como defensores de los Derechos Humanos. Abordar la implementación de tecnologías desde un enfoque de derechos implica cuestionar quién la diseña y cómo se implementa, con qué objetivos y bajo qué condiciones, priorizando siempre la autonomía y la dignidad de las personas. Cuando el uso de estas tecnologías se legitima a través de legislaciones que no respetan marcos de Derechos Humanos ni contemplan procesos con participación social significativa, su implementación termina consolidando estructuras de control que perpetúan la vigilancia y la exclusión, en lugar de fortalecer la democracia y garantizar derechos.

Recalculando: nuevas estrategias para enfrentar los ajustes en la cooperación internacional

Las discusiones sobre la necesidad de reforma de los mecanismos de cooperación internacional no son nuevas. Hace mucho, organizaciones de distintas regiones del mundo han identificado la tendencia colonizadora de los fondos provenientes del Norte Global y la necesidad imperante de un cambio de perspectiva en cómo se trabajan dichos financiamientos. Las organizaciones sociales vienen reclamando la flexibilización de los fondos: algunos conllevan una carga administrativa importante y complejas metodologías de rendición de cuentas, que si bien pueden ser justificables, a veces se muestran impracticables para algunos grupos. Entre los puntos de crítica se encuentran la demanda de reportes de actividades trimestrales y semestrales, además de las restricciones de presupuesto a ciertos ítems, como personal, entre otros que perjudican la sostenibilidad de organizaciones que cumplen un rol clave en la defensa y protección de derechos.

Medidas así reflejan, en lo administrativo, una disparidad de poder que, en lo sustantivo, se revela en un intento por delimitar el ámbito de actuación de tales organizaciones. En relación con el ámbito tecnológico, hemos denunciado cómo ciertas instituciones promueven el desarrollo y despliegue de tecnologías en países del Sur Global sin considerar su potencial impacto a nuestras poblaciones. La preocupación ha sido recogida por agentes de la cooperación internacional que desarrollaron principios propios en consulta con distintos actores, entre ellos Derechos Digitales.

En un momento en que las posibilidades de diálogo y reflexión crítica sobre tales iniciativas parecían generar cambios de estrategia en algunas agencias, surge otro desafío: crisis económicas, cambios de prioridad y el ascenso de la extrema derecha ponen en jaque la disponibilidad de fondos. Ya para finales de 2024 se conversaba acerca de los recortes que algunos Estados de la Unión Europea (UE) implementarían en planes de desarrollo en países de bajos ingresos. La situación se agudizó a inicios de este año con hechos que reconfiguran todo el ecosistema de cooperación internacional.

2025: Ajuste y restricciones

Sin duda, 2025 llegó con importantes retos para las organizaciones sociales. Por un lado, con el avance de múltiples intentos por restringir cada vez más la acción de la sociedad civil a través de leyes que buscan reducir y controlar los activismos. Por otro lado, con la reducción internacional de las ofertas de financiamiento tradicionales derivada de las medidas adoptadas por el nuevo gobierno de Estados Unidos.

El proceso se inició con la suspensión de la ayuda internacional a través de USAID en enero de este año y culminó en el cierre definitivo de la agencia a inicios de julio, dejando a millones de personas en riesgo de muerte en los próximos años, según señala un estudio reciente. La acción repentina dejó además sin piso (en algunos casos de forma literal) a muchas organizaciones sociales en todos los continentes. No fue un cambio gradual, como la planificación de reducción de presupuesto de los países de la UE pensando en una ejecución a tres años. Tampoco fue algo que se venía advirtiendo en una larga discusión de cómo y cuándo. La decisión del nuevo gobierno de EE. UU. de no continuar con la ayuda internacional tomó totalmente desprevenido a un sector que, ya de por sí, es muy dependiente. Como nunca, las conversaciones sobre independencia financiera y descolonización en la cooperación internacional son vitales.

Si bien uno de los temas que más ha ocupado a la cooperación internacional es la medición de impacto, ahora se suma dimensionar el impacto de esta decisión en nuestros países y en las áreas de trabajo que atiende. Lo inmediato ya lo conocemos bien: despidos, mayor precarización (de un sector muchas veces ya precarizado) y una carrera por la búsqueda de alternativas de financiación que permitan sostener la defensa de derechos en contextos cada vez más riesgosos, así como los compromisos asumidos frente a poblaciones enfrentadas a distintos grados de vulnerabilidad.

Insistimos en resistir (y existir)

No es la primera vez en los últimos años que las organizaciones de derechos humanos latinoamericanas nos vemos enfrentadas a situaciones que ponen en riesgo nuestra propia posibilidad de existencia. Desde Derechos Digitales, y en particular desde las iniciativas de entrega de pequeños fondos que sostenemos, hemos visto la fuerza y resiliencia de estas organizaciones en contextos como la pandemia y el ascenso autoritario en la región. Hemos documentado la insistencia de defensores y defensoras de derechos humanos en seguir adelante incluso frente a múltiples amenazas contra su activismo y su vida, en un continente aún manchado por los altísimos niveles de violencia en su contra.

Esos pequeños recursos que advienen de donantes privados, así como otros de distintas iniciativas presentes en la región, siguen siendo insuficientes para dar cuenta de las consecuencias de los recientes recortes a la cooperación internacional, pero están disponibles para suplir parcialmente sus impactos en actividades puntuales y subsidiar la acción urgente en protección de comunidades y derechos. Por medio del Fondo de Respuesta Rápida (FRR), en 5 años de ejecución hemos podido colaborar con más de 100 proyectos distribuidos en 18 países de nuestra región. Además, a través del recientemente creado Fondo para los Derechos Digitales en América Latina (FDD), ya son 20 iniciativas acompañadas en 11 países. Las beneficiarias son lideradas por comunidades educativas, organizaciones de defensa de las personas LGBTQIA+, grupos indígenas, y otras que difícilmente tendrían acceso directo a fondos para explorar aspectos relacionados con las tecnologías y derechos digitales. Se trata de un experimento que ya ha demostrado buenos resultados, además de abrir una oportunidad adicional para que organizaciones locales fortalezcan sus capacidades y puedan participar activamente en la discusión y construcción de políticas de tecnologías en la región.

Adaptarse para seguir en carrera

Desde Derechos Digitales queremos garantizar alguna sostenibilidad para los fondos que gestionamos, y que también están sujetos a las variaciones que impone el escenario internacional. Para eso, también nos ha tocado adaptar algunas de nuestras acciones.

Con el compromiso de seguir buscando aportes de distintos donantes a esta iniciativa que se muestra de crucial relevancia para la región, hemos implementado algunos cambios al FDD que apuntan a garantizar la posibilidad de continuar operando por al menos dos ciclos más: 2025 y 2026.

Las principales modificaciones son:

1. Ciclos de evaluación: al inicio de estos fondos, se trabajó con dos ciclos de evaluación anuales, a mediados y a fin de año. A partir de julio de 2025 será un único ciclo anual.

2. Recepción de propuestas: el FDD recibía propuestas durante todo el año, independientemente de los ciclos de evaluación. Desde julio sólo se aceptarán postulaciones cuando se haga convocatoria, hasta nuevo aviso.

Por otro lado, se mantienen los requisitos para aplicar: organizaciones sociales registradas; se adjudica sólo un FDD por organización (a quienes ya lo recibieron, no pueden volver a aplicar pero sí pueden hacerlo al FRR); ajustarse a los ítems que este fondo puede financiar. Para conocer mejor todos estos detalles se puede visitar la página web de los fondos.

Esta es una modificación importante para el FDD y sabemos que tendrá un impacto en las organizaciones. Nuestro objetivo es mantener una opción de financiamiento hecha por latinoamericanas para latinoamericanas y, al momento, es nuestra mejor apuesta. La conversación sobre acceso a fondos de cooperación internacional, la sostenibilidad de las organizaciones sociales y el apoyo a las personas activistas sigue en pie, trazando caminos y nuevas formas de hacer nuestro trabajo. El mejor recurso del activismo son sus personas y su compromiso con sociedades justas, libres e igualitarias. Confiemos en eso, y adaptemos nuestras estrategias para que los vaivenes de las etapas históricas que nos tocan vivir no pongan en pausa nuestros sueños.

Hacia una convención para regular el trabajo de plataformas: un avance frente a los desafíos del mercado laboral

Las Tecnologías de Propósitos Generales -o GPTs- han tenido impactos significativos en el mercado laboral durante el último siglo. Esta última ola, caracterizada por las innovaciones en algoritmos e Inteligencia Artificial (IA), ya comienza a mostrar sus primeras consecuencias en términos de empleo. En general, los estudios identifican evidencia suficiente para afirmar que la IA generativa ha perjudicado la generación de empleo y los ingresos del sector freelance. Sin embargo, esto pareciera darse más que nada en las ocupaciones de ingresos medios y bajos, y más aún en los rangos etarios inferiores.

El avance acelerado de tecnologías como la IA y los sistemas automatizados de gestión del trabajo está transformando profundamente las dinámicas laborales a nivel global. En este contexto, la necesidad de contar con un marco normativo robusto y con alcance internacional se vuelve urgente: regular el trabajo en plataformas digitales implica también establecer límites y obligaciones claras sobre el uso de tecnologías como la IA en el mundo del trabajo, garantizando justicia algorítmica, protección social y derechos laborales efectivos para todas las personas trabajadoras, sin importar su estatus contractual o la ubicación de la empresa.

Es por ello que resulta crucial el abordaje sobre el Trabajo Decente en Plataformas y la importancia de su instalación en la agenda regulatoria internacional. La 113ª Conferencia Internacional del Trabajo (CIT), celebrada en Ginebra en junio de 2025, marcó un hito en la agenda global del trabajo: por primera vez, se avanzó formalmente hacia la elaboración de un instrumento internacional para regular el trabajo en plataformas digitales. En un escenario laboral transformado por las tecnologías digitales, este paso no es menor. El mandato final fue claro: se acordó avanzar hacia la redacción de una convención vinculante, acompañada por una recomendación, como marco para garantizar derechos básicos a aquellas personas cuyo trabajo es intermediado por plataformas digitales.

¿Qué nos deja la CIT 2025?

Este avance implica el reconocimiento por parte de los Estados, empleadores y trabajadores -los tres pilares de la OIT- de que la economía de plataformas no puede continuar operando sin garantizar condiciones justas. Y sobre todo, que las reglas para el trabajo decente deben ser globales: las plataformas operan transnacionalmente y los vacíos legales que explotan hoy se convierten en nuevas formas de desprotección.

Uno de los aspectos centrales fue la definición del alcance del futuro instrumento. Se llegó a un consenso para que abarque tanto a quienes desempeñan tareas “basadas en la localización” -como reparto, transporte o cuidado- como a quienes realizan trabajo “remoto” a través de plataformas digitales. Esta concepción amplia resulta especialmente relevante para América Latina, donde la fuerza laboral en plataformas está conformada en buena medida por personas de ingresos medios y con escasa calificación requerida, involucradas tanto en actividades presenciales como en servicios digitales a distancia -como la traducción de textos o el procesamiento de datos-. Ambos sectores, como vimos anteriormente, enfrentan con especial énfasis los efectos de la innovación tecnológica y la falta de marcos regulatorios adecuados.

Desafíos persistentes

Sin embargo, la CIT también expuso las tensiones profundas que persisten sobre qué tipo de trabajo debe regularse y cómo. Los puntos más críticos donde no hubo avances sustantivos son los mismos que hoy generan disputas en nuestros países:

1- La presunción de laboralidad, es decir, reconocer como regla general que quienes trabajan para una plataforma lo hacen en relación de dependencia y no como “autónomos” ficticios.

2- La definición de una remuneración adecuada: la tecnologización aporta flexibilidad a muchas tareas e incluso impacta en la productividad. Sin embargo, esto implica en muchos casos la dedicación de jornadas largas debido a la acumulación de múltiples tareas no consideradas como remunerables. Asimismo, el debate instaura discusiones en torno al uso de indicadores para establecer estas remuneraciones: ¿qué consideramos como ingreso digno?

3- La determinación del tiempo de trabajo: una categoría básica en el derecho laboral, pero borrosa en un sistema que exige estar disponible sin garantizar ingresos mínimos.

4- Habiendo suficiente evidencia sobre los sesgos discriminatorios que reproducen los algoritmos más allá de su diseño u origen, un tema de especial relevancia fue la transparencia y auditabilidad algorítmica. Debido a la asimetría de información entre las personas trabajadoras y las plataformas, se discutió la necesidad de que las plataformas informen de forma clara y accesible cómo operan sus algoritmos de asignación de tareas, evaluación del rendimiento y determinación de ingresos. Sin embargo, aún resta brindar claridad sobre cómo regular las decisiones automatizadas y su impacto en las personas trabajadoras.

5- Y, finalmente, resta profundizar el debate sobre los mecanismos de control y la posibilidad de aplicar la legislación local para resolver conflictos, un punto clave para evitar que las plataformas operen en zonas grises de legalidad.

El caso latinoamericano es ilustrativo: la mayoría de los países no cuentan con legislación específica sobre plataformas, y muchas de las iniciativas que buscaron avanzar en esa dirección han quedado truncas o debilitadas. A la vez, las reglas existentes han mostrado limitaciones para garantizar protección efectiva a las personas trabajadoras, porque fueron desarrolladas sin tomar en cuenta estos escenarios,  o por una debilidad de las instituciones encargadas de su supervisión y aplicación. Mientras tanto, las personas trabajadoras enfrentan bloqueos de cuentas sin justificación, ingresos inestables y jornadas extenuantes.

CIT 2026, una oportunidad histórica

En este contexto, el proceso iniciado en la CIT representa una ventana de oportunidad única. El próximo año será decisivo: en la CIT 2026 se definirá la aprobación (o no) del instrumento. Para que esta instancia sea efectiva, será necesario un trabajo articulado y sostenido por parte de sindicatos, organizaciones de la sociedad civil, investigadores y gobiernos. La participación de América Latina -aunque presente en las delegaciones gubernamentales- fue aún limitada desde la sociedad civil. Fortalecer esa voz será clave para que las demandas del Sur Global tengan peso en la redacción final.

Las nuevas tendencias del mercado laboral ya son tangibles. Vemos una realidad teñida de nuevos esquemas de productividad, sectores con perfiles de mayor demanda y otros en estancamiento. Ahora llegó el momento de definir en qué condiciones seguirá esta transformación: que esta realidad garantice derechos fundamentales con mecanismos de protección será responsabilidad de quienes, desde distintos frentes, podamos incidir en esta etapa.

Educación y tecnologías vs. tecnologías y educación: reflexiones a partir de avances normativos recientes

En un momento de acelerados desarrollos tecnológicos y digitalización, puede parecer redundante decir que la discusión sobre la incorporación de tecnologías ha acompañado buena parte de los debates sobre reformas educativas en la historia reciente. Propuestas de incorporación del cine, radio y televisión marcaron el siglo XX, que –aunque no logró democratizar el acceso a la educación para buena parte de la población mundial– terminó con nuevas promesas de “revolución” educativa derivada exclusivamente de las tecnologías digitales. Como en momentos anteriores, fueron los más variados agentes, incluso instituciones financieras aparentemente poco vinculadas con el campo educativo, quienes vocalizaron de manera más contundente el poder transformador de lo digital para superar los problemas de esa educación “tradicional”. Sin embargo, empezar recuperando esta historia parece importante en un momento en que un nuevo ciclo de optimismos y pesimismos vuelve a instalarse en los debates sobre educación y tecnologías en América Latina.

La olla de oro al final del arcoíris

En un contexto de múltiples precariedades en los sistemas educativos, las tecnologías digitales a veces han sido presentadas como una panacea. La metáfora es de una recompensa tecnológica capaz incluso de transformar prácticas pedagógicas clasificadas de poco eficientes o atractivas para nuevas generaciones. Declaraciones de agentes externos al entorno escolar no ocultan su intento de culpabilizar a las y los docentes por todo tipo de mal relacionado con la educación.

Un extremo de este tipo de discurso se ha activado en Brasil para justificar la adopción de sistemas de reconocimiento facial para el registro de la asistencia escolar en el estado de Paraná. De acuerdo con la gestión local, basada en un documento del Banco Mundial, el método de control de presencia oral sería ineficiente, representando una pérdida de tiempo; la tecnología, por lo tanto, ofrecería la solución a partir de la automatización. Sin embargo, las promesas fueron, como mínimo, optimistas: desde la implementación del sistema, se han registrado múltiples quejas de mal funcionamiento, lo que ha generado aún más retrasos en el registro de asistencia. Ellas incluyen, por ejemplo, errores en la identificación de personas de piel negra y con discapacidad.

Aunque avance rápidamente en la región, el reconocimiento facial es ampliamente cuestionable como tecnología efectiva para la identificación y autentificación de personas. Lo mismo ocurre con los llamados sistemas de reconocimiento de emociones, también en proceso de implementación en escuelas brasileñas.

Este y otros tipos de problemas podrían ser evitados con la realización de estudios previos de impacto amplios y participativos, pero no hay referencias de que se hayan realizado en el caso de Paraná. La iniciativa –que costó más de 4 millones de reales al Estado– está actualmente bajo escrutinio judicial debido a la vulneración de la legislación brasileña de protección de datos, por ejemplo en relación con el consentimiento para la recolección de datos biométricos sensibles de niños, niñas y adolescentes. El “oro”, al final, parece haberse quedado con los proveedores de la tecnología, mientras la educación pública sigue precarizada y carente de inversiones significativas.

Transgresiones sectoriales

El concepto de transgresiones sectoriales es útil para entender algunos procesos detrás del avance de las empresas de tecnologías en la educación. Se refiere a la estrategia de empresas de tecnologías de reivindicar conocimiento y autoridad en ámbitos que van más allá de lo tecnológico. Con eso, pasan a tener un peso diferencial en decisiones estratégicas, en este caso, del ámbito educativo, que no son parte de su competencia.

Rescatar esta idea es clave mientras pensamos políticas educativas y respuestas normativas a los desafíos del avance de las empresas tecnológicas sobre la educación. Con relación a lo primero, importa recuperar el rol que ellas efectivamente cumplen a la hora de definir a quiénes involucrar en discusiones sobre políticas públicas sobre educación y tecnologías. Si bien las empresas pueden tener un espacio en las mesas de discusión, de ningún modo reemplazan la necesidad de involucrar expertas en educación y representantes del sector educativo, como docentes, estudiantes y gestión educativa.

Por otro lado, el recuerdo que trae la idea de transgresión sectorial es clave para evitar caer en trampas normativas como la de crear criterios específicos para “EdTech”. Este tipo de abordaje, explorado por órganos como Unicef, más allá de sus buenas intenciones conllevan el doble riesgo de naturalizar la voz de empresas de tecnologías para incidir en temas educativos y de fragilizar protecciones existentes al pensar criterios diferenciados para el ámbito educativo. Peor aún, puede legitimar la recolección masiva de datos de niños, niñas y adolescentes en el contexto educativo, algo cuidadosamente delimitado por distintas legislaciones alrededor del mundo, incluso en materia de protección de datos personales.

O sea: bajo la excusa de crear reglas específicas, se autoriza y legitima la explotación de datos de infancias sin un completo conocimiento de sus consecuencias. En un contexto regional de gran influencia del lobby de las empresas de tecnologías, iniciativas legislativas como éstas pueden poner en jaque las garantías duramente conquistadas en el marco de leyes generales de protección de datos.

El caso brasilero de Paraná evidencia, y siempre es bueno reiterar, que las leyes de protección de datos sí se aplican a las políticas de uso de tecnologías en educación promovidas desde el sector público. Del mismo modo, las reglas de compras públicas también se aplican a la adquisición de tecnologías por entes del Estado, aunque, como hemos demostrado en la iniciativa IA & Inclusión, ellas sean poco observadas en la región. La existencia o no de intercambio monetario involucrado en los acuerdos con empresas de tecnologías no es un limitante si el uso implica la explotación económica de datos obtenidos a partir de ellos.

Eso no significa que no haya particularidades que deban ser consideradas o que no haya utilidad en el desarrollo de normas administrativas o guías específicas para las instituciones educativas. Las autoridades de protección de datos cumplen un rol clave al proponer orientaciones ancladas en los más altos estándares de protección establecidos en las normativas de datos y de infancias. Eso es particularmente relevante en un contexto en que las grandes empresas de tecnología se acercan a las instituciones educativas para establecer alianzas directas, dificultando procesos de supervisión y fiscalización.

Tecnologías para una educación emancipadora

En un año en que vemos cómo los hombres detrás de las mayores empresas de tecnología no dudan en apoyar un gobierno de extrema derecha marcado por la discriminación, odio y la persecución a oponentes políticos, no es difícil entender por qué gana fuerza en la región una resistencia a las mismas tecnologías. En el último año tuvimos una ley federal aprobada en Brasil prohibiendo el uso de teléfonos celulares en las escuelas, discusiones similares en Argentina –con una resolución porteña sobre el mismo tema– y en lo que va de 2025 ya hubo una “huelga” de redes sociales en abril y otra está prevista para el próximo domingo (25) en Brasil. También en Brasil gana fuerza un movimiento para evitar que niños, niñas y adolescentes tengan acceso a un smartphone hasta que cumplan 14 años y a las redes sociales antes de los 16.

Son innumerables y muy legítimos los motivos que fortalecen este tipo de reacción: desde las crecientes evidencias sobre los impactos nocivos de las tecnologías a la salud, su carácter adictivo, hasta el temor a la violencia en línea en todas sus formas, pasando por el rol de los algoritmos, las exposición a los extremismos y a la desinformación –contenidos ahora menos regulados por las mismas plataformas–, entre otros. Es positivo que estas preocupaciones alcancen a la sociedad de manera más amplia y provoquen reacciones desde el poder político, históricamente sordo a las alertas sobre la necesidad de supervisar y fiscalizar procesos de digitalización del Estado.

Sin embargo, no podemos olvidar la importante historia de usos de tecnologías para la resistencia, la defensa de derechos y la democratización de la comunicación y la educación, en un continente aún marcado por desigualdades. Lejos de comprar la fantasía tecnosolucionista que equipara tecnología y eficiencia, se trata de recuperar internet más allá de las redes sociales. En el mismo sentido, cabe recordar que las tecnologías no son sinónimo de extracción y explotación de datos para la ganancia sin frenos (del mismo modo que “EdTech” no es lo mismo que tecnologías en la educación).

Limitar el acceso a las tecnologías a las niñeces o en el ámbito educativo puede ser una respuesta legítima frente al avance obsceno de los intereses comerciales por sobre cada aspecto de nuestras vidas. Pero también puede implicar restringir el contacto con otras realidades, el acceso a culturas no cubiertas por medios tradicionales, la formación de vínculos afectivos, la exploración de identidades en entornos seguros, y otras formas de conocer el mundo. Más aún: podría limitar la capacidad de las próximas generaciones para imaginar otros futuros tecnológicos. Más justos, más solidarios, más inclusivos.

Reconocer los riesgos de la digitalización en contextos educativos no implica renunciar a sus posibilidades. Más bien, urge avanzar hacia una construcción colectiva de políticas tecnológicas que pongan al centro el bienestar y los derechos de las comunidades escolares. Esto incluye fortalecer los procesos participativos, asegurar evaluaciones de impacto, garantizar el cumplimiento de las leyes de protección de datos y, sobre todo, promover un enfoque pedagógico que incorpore las tecnologías como herramientas de emancipación y no de control. La educación con tecnologías sí es posible, pero solo si se construye desde la equidad, la justicia social y la imaginación crítica.

Contribución al informe sobre los defensores de los derechos humanos que trabajan sobre el cambio climático y una transición justa

En el marco de la convocatoria de la Relatoría Especial de la ONU sobre personas defensoras de derechos humanos, presentamos junto al Instituto Nupef y TEDIC una contribución en la que abordamos cómo el uso de las tecnologías de las TIC puede combatir o agravar los riesgos que enfrentan defensoras del medio ambiente. En el documento, destacamos los temas de acceso significativo a Internet, amenazas a la integridad de la información y seguridad digital, ilustrándolos a partir del caso brasileño de las quebradoras de coco babasú.

Por un trabajo digno en la era de los algoritmos

El legado del primero de mayo en el entorno digital latinoamericano

Cada Primero de Mayo, el mundo conmemora la histórica lucha por los derechos laborales, recordando las demandas por derechos como una jornada justa, salarios dignos y condiciones de trabajo seguras. Esta fecha, arraigada en las movilizaciones obreras del siglo XIX, nos invita a reflexionar sobre el estado actual del mercado laboral y los desafíos que aún persisten, especialmente en un contexto global marcado por la rápida incidencia de las tecnologías digitales.

El mercado laboral latinoamericano, si bien diverso en sus matices nacionales, comparte desafíos comunes en cuanto a la protección de los derechos laborales. La persistencia de la informalidad –promediando casi la mitad de la población empleada en la región– continúa erosionando la capacidad de las personas trabajadoras para acceder a protecciones básicas como seguridad social, vacaciones pagadas y estabilidad en el empleo. En este escenario, la promesa de flexibilidad y autonomía ofrecida por las plataformas digitales de trabajo bajo demanda ha encontrado un terreno fértil para su expansión, presentando alternativas prácticas de generación de ingresos para poblaciones en situación de vulnerabilidad. Sin embargo, como exploramos en nuestra columna sobre la «paradoja de la flexibilidad», esta aparente libertad a menudo enmascara una realidad de precariedad, inestabilidad y una creciente dependencia de sistemas de gestión algorítmica opacos.

Invito a reflexionar con lo siguiente: imagine que su teléfono vibra con una notificación fría e impersonal, «Su cuenta ha sido suspendida por violar los términos y condiciones». Intenta recordar qué pudo haber hecho mal, repasa mentalmente las extensas cláusulas que quizás leyó por encima al registrarse, pero la razón específica se escurre entre la ambigüedad del mensaje. Intenta apelar, buscar una explicación humana, pero se topa con respuestas automatizadas que no llevan a ningún lado. Su fuente de ingresos se ha cortado totalmente de un momento a otro. Este escenario no es hipotético para quienes dependen de plataformas y para quienes la suspensión de una cuenta significa quedarse sin sustento. Para otras personas quizás sea una herramienta para complementar ingresos o manejar sus horarios; pero para muchas en nuestra región, especialmente para quienes encuentran en estas plataformas su única oportunidad laboral, la realidad es muy distinta. Mientras algunas personas pueden elegir cuándo y cómo trabajar, otras se ven atrapadas en la urgencia de aceptar cualquier tarea disponible –sin margen para negociar o rechazar–, en labores que exigen menor calificación. ¿Estamos hablando entonces de una fuente de trabajo flexible, o una nueva forma de vulnerabilidad laboral?

Es tiempo de ponerle reglas al algoritmo

La irrupción de tecnologías como los algoritmos, las plataformas digitales y la inteligencia artificial en el ámbito laboral plantea tanto oportunidades como desafíos sin precedentes para los derechos de las personas trabajadoras. Por un lado, se argumenta que la automatización tiene el potencial de liberar de tareas repetitivas (como la revisión de códigos) o riesgosas (como ciertos controles médicos), o que impulsará la productividad, abriendo nuevas opciones de empleo en sectores emergentes. Sin embargo, en diversos sectores desde la manufactura hasta los servicios, los algoritmos gestionan tareas, evalúan el desempeño, asignan trabajos o tarifas e incluso toman decisiones sobre la contratación y el despido.

Esto conlleva a que estas mismas tecnologías pueden exacerbar las vulnerabilidades existentes. Facilitan nuevas formas de explotación, vigilancia y control, especialmente en sectores carentes de regulación adecuada y alta informalidad como el reparto de mercaderías o el servicio doméstico. En estos rubros aquellas problemáticas pueden verse profundizadas, ya que es común ver a su fuerza de trabajo sumergida en una narrativa que ni siquiera la reconoce como persona trabajadora. Los mecanismos de vigilancia y monitoreo regidos por algoritmos a menudo carecen de transparencia y rendición de cuentas, lo cual somete a trabajadoras y trabajadores a la presión constante de aceptar cada solicitud. Incluso, les obliga a aceptar en condiciones de peligro, como cuando implica cargar mercancías pesadas que ponen en riesgo la integridad de sus vehículos o cuando han sido víctimas de maltrato por parte de locatarios o clientes. Se acepta cualquier pedido por el temor a que el incumplimiento derive en la suspensión o bloqueo de su fuente de ingresos, sin mecanismos claros para comprender la decisión o revertirla.

Las cuentas pendientes en este nuevo panorama laboral son significativas: ¿Cuántas decisiones injustas se toman hoy sin que la persona trabajadora pueda cuestionarlas o comprender sus razones? Una regulación efectiva es ineludible para que la tecnología potencie el trabajo respetando derechos, pero no basta con leyes: debe incluir la participación de personas trabajadoras en el diseño de estas herramientas. Se requiere abordar la clasificación de los vínculos entre empresas y personas en plataformas, además de garantizar transparencia y mecanismos de auditoría independiente. Se requiere rendición de cuentas ante las autoridades para evitar discriminación e injusticias, y priorizar la protección de datos personales ante la vigilancia intrusiva y la toma de decisiones automatizadas que perjudican a las personas trabajadoras. 

En este Día Internacional de las Trabajadoras y Trabajadores, el llamado a la defensa de los derechos humanos en el ámbito digital resuena con fuerza. La flexibilidad no puede venir a cualquier costo:  las promesas de progreso tecnológico no deben traducirse en un agravamiento de las condiciones de trabajo y una erosión de los derechos históricamente conquistados. Es imperativo que las tecnologías digitales se desarrollen y utilicen con un enfoque centrado en las personas, aplicando un respaldo de derechos laborales y garantizando un futuro laboral justo, equitativo y digno en América Latina. La lucha por el trabajo decente en la era digital es la continuación de la batalla histórica por la justicia social, y en este Primero de Mayo, reafirmamos nuestro compromiso con esa causa.

Contribución a la consulta sobre redes comunitarias convocada por la Subsecretaría de las Telecomunicaciones en Chile

En el marco de la consulta pública de SubTel, resaltamos la importancia de fortalecer las redes comunitarias para impulsar la conectividad en Chile. Estas redes promueven la autodeterminación tecnológica y la organización comunitaria, por lo que cualquier regulación debe basarse en diagnósticos actualizados sobre brecha digital y capacidades locales. Aportamos propuestas para definir marcos legales claros y condiciones justas para su desarrollo.