De la promesa tecnológica al control estatal: lo que revela el caso mexicano

En junio de 2025, México aprobó un paquete legislativo que incluyó reformas a la Ley de la Guardia Nacional, la Ley General de Población y la Ley General en Materia de Desaparición Forzada. Este conjunto de reformas legales creó una Clave Única de Registro de Población (CURP) biométrica que es obligatoria para acceder a servicios públicos y privados. Además, amplió significativamente las facultades de inteligencia de las Fuerzas Armadas y la Guardia Nacional. Esto se llevó a cabo a pesar de la movilización de organizaciones de la sociedad civil, que advirtieron sobre los graves riesgos que estas reformas representan para los derechos humanos y la democracia en el país.

Lejos de ser un caso aislado, este proceso refleja una tendencia regional cada vez más extendida en América Latina: la consolidación de infraestructuras de vigilancia y control social, legitimadas a través de reformas legales y sustentadas en el uso de tecnologías digitales y biométricas. Este fenómeno revela un panorama en que el tecnosolucionismo y la seguridad se utilizan como argumentos para erosionar libertades, reforzar el poder estatal y profundizar desigualdades estructurales.

Promesas y peligros de la identidad digital

La creación de la CURP biométrica en México implica el establecimiento de una base de datos centralizada que asocia el número único de registro de cada persona con sus datos biométricos, como huellas dactilares y fotografía. El objetivo declarado por el Gobierno es responder a la crisis generada por la creciente desaparición de personas, mediante la construcción de un sistema que permita registrar y rastrear cada interacción y movimiento de la ciudadanía en su vida cotidiana, desde el acceso a servicios públicos hasta actividades privadas, con el fin de facilitar su identificación y localización.

Al tratarse de un registro obligatorio, se elimina la posibilidad de un consentimiento informado sobre la recolección y el uso de los datos personales, lo que agrava los riesgos para la autonomía y la privacidad. Además, habría que considerar qué ocurre con quienes no logran registrarse: ¿quedarán excluidos del acceso a servicios esenciales? La obligatoriedad de la CURP biométrica como requisito para acceder a servicios públicos y privados implica que quienes no estén registrados en esta base o no puedan hacerlo quedarán fuera de derechos y prestaciones básicas.

Así, personas que no logran acercarse a los centros de registro, sobre todo las que viven en zonas remotas; aquellas que no tienen datos biométricos que puedan ser recopilados (como personas mayores con huellas dactilares deterioradas o personas con ciertas discapacidades); y personas trans cuya identidad de género y nombre social no se reflejan en su CURP -especialmente considerando que varios estados mexicanos no reconocen legalmente el nombre social- quedan aún más marginadas. Es decir, además de profundizar desigualdades estructurales ya existentes, este tipo de medidas produce nuevas formas de exclusión, reforzando barreras institucionales y sociales que afectan de manera desproporcionada a los grupos sociales históricamente excluidos.

Al mismo tiempo, este tipo de infraestructura plantea serias preocupaciones en términos de privacidad y desafía directamente el derecho al anonimato. El anonimato protege a las personas frente al rastreo constante de sus actividades y opiniones, especialmente en contextos donde disentir puede tener consecuencias.

También conlleva importantes riesgos en materia de ciberseguridad: aunque existen distintos niveles de madurez en ciberseguridad en los Estados de América Latina, se han registrado repetidos ataques y vulneraciones a bases de datos públicas en varios países. Las filtraciones de datos biométricos resultan especialmente graves, ya que se trata de información que, a diferencia de una contraseña, no puede ser modificada: forma parte intrínseca de la identidad física de cada persona. Su exposición indebida, así, puede llevar a fraudes y robo de identidad.

La creación de bases de datos centralizadas y la recopilación indiscriminada de datos biométricos no son fenómenos exclusivos de México. En 2023, Derechos Digitales ya advertía de la tendencia en un informe sobre la proliferación de sistemas de identidad digital en América Latina, señalando los riesgos asociados y la falta de controles efectivos, como la ausencia de garantías judiciales, la opacidad en el uso de los datos y el acceso por parte de múltiples entidades estatales sin supervisión.

Sin embargo, hay ejemplos que muestran decisiones orientadas a establecer límites: en Brasil, en 2022, el Supremo Tribunal Federal decidió imponer restricciones significativas al Cadastro Base do Cidadão -una base de datos también con información biométrica creada por decreto presidencial- al considerar inconstitucional el acceso irrestricto por parte de todos los órganos gubernamentales, reforzando así la necesidad de controles judiciales y criterios de proporcionalidad. Esta discusión resulta especialmente pertinente para México, donde el nuevo paquete legislativo otorga acceso a la base de datos biométrica a diversas instancias de inteligencia y a las Fuerzas Armadas sin requerir autorización judicial ni mecanismos de control democrático.

Inteligencia sin control: el poder opaco

Las reformas legales recientes en México otorgan a las Fuerzas Armadas y a la Guardia Nacional un poder sin precedentes en materia de inteligencia. Estas instituciones reciben facultades ampliadas para realizar labores de vigilancia e interceptación de comunicaciones sin necesidad de autorización judicial, eliminando cualquier contrapeso democrático. Además, se les concede acceso irrestricto a la base de datos de la CURP biométrica, lo que les permite rastrear de forma masiva e indiscriminada a la población, sin que las personas sean informadas de que sus datos están siendo consultados o utilizados.

Este escenario se ve agravado por la decisión del gobierno mexicano, aprobada en marzo de 2025 por el Congreso, de eliminar instituciones autónomas clave, como el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI). El órgano tenía entre sus competencias garantizar la protección de datos personales y el acceso a la información, y su extinción implica un grave retroceso en materia de transparencia y rendición de cuentas. En este contexto, también resulta pertinente llamar la atención sobre la recientemente aprobada Convención de Cibercrimen de la ONU, que fue incluso apoyada por México, cuyo enfoque favorece a la vigilancia y el intercambio transfronterizo de datos entre agencias sin establecer salvaguardas suficientes en materia de derechos humanos, privacidad y debido proceso.

Las nuevas leyes mexicanas legitiman la vigilancia permanente y opaca, donde el control estatal se expande sin supervisión efectiva. Se trata de una tendencia que no es exclusiva de México. En Argentina, por ejemplo, se transfirió el control de la ciberseguridad a la Secretaría de Inteligencia del Estado (SIDE), consolidando un aparato de vigilancia bajo mando directo del Poder Ejecutivo y debilitando garantías fundamentales. A esto se suma la aprobación reciente de la Ley de Inteligencia en Ecuador, que otorgó facultades amplias y ambiguas a los organismos de inteligencia, sin mecanismos claros de transparencia ni rendición de cuentas.

La tendencia regional apunta a un mismo patrón: justificar el incremento de poderes de vigilancia en nombre de la seguridad nacional, mientras se consolidan estructuras estatales cada vez más autoritarias. Estas reformas fortalecen un poder opaco, erosionan las garantías democráticas y colocan a las poblaciones en una situación de vulnerabilidad constante frente al Estado.

Tecnología como atajo político: el falso remedio

Como se mencionó, el principal argumento del gobierno mexicano para impulsar la CURP biométrica y el nuevo paquete de reformas fue responder a la crisis nacional de desapariciones. Actualmente, México enfrenta más de 129.000 personas desaparecidas, más de 5.600 fosas clandestinas y una crisis forense con más de 70.000 cuerpos sin identificar. Se trata de una situación extrema que exige respuestas urgentes, integrales y respetuosas de los Derechos Humanos.

Sin embargo, el paquete de leyes no fue acompañado de argumentos que sostengan de forma clara y verificable cómo estas reformas legales y la nueva infraestructura de vigilancia contribuirían efectivamente a resolver esta crisis. Por el contrario, las causas estructurales, como la impunidad, corrupción, falta de capacidades forenses e institucionales, no fueron enfrentadas por las reformas. Colectivos de familias buscadoras y organizaciones de derechos digitales han advertido que el paquete legislativo no sólo elude las verdaderas causas de la crisis, sino que instala un sistema de vigilancia masiva sin garantías, que expone aún más a las personas defensoras y a la población en situación de vulnerabilidad.

El tecnosolucionismo presenta la tecnología como una solución mágica a problemas sociales complejos. Pero la tecnología, por sí sola, no resuelve esos problemas ni sustituye políticas públicas integrales. Al contrario, su implementación desmedida y sin garantías puede generar nuevas capas de control social, agravando riesgos a los derechos humanos.

Este fenómeno se agrava cuando las reformas legales y la adopción de tecnologías se realizan sin participación social ni debate público, como pasó en México. En América Latina, esta tendencia es cada vez más visible. Por ejemplo, la implementación creciente de tecnologías de reconocimiento facial para supuestamente mejorar la seguridad pública se ha justificado sin evidencia alguna de su efectividad ni participación social. En cambio, hay abundante evidencia de que estas tecnologías profundizan la discriminación y la violencia contra poblaciones ya marginalizadas, especialmente personas negras y trans.

Es importante reconocer que esta problemática y la narrativa del tecnosolucionismo no se limita a contextos autoritarios. Aunque se agrave en estos casos, también se observan en países cuyos gobiernos se presentan como defensores de los Derechos Humanos. Abordar la implementación de tecnologías desde un enfoque de derechos implica cuestionar quién la diseña y cómo se implementa, con qué objetivos y bajo qué condiciones, priorizando siempre la autonomía y la dignidad de las personas. Cuando el uso de estas tecnologías se legitima a través de legislaciones que no respetan marcos de Derechos Humanos ni contemplan procesos con participación social significativa, su implementación termina consolidando estructuras de control que perpetúan la vigilancia y la exclusión, en lugar de fortalecer la democracia y garantizar derechos.

Recalculando: nuevas estrategias para enfrentar los ajustes en la cooperación internacional

Las discusiones sobre la necesidad de reforma de los mecanismos de cooperación internacional no son nuevas. Hace mucho, organizaciones de distintas regiones del mundo han identificado la tendencia colonizadora de los fondos provenientes del Norte Global y la necesidad imperante de un cambio de perspectiva en cómo se trabajan dichos financiamientos. Las organizaciones sociales vienen reclamando la flexibilización de los fondos: algunos conllevan una carga administrativa importante y complejas metodologías de rendición de cuentas, que si bien pueden ser justificables, a veces se muestran impracticables para algunos grupos. Entre los puntos de crítica se encuentran la demanda de reportes de actividades trimestrales y semestrales, además de las restricciones de presupuesto a ciertos ítems, como personal, entre otros que perjudican la sostenibilidad de organizaciones que cumplen un rol clave en la defensa y protección de derechos.

Medidas así reflejan, en lo administrativo, una disparidad de poder que, en lo sustantivo, se revela en un intento por delimitar el ámbito de actuación de tales organizaciones. En relación con el ámbito tecnológico, hemos denunciado cómo ciertas instituciones promueven el desarrollo y despliegue de tecnologías en países del Sur Global sin considerar su potencial impacto a nuestras poblaciones. La preocupación ha sido recogida por agentes de la cooperación internacional que desarrollaron principios propios en consulta con distintos actores, entre ellos Derechos Digitales.

En un momento en que las posibilidades de diálogo y reflexión crítica sobre tales iniciativas parecían generar cambios de estrategia en algunas agencias, surge otro desafío: crisis económicas, cambios de prioridad y el ascenso de la extrema derecha ponen en jaque la disponibilidad de fondos. Ya para finales de 2024 se conversaba acerca de los recortes que algunos Estados de la Unión Europea (UE) implementarían en planes de desarrollo en países de bajos ingresos. La situación se agudizó a inicios de este año con hechos que reconfiguran todo el ecosistema de cooperación internacional.

2025: Ajuste y restricciones

Sin duda, 2025 llegó con importantes retos para las organizaciones sociales. Por un lado, con el avance de múltiples intentos por restringir cada vez más la acción de la sociedad civil a través de leyes que buscan reducir y controlar los activismos. Por otro lado, con la reducción internacional de las ofertas de financiamiento tradicionales derivada de las medidas adoptadas por el nuevo gobierno de Estados Unidos.

El proceso se inició con la suspensión de la ayuda internacional a través de USAID en enero de este año y culminó en el cierre definitivo de la agencia a inicios de julio, dejando a millones de personas en riesgo de muerte en los próximos años, según señala un estudio reciente. La acción repentina dejó además sin piso (en algunos casos de forma literal) a muchas organizaciones sociales en todos los continentes. No fue un cambio gradual, como la planificación de reducción de presupuesto de los países de la UE pensando en una ejecución a tres años. Tampoco fue algo que se venía advirtiendo en una larga discusión de cómo y cuándo. La decisión del nuevo gobierno de EE. UU. de no continuar con la ayuda internacional tomó totalmente desprevenido a un sector que, ya de por sí, es muy dependiente. Como nunca, las conversaciones sobre independencia financiera y descolonización en la cooperación internacional son vitales.

Si bien uno de los temas que más ha ocupado a la cooperación internacional es la medición de impacto, ahora se suma dimensionar el impacto de esta decisión en nuestros países y en las áreas de trabajo que atiende. Lo inmediato ya lo conocemos bien: despidos, mayor precarización (de un sector muchas veces ya precarizado) y una carrera por la búsqueda de alternativas de financiación que permitan sostener la defensa de derechos en contextos cada vez más riesgosos, así como los compromisos asumidos frente a poblaciones enfrentadas a distintos grados de vulnerabilidad.

Insistimos en resistir (y existir)

No es la primera vez en los últimos años que las organizaciones de derechos humanos latinoamericanas nos vemos enfrentadas a situaciones que ponen en riesgo nuestra propia posibilidad de existencia. Desde Derechos Digitales, y en particular desde las iniciativas de entrega de pequeños fondos que sostenemos, hemos visto la fuerza y resiliencia de estas organizaciones en contextos como la pandemia y el ascenso autoritario en la región. Hemos documentado la insistencia de defensores y defensoras de derechos humanos en seguir adelante incluso frente a múltiples amenazas contra su activismo y su vida, en un continente aún manchado por los altísimos niveles de violencia en su contra.

Esos pequeños recursos que advienen de donantes privados, así como otros de distintas iniciativas presentes en la región, siguen siendo insuficientes para dar cuenta de las consecuencias de los recientes recortes a la cooperación internacional, pero están disponibles para suplir parcialmente sus impactos en actividades puntuales y subsidiar la acción urgente en protección de comunidades y derechos. Por medio del Fondo de Respuesta Rápida (FRR), en 5 años de ejecución hemos podido colaborar con más de 100 proyectos distribuidos en 18 países de nuestra región. Además, a través del recientemente creado Fondo para los Derechos Digitales en América Latina (FDD), ya son 20 iniciativas acompañadas en 11 países. Las beneficiarias son lideradas por comunidades educativas, organizaciones de defensa de las personas LGBTQIA+, grupos indígenas, y otras que difícilmente tendrían acceso directo a fondos para explorar aspectos relacionados con las tecnologías y derechos digitales. Se trata de un experimento que ya ha demostrado buenos resultados, además de abrir una oportunidad adicional para que organizaciones locales fortalezcan sus capacidades y puedan participar activamente en la discusión y construcción de políticas de tecnologías en la región.

Adaptarse para seguir en carrera

Desde Derechos Digitales queremos garantizar alguna sostenibilidad para los fondos que gestionamos, y que también están sujetos a las variaciones que impone el escenario internacional. Para eso, también nos ha tocado adaptar algunas de nuestras acciones.

Con el compromiso de seguir buscando aportes de distintos donantes a esta iniciativa que se muestra de crucial relevancia para la región, hemos implementado algunos cambios al FDD que apuntan a garantizar la posibilidad de continuar operando por al menos dos ciclos más: 2025 y 2026.

Las principales modificaciones son:

1. Ciclos de evaluación: al inicio de estos fondos, se trabajó con dos ciclos de evaluación anuales, a mediados y a fin de año. A partir de julio de 2025 será un único ciclo anual.

2. Recepción de propuestas: el FDD recibía propuestas durante todo el año, independientemente de los ciclos de evaluación. Desde julio sólo se aceptarán postulaciones cuando se haga convocatoria, hasta nuevo aviso.

Por otro lado, se mantienen los requisitos para aplicar: organizaciones sociales registradas; se adjudica sólo un FDD por organización (a quienes ya lo recibieron, no pueden volver a aplicar pero sí pueden hacerlo al FRR); ajustarse a los ítems que este fondo puede financiar. Para conocer mejor todos estos detalles se puede visitar la página web de los fondos.

Esta es una modificación importante para el FDD y sabemos que tendrá un impacto en las organizaciones. Nuestro objetivo es mantener una opción de financiamiento hecha por latinoamericanas para latinoamericanas y, al momento, es nuestra mejor apuesta. La conversación sobre acceso a fondos de cooperación internacional, la sostenibilidad de las organizaciones sociales y el apoyo a las personas activistas sigue en pie, trazando caminos y nuevas formas de hacer nuestro trabajo. El mejor recurso del activismo son sus personas y su compromiso con sociedades justas, libres e igualitarias. Confiemos en eso, y adaptemos nuestras estrategias para que los vaivenes de las etapas históricas que nos tocan vivir no pongan en pausa nuestros sueños.

Hacia una convención para regular el trabajo de plataformas: un avance frente a los desafíos del mercado laboral

Las Tecnologías de Propósitos Generales -o GPTs- han tenido impactos significativos en el mercado laboral durante el último siglo. Esta última ola, caracterizada por las innovaciones en algoritmos e Inteligencia Artificial (IA), ya comienza a mostrar sus primeras consecuencias en términos de empleo. En general, los estudios identifican evidencia suficiente para afirmar que la IA generativa ha perjudicado la generación de empleo y los ingresos del sector freelance. Sin embargo, esto pareciera darse más que nada en las ocupaciones de ingresos medios y bajos, y más aún en los rangos etarios inferiores.

El avance acelerado de tecnologías como la IA y los sistemas automatizados de gestión del trabajo está transformando profundamente las dinámicas laborales a nivel global. En este contexto, la necesidad de contar con un marco normativo robusto y con alcance internacional se vuelve urgente: regular el trabajo en plataformas digitales implica también establecer límites y obligaciones claras sobre el uso de tecnologías como la IA en el mundo del trabajo, garantizando justicia algorítmica, protección social y derechos laborales efectivos para todas las personas trabajadoras, sin importar su estatus contractual o la ubicación de la empresa.

Es por ello que resulta crucial el abordaje sobre el Trabajo Decente en Plataformas y la importancia de su instalación en la agenda regulatoria internacional. La 113ª Conferencia Internacional del Trabajo (CIT), celebrada en Ginebra en junio de 2025, marcó un hito en la agenda global del trabajo: por primera vez, se avanzó formalmente hacia la elaboración de un instrumento internacional para regular el trabajo en plataformas digitales. En un escenario laboral transformado por las tecnologías digitales, este paso no es menor. El mandato final fue claro: se acordó avanzar hacia la redacción de una convención vinculante, acompañada por una recomendación, como marco para garantizar derechos básicos a aquellas personas cuyo trabajo es intermediado por plataformas digitales.

¿Qué nos deja la CIT 2025?

Este avance implica el reconocimiento por parte de los Estados, empleadores y trabajadores -los tres pilares de la OIT- de que la economía de plataformas no puede continuar operando sin garantizar condiciones justas. Y sobre todo, que las reglas para el trabajo decente deben ser globales: las plataformas operan transnacionalmente y los vacíos legales que explotan hoy se convierten en nuevas formas de desprotección.

Uno de los aspectos centrales fue la definición del alcance del futuro instrumento. Se llegó a un consenso para que abarque tanto a quienes desempeñan tareas “basadas en la localización” -como reparto, transporte o cuidado- como a quienes realizan trabajo “remoto” a través de plataformas digitales. Esta concepción amplia resulta especialmente relevante para América Latina, donde la fuerza laboral en plataformas está conformada en buena medida por personas de ingresos medios y con escasa calificación requerida, involucradas tanto en actividades presenciales como en servicios digitales a distancia -como la traducción de textos o el procesamiento de datos-. Ambos sectores, como vimos anteriormente, enfrentan con especial énfasis los efectos de la innovación tecnológica y la falta de marcos regulatorios adecuados.

Desafíos persistentes

Sin embargo, la CIT también expuso las tensiones profundas que persisten sobre qué tipo de trabajo debe regularse y cómo. Los puntos más críticos donde no hubo avances sustantivos son los mismos que hoy generan disputas en nuestros países:

1- La presunción de laboralidad, es decir, reconocer como regla general que quienes trabajan para una plataforma lo hacen en relación de dependencia y no como “autónomos” ficticios.

2- La definición de una remuneración adecuada: la tecnologización aporta flexibilidad a muchas tareas e incluso impacta en la productividad. Sin embargo, esto implica en muchos casos la dedicación de jornadas largas debido a la acumulación de múltiples tareas no consideradas como remunerables. Asimismo, el debate instaura discusiones en torno al uso de indicadores para establecer estas remuneraciones: ¿qué consideramos como ingreso digno?

3- La determinación del tiempo de trabajo: una categoría básica en el derecho laboral, pero borrosa en un sistema que exige estar disponible sin garantizar ingresos mínimos.

4- Habiendo suficiente evidencia sobre los sesgos discriminatorios que reproducen los algoritmos más allá de su diseño u origen, un tema de especial relevancia fue la transparencia y auditabilidad algorítmica. Debido a la asimetría de información entre las personas trabajadoras y las plataformas, se discutió la necesidad de que las plataformas informen de forma clara y accesible cómo operan sus algoritmos de asignación de tareas, evaluación del rendimiento y determinación de ingresos. Sin embargo, aún resta brindar claridad sobre cómo regular las decisiones automatizadas y su impacto en las personas trabajadoras.

5- Y, finalmente, resta profundizar el debate sobre los mecanismos de control y la posibilidad de aplicar la legislación local para resolver conflictos, un punto clave para evitar que las plataformas operen en zonas grises de legalidad.

El caso latinoamericano es ilustrativo: la mayoría de los países no cuentan con legislación específica sobre plataformas, y muchas de las iniciativas que buscaron avanzar en esa dirección han quedado truncas o debilitadas. A la vez, las reglas existentes han mostrado limitaciones para garantizar protección efectiva a las personas trabajadoras, porque fueron desarrolladas sin tomar en cuenta estos escenarios,  o por una debilidad de las instituciones encargadas de su supervisión y aplicación. Mientras tanto, las personas trabajadoras enfrentan bloqueos de cuentas sin justificación, ingresos inestables y jornadas extenuantes.

CIT 2026, una oportunidad histórica

En este contexto, el proceso iniciado en la CIT representa una ventana de oportunidad única. El próximo año será decisivo: en la CIT 2026 se definirá la aprobación (o no) del instrumento. Para que esta instancia sea efectiva, será necesario un trabajo articulado y sostenido por parte de sindicatos, organizaciones de la sociedad civil, investigadores y gobiernos. La participación de América Latina -aunque presente en las delegaciones gubernamentales- fue aún limitada desde la sociedad civil. Fortalecer esa voz será clave para que las demandas del Sur Global tengan peso en la redacción final.

Las nuevas tendencias del mercado laboral ya son tangibles. Vemos una realidad teñida de nuevos esquemas de productividad, sectores con perfiles de mayor demanda y otros en estancamiento. Ahora llegó el momento de definir en qué condiciones seguirá esta transformación: que esta realidad garantice derechos fundamentales con mecanismos de protección será responsabilidad de quienes, desde distintos frentes, podamos incidir en esta etapa.

Las tecnologías deben mitigar el cambio climático, no profundizarlo

«Transforma esta foto como si perteneciera al universo visual de Studio Ghibli, conservando el fondo y la pose. Aplica sus rasgos característicos: colores, trazos y texturas», este es el tipo de instrucción con la que el modelo conversacional de Inteligencia Artificial “ChatGPT” generó las imágenes que, un tiempo atrás, fueron tendencia en redes sociales y que atrajo a nuevas personas usuarias a la plataforma. Medios digitales saturados de nuevas publicaciones  y servidores de alojamiento remoto trabajando para almacenar los archivos recién creados fueron servicios muy demandados durante los días que duró la fiebre Ghibli. ¿Cuál fue el impacto ambiental? El más visible, sin duda, es el consumo de agua para el enfriamiento de servidores,  con un promedio estimado de 3 litros de agua por imagen generada

Ahora imaginemos el impacto ambiental de desechar mil computadoras de uso personal por segundo. Es el equivalente para los 62 millones de toneladas de residuos electrónicos generados a nivel mundial, según se registró en el año 2022. Considerando que el número de personas usuarias de internet en el mundo alcanzó los 5560 millones a principios de 2025, la demanda de recursos, tanto en software como de hardware, solo incrementará en los próximos años, dependiendo del  tipo de tecnología que se despliegue. ¿La solución al evidente problema es detener el avance tecnológico y su uso?

La solución no puede estar más lejos de eso. Aunque los modelos de producción tecnológica se basan en una lógica extractivista, sin considerar costos sociales o ambientales, las tecnologías tienen potencial para reducir el impacto. El uso eficiente de la infraestructura tecnológica es clave para mitigar la huella ambiental. Ciertas innovaciones incluso permiten reducir el uso de recursos naturales si son desplegadas adecuadamente. Algunos ejemplos son la computación en la nube, computación grid y virtualización en centros de datos: modelos que  se comportan como si fueran infraestructuras independientes mientras comparten recursos de un mismo servidor o red de servidores.

Si pensamos en el ciclo de vida de la tecnología, podríamos resumir las fases en: diseño, desarrollo y despliegue. Esta última etapa se realiza en infraestructuras robustas y resilientes, capaces de soportar altos niveles de demanda y peticiones por segundo garantizando respuestas rápidas. La magnitud del consumo varía según el tipo de servicio. Aunque en las fases previas también se requiera infraestructura, el consumo comienza a escalar cuando llega a su etapa de producción (despliegue), aumentando la demanda de energía y sistemas de enfriamiento para los centros de datos.

Algunas acciones para mitigar el impacto

Frente a un escenario que exige día a día más recursos, una de las alternativas es avanzar hacia la descarbonización del sector energético . Se trata de sustituir fuentes fósiles como carbón, petróleo y gas natural por insumos renovables como la energía solar o eólica. Algo de esto analizamos un tiempo atrás a raíz de la crisis energética en Ecuador.

Esta alternativa consolidó una nueva carrera por la neutralidad en emisiones de carbono. Así, multinacionales del sector tecnológico aseguran haber alcanzado esta neutralidad en emisiones de carbono y sostienen compromisos por lograr que toda su cadena de suministro y productos lo sean también. Sin embargo, la veracidad de las declaraciones y los mecanismos utilizados siguen bordeando el greenwashing, una práctica que busca confundir a las personas usuarias sobre el impacto medioambiental real de una empresa o producto. Así mismo, la sustitución de materiales al momento de construir piezas electrónicas o componentes, sin sacrificar rendimiento y calidad, ofrece una oportunidad competitiva a mercados que se aventuran a revolucionar la tecnología. Por ejemplo, en China, donde luego de atravesar limitaciones para el uso de microprocesadores basados en silicio, desarrolló un chip libre de este componente y lo reemplazó por bismuto reduciendo el consumo energético en un 10% e incrementando su velocidad en un 40%.

Otro esfuerzo  es el diseño de infraestructuras para una economía circular, un modelo económico que busca minimizar el desperdicio y maximizar el valor de los recursos, productos y materiales. Desde el inicio, es importante pensar en medidas como plantas de producción modulares y que puedan ser actualizadas, reutilizadas y reciclados sus materiales, además de planificar la recuperación de productos al final de su vida útil. Esto es aún más urgente considerando que solo alrededor de la cuarta parte de la basura electrónica es reciclada correctamente, dejando toneladas de residuos sin tratamiendo adecuado y desperdiciando recursos valiosos, en su mayoría, no renovables. 

Por otro lado, los centros de datos requieren condiciones mínimas para operar adecuadamente como seguridad, capacidad de almacenamiento, transferencia de datos, refrigeración y otros. Pensando en el enfriamiento de un data center promedio, se estima que consume 25 millones de litros de agua al año, lo que equivale a 68 mil litros por día. ¿Y si sumamos el consumo de todas las grandes empresas conocidas que gestionan redes sociales, navegadores web y tiendas en línea? Este consumo puede reducirse si se despliega  en zonas con con climas fríos o cerca de aguas de mar profundas. Un esfuerzo que considera la eficiencia energética y uso de agua es Green Mark Certification for Data Centres en Singapur. 

Un compromiso compartido

La gobernanza de las infraestructuras tecnológicas debería centrarse en la justicia ambiental, respetando y promoviendo derechos y sostenibilidad. Las decisiones sobre qué tecnologías se desarrollan, cómo y para quiénes, deben incorporar una perspectiva social y ambiental en todas sus etapas. Desde la planificación de explotación de minerales necesarios para la construcción de componentes electrónicos hasta el uso de una IA para enseñar idiomas en territorios indígenas, todo debe regirse por modelos de gobernanza comunitarios y no por lógicas extractivistas.

Además, es fundamental incentivar iniciativas que potencien proyectos como redes de Internet autosustentables en comunidades, centros de datos locales y uso de tecnologías, que potencien capacidades situadas. A esto se suma la ciencia abierta, el conocimiento libre y el código abierto como componentes estratégicos para la autonomía e independencia de infraestructuras corporativas y privadas.

El equilibrio entre tecnología y medio ambiente solo será posible si transformamos  la infraestructura digital desde su origen, haciéndola parte de la solución y no del problema. Esto implica proyectar fábricas impulsadas con energía solar in situ, centros de datos enfriados con agua del mar sin riesgos ambientales, procesos de desmontaje eficientes en instalaciones de reciclaje adecuadas y redes inteligentes de distribución, como documenta Google con el proyecto IA de DeepMind, que redujo un 40% el consumo energético para refrigeración.

Pero nada de esto será suficiente sin una voluntad política y ética clara. Reconocer la interdependencia entre sostenibilidad ecológica y equidad social es solo el primer paso: lo que sigue es actuar colectivamente para transformar modelos tecnológicos actuales. Urge reducir la dependencia de sistemas corporativos opacos y avanzar, desde la sociedad civil, comunidades, gobiernos y el sector privado, en la construcción de  de políticas públicas, normativas e infraestructura que prioricen el bien común, fomenten la justicia social y ambiental, y garanticen transparencia y rendición de cuentas a toda la ciudadanía.

Hablar en clave para existir: resistencias digitales frente a la censura algorítmica

Estas frases alteradas aparecen en redes cada vez que abordamos temas que desafían las normas impuestas por el algoritmo: 4bu$o s3xual, su1c1d1o, desvivir. Se le llama “algospeak” a estas estrategias de lenguaje que buscan eludir la vigilancia de plataformas como TikTok, YouTube o Instagram a ciertos contenidos considerados inapropiados. Así se forma un código lleno de caracteres y eufemismos que no surge de la creatividad, sino de la necesidad de resistir un sistema que a menudo castiga la discusión de una realidad muchas veces incómoda mediante el silenciamiento.

La gestión algorítmica no solo limita el presente, también interviene en la posibilidad de construir futuros más justos. Al condicionar qué narrativas son visibles y cuáles no, los algoritmos afectan directamente la capacidad de articular ideas, reflexiones, desacuerdos y alternativas.

Las voces que denuncian violencias estructurales son etiquetadas como “inapropiadas” o simplemente eliminadas. De hecho, las personas defensoras de derechos humanos, activistas y periodistas son especialmente afectadas, porque sus relatos son sistemáticamente considerados como “sensibles” o “peligrosos” por sistemas que no entienden el contexto ni el propósito de las expresiones detectadas por los filtros automatizados.

Esta jerarquización automática de los discursos revela una visión del mundo profundamente sesgada. El algospeak es síntoma de un entorno que redefine lo que podemos decir, que aplica controles automáticos y reorganiza lo que consideramos importante. Pero el daño no es solo individual: afecta también lo que recordamos y cómo construimos colectivamente nuestros relatos en la defensa de los derechos humanos.

La doble vara del algoritmo

Los estándares de las plataformas no se aplican con el mismo rigor para todos los contenidos ni para todas las voces. Un ejemplo claro de este desbalance ocurrió en México, cuando publicaciones que denunciaban abusos policiales fueron eliminadas por usar música con derechos de autor. Aunque el objetivo era denunciar violencia institucional, el algoritmo priorizó la protección de propiedad intelectual por sobre el derecho a la verdad y la justicia. Al mismo tiempo, contenidos que promovían discursos misóginos o racistas se mantuvieron visibles sin consecuencias.

Esta doble vara, que castiga la denuncia y deja pasar el abuso, no es un error: es una consecuencia directa de sistemas diseñados sin contexto, sin perspectiva de derechos y sin rendición de cuentas. Se censuran las pruebas, pero no las violencias. Se penalizan las denuncias, pero no las estructuras que las provocan. Al proteger ciertas narrativas y silenciar otras, los algoritmos refuerzan el statu quo y erosionan las posibilidades de transformación social.

Además, según recoge la Red Internacional de Periodistas, este es un juego asimétrico. En ese laberinto de claves y restricciones, lo que está en riesgo no es solo el alcance inmediato; las denuncias se vuelven más difíciles de rastrear, y la información concreta de organizaciones, activistas o movimientos sociales desaparece para quienes más la necesitan.

El impacto en la acción colectiva y la memoria

El control automático que penaliza palabras sin ponerlas en contexto condiciona la forma en que narramos nuestras luchas, ya que nos obliga a moldear las palabras que usamos para nombrar nuestras realidades. En muchos casos, estas son palabras que han costado años conceptualizar y consensuar dentro de los movimientos sociales. Al no llamar las cosas por su nombre, se diluye el mensaje y se fragmenta la memoria colectiva.

Como advierte la revista Forced Migration Review, cuando comunidades en condiciones vulnerables se reapropian de términos o usan lenguajes de denuncia, los algoritmos parecen ser más efectivos para eliminar sus contenidos que para moderar discursos de odio o acoso que les atacan. Este desbalance se vuelve crítico cuando miramos quiénes quedan sistemáticamente fuera de las reglas del juego. Las experiencias de personas refugiadas y/o racializadas, por ejemplo, se vuelven aún más invisibilizadas.

Existe un desfase entre los contextos locales y las reglas impuestas globalmente por las plataformas. Muchas veces, los sistemas de moderación algorítmica no están adaptados a las realidades sociales, culturales y lingüísticas de comunidades del Sur Global, lo que intensifica la exclusión digital. Una palabra que en un idioma puede ser una forma legítima de denuncia, en otro es catalogada como violenta o riesgosa. Esta desconexión refuerza la desigualdad en el acceso a la palabra pública y subraya la necesidad de una moderación en el entorno digital que escuche y responda a las realidades plurales que habitan internet.

Quienes dominan los códigos pueden sortear la censura; quienes no, quedan afuera de la conversación. El Digital Future Society alerta que a activistas, creadores de contenido y periodistas se les exige desarrollar un lenguaje que se reinventa una y otra vez frente a la opacidad algorítmica. Pero cuando las palabras cambian constantemente para eludir la censura, se vuelve más difícil ponerlas en común y hacerlas accesibles para otras personas. Frente a estas restricciones debemos repensar cómo nos comunicamos y qué estrategias podemos adoptar.

¿Cómo resistimos?

Nombrar con claridad es un acto político. Llamar las cosas por su nombre, sin eufemismos, es también una forma de resistencia. Reapropiarse del lenguaje algorítmico no significa aceptarlo, sino visibilizarlo como síntoma de un sistema injusto. Algunas organizaciones ya crean glosarios y recursos compartidos para descifrar el algospeak, como el Algospeak Dictionary del Colectivo de Derechos Digitales para la Salud y los Derechos Sexuales y Reproductivos. Democratizar estos conocimientos es clave para que más personas puedan resistir y participar.

También necesitamos exigir mayor transparencia algorítmica. Las plataformas deben explicar cómo moderan y bajo qué criterios y con qué sesgos. Este reclamo no es técnico: es político. Implica defender la libertad de expresión, pero también proteger los temas políticos, culturales y sociales que importan y que hoy están siendo eliminados por sistemas automatizados.

Por último, urge construir y habilitar redes que no estén subordinadas a intereses corporativos. Espacios descentralizados como el fediverso, los medios comunitarios, cooperativas digitales o las alianzas entre organizaciones pueden resguardar nuestras narrativas y sostener la memoria. Resistir también es cuidar redes donde nuestras palabras no sean censuradas por algoritmos opacos.

Palabras que pesan

Las palabras tienen peso. Y cuando las escribimos completas, aunque duelan, aunque molesten, estamos recordando que hay cosas que no pueden ser contenidas, ni siquiera por un algoritmo. Recuperar el lenguaje, cuidarlo y defenderlo es una tarea urgente para quienes luchan por una internet más justa.

En tiempos de automatización y censura silenciosa, reapropiarnos del derecho a nombrar también es reapropiarnos del derecho a existir. No basta con adaptarse: necesitamos transformar el entorno digital para que nuestras palabras no tengan que esconderse.

El desafío de construir el futuro de los derechos humanos

La historia de Derechos Digitales comenzó hace dos décadas apostando a una idea común: que las tecnologías permitirían democratizar el ejercicio de un conjunto de derechos humanos de los cuales buena parte de nuestras poblaciones se veían excluidas. En particular, los derechos a acceder y compartir libremente contenidos artísticos, culturales y científico-académicos, así como noticias y opiniones sobre una amplia variedad de temas. Iniciamos nuestro activismo luchando por garantías a estas libertades en el ámbito tecnológico: que no se impusieran barreras técnicas ni jurídicas al acceso. Al contrario, que los nuevos marcos protegieran y desarrollaran nuestros derechos digitales.

Si bien nuestros orígenes se enmarcan más de una década después de que la apertura democrática en la mayoría de los países del Cono Sur abriera espacio a las primeras iniciativas sociales similares, construimos nuestro trabajo a partir de sus luchas y logros, y de las reflexiones y avances de movimientos iniciados años antes. No partimos desde cero, sino desde un mapa que ya mostraba zonas de conflicto, alianzas posibles y caminos por ensayar.

Una historia construida sobre sueños de libertad

Nuestra relación más obvia, al haber sido responsables de la adaptación y difusión de las licencias Creative Commons a Chile, es con el movimiento de “cultura libre”: con el que compartimos la resistencia al avance desenfrenado de la propiedad intelectual como mecanismo para controlar la circulación de contenidos digitales y proteger antiguos monopolios culturales y mediáticos. Sin embargo, este también nace con fuerte inspiración en dos movimientos previos: el que se construye alrededor del software libre, y aquel que se origina de las disputas por el acceso libre al conocimiento, en particular el acceso a la literatura científica.

El primer texto de nuestra actual página web, con fecha de 5 de mayo de 2005 refleja esta vinculación fundante. Su título: “¿Qué es el software libre?”. Su conclusión:

Considerando las políticas de licenciamiento impuestas por soluciones propietarias, las que suelen socavar las libertades ciudadanas, los beneficios que reporta el trabajo colaborativo y el aliciente para el desarrollo nacional, y los costes asociados a la implementación de soluciones informáticas de código abierto, Derechos Digitales manifiesta su decidida opción por el software libre u open source”.

Otro ejemplo del mismo mes, que apunta al vínculo con movimientos más tradicionales de derechos humanos, es el texto de Daniel Álvarez Valenzuela, fundador y entonces director de Derechos Digitales. Según él, internet podría “conferir a los ciudadanos ‘de a pie’ las mismas posibilidades de ejercer su derecho a la libertad de expresión que los grandes grupos económicos”.

Así, al argumentar sobre cómo la propiedad intelectual representaba una “mordaza” a la libertad de expresión, Álvarez recupera las reivindicaciones del fuerte activismo por la libertad de expresión y el derecho a la comunicación en América Latina. Movimientos responsables por denunciar la censura estatal y cuestionar el monopolio económico de los medios de comunicación en nuestra región.

Nuestros primeros textos reflejan otras relaciones con temáticas de interés de distintos grupos: transparencia y acceso a la información, acceso a la justicia, protección de datos, entre otras. Si bien esas referencias ampliaban el marco conceptual desde el cual abordábamos lo digital, nuestras alianzas y formas de trabajo siguieron, durante bastante tiempo, ligadas sobre todo a comunidades técnicas y jurídicas. Así, por mucho tiempo nuestro trabajo se enmarcó en un nicho dentro del amplio espectro del activismo en derechos humanos.

Promesas secuestradas

En 20 años de actuación, maduramos nuestra concepción sobre estas bases, siempre buscando proteger el ejercicio de derechos facilitado por las tecnologías de intentos de captura, criminalización y vigilancia. Pero lo que antes tomaba la forma de una discusión técnica, jurídica y delimitada a un ambiente digital accesible a una pequeña élite regional, hoy está en el centro de las preocupaciones cotidianas de un sinnúmero de personas afectadas de diferentes formas por las tecnologías digitales.

Primero porque el acceso a internet se ha incrementado significativamente en la región, aunque de manera desigual y a menudo en condiciones precarias. Las brechas no son solo de infraestructura, sino también de calidad, asequibilidad y autonomía. Muchas conexiones son lentas, inestables o costosas, y buena parte del acceso ocurre exclusivamente vía móvil, con planes que restringen contenidos y vulneran el principio de neutralidad de la red. Además, persiste una desigualdad profunda en el acceso a dispositivos adecuados y en las competencias necesarias para usar internet de forma segura, crítica y orientada al ejercicio de derechos. La desconexión ya no es el único problema: también lo es una conectividad limitada, subordinada y sin garantías.

Segundo porque ya no es necesario “estar” en internet para sentir los efectos de la digitalización que –a pesar de la eterna promesa de eficiencia– parece haber traído más riesgos que ventajas. La digitalización atraviesa hoy el acceso a servicios esenciales como salud, educación o justicia, sin que existan garantías adecuadas para todas las personas. Estas transformaciones, impulsadas muchas veces por actores privados sin transparencia ni control democrático, o embelesadas por la promesa de la inteligencia artificial, terminan agravando desigualdades y generando nuevas formas de exclusión. Si antes una preocupación central era con el filtrado de datos y la ciberseguridad, a ella se suman también las consecuencias tangibles de los mismos, la violencia y la manipulación del debate público digital a nuestras vidas y sociedades. Ya no hablamos solo de acceso a información, sino de la posibilidad misma de participar en la esfera pública sin ser invisibilizadas, acosadas o manipuladas.

Tercero, porque nuestros cuerpos son capturados y transformados en rastros digitales explotables para distintos fines ajenos a nuestra voluntad, a medida que las tecnologías digitales se aplican para mediar nuestro acceso a espacios y derechos. La expansión de sistemas de identificación biométrica, el monitoreo de actividades y el análisis predictivo han convertido nuestra vida en datos a explotar y nuestras huellas digitales en materia prima para el control social, la discriminación automatizada y la extracción de valor. Lo que alguna vez se entendió como mediación tecnológica, hoy opera como filtro, barrera o condición de acceso a la vida en sociedad.

Las promesas de apertura, descentralización y acceso que inspiraron el nacimiento del campo han sido sistemáticamente desplazadas por dinámicas de concentración, extracción y control que definen las infraestructuras digitales contemporáneas.

En estas condiciones, el entorno digital ya no parece un espacio naturalmente propicio para el ejercicio de derechos. Lo que comenzó como un terreno fértil para imaginar nuevas libertades, hoy plantea desafíos más urgentes, más desiguales, más difíciles de revertir. Pero si algo hemos aprendido en estos veinte años, es que el conflicto no clausura la posibilidad, sino que nos obliga a repensar nuestro trabajo.

Por el derecho a soñar

A pesar de estos patentes cambios y de un contexto geopolítico internacional refractario a las narrativas de derechos humanos, hoy más que nunca nos parece central reivindicar nuestra misión. No como una consigna repetida, sino como una tarea que se redefine constantemente frente a amenazas más sofisticadas, actores más poderosos y exclusiones más profundas. El escenario que enfrentamos es a menudo hostil, pero también más disputado: cada vez hay más fisuras que visibilizan una diversidad de voces que reclaman por justicia. Voces que requieren ambientes seguros para seguir manifestándose y entornos habilitantes, incluso a nivel digital.

A 20 años de nuestra fundación, seguimos apostando en el software libre para garantizar libertad, autonomía y protección. Mantenemos nuestra convicción en la necesidad de democratizar las comunicaciones y romper con los monopolios que se actualizan cada día a costa de la libertad de nuestras comunidades. Confiamos, más que nunca, en que los derechos humanos son una herramienta viva para enfrentar las crisis del presente y construir el futuro.

Los próximos años exigirán más que resistencia: necesitaremos nuevas alianzas, nuevas formas de incidencia y una comprensión más amplia de qué significa hoy defender derechos en entornos digitales. Necesitaremos resiliencia y solidaridad. Desde los márgenes donde trabajamos como sociedad civil latinoamericana y en toda la región, sabemos que no basta con reaccionar, sino que debemos proponer el futuro que queremos. Este seguirá siendo nuestro lugar.

Cuando la ciberseguridad es cooptada por la inteligencia estatal

La ciberseguridad se ha consolidado como un tema primordial para los Estados latinoamericanos en los últimos años. Entre la creciente digitalización y las amenazas cibernéticas, se ha impulsado la formulación de estrategias nacionales y otras políticas públicas que establecen tanto los objetivos de los gobiernos en la materia, como, en muchos casos, las entidades responsables de su implementación. En ese contexto, y como señalamos en una reciente publicación, es fundamental abordar a las políticas de ciberseguridad desde enfoques basados en derechos humanos que coloquen a las personas al centro de las acciones de prevención y respuesta a los ciberataques contemplando sus riesgos específicos y necesidades, priorizando el ejercicio de derechos fundamentales. En las últimas semanas, Argentina ha captado la atención del ámbito de la ciberseguridad debido a una serie de decisiones gubernamentales que han encendido varias alarmas.

¿Qué fue lo que ocurrió?

En septiembre de 2023, Argentina aprobó su Segunda Estrategia Nacional de Ciberseguridad, un documento que, a primera vista, representó un avance significativo en la región al incorporar principios de derechos humanos y perspectiva de género. No obstante, ese enfoque ha quedado en entredicho tras una serie de decisiones adoptadas por el gobierno actual. En julio de 2024, la reestructuración del Sistema de Inteligencia Nacional -que disolvió la Agencia Federal de Inteligencia y restituyó sus funciones a la vieja Secretaría de Inteligencia del Estado (SIDE), restablecida bajo el control directo y exclusivo del Poder Ejecutivo- marcó el primer giro. Luego, en abril de 2025, con el Decreto 274/2025, la preocupación se intensificó: la SIDE pasó a controlar la Agencia Federal de Ciberseguridad y, con ello, la implementación de la Estrategia Nacional y la operación del CERT.ar. Este modelo de gobernanza en la política de ciberseguridad no tiene precedentes, ni dentro ni fuera de América Latina.

A la par de dichas reformas, en mayo de 2025 la SIDE aprobó el Plan de Inteligencia Nacional (PIN). Este es un documento definido por el gobierno como “secreto”, que establece los lineamientos del Sistema de Inteligencia para “promover los intereses estratégicos” del gobierno. Al PIN sólo tienen acceso el presidente, la SIDE y la Comisión Bicameral Permanente de Fiscalización de los Organismos de Inteligencia. Esta restricción para la consulta del documento siembra de entrada preocupaciones no solo sobre su opacidad sino sobre los retrocesos que pueda representar para las libertades y los derechos fundamentales de la ciudadanía. Más aún, y según lo señalado por medios como La Nación que ha logrado acceder al documento extraoficialmente, el PIN otorga facultades a la SIDE para recabar información sobre todas aquellas personas que, a criterio de la entidad, “erosionen” o “manipulen” la confianza de la opinión pública sobre las políticas de seguridad y económicas del gobierno actual; una práctica prohibida por la propia Ley de Inteligencia Nacional

La aprobación del PIN despertó las alarmas del gremio periodístico y del sector de la sociedad civil argentina, pues la ampliación de las facultades operativas de la SIDE básicamente legitima la persecución y vigilancia a quienes expresen opiniones críticas, un pilar fundamental para el debate democrático. De hecho, el periodista de la Nación que reveló la existencia del nuevo documento de inteligencia estatal reportó ataques a sus cuentas de redes sociales, así como amenazas recibidas a través de estas. La gravedad de este caso visibiliza un patrón sistemático en el país y en la región que amenaza la libertad de expresión así como el derecho de acceso a la información pública, aspectos que hemos documentado en otros artículos.

Los peligros del cambio en la gobernanza de la ciberseguridad

Designar la ciberseguridad al mando de organismos de inteligencia implica un retroceso en la medida que desplaza el enfoque centrado en las personas, limita la participación social y profundiza riesgos de vigilancia. Este cambio se alinea con una concepción conservadora de la ciberseguridad, anclada en una visión técnica centrada exclusivamente en la protección de infraestructuras críticas del Estado, puesto que las agencias de inteligencia tienen como núcleo la protección de los intereses estatales desde el ámbito de la seguridad nacional. Es importante destacar que este enfoque ha sido paulatinamente superado por marcos más integrales y centrados en derechos humanos, que colocan a las personas en el núcleo de las políticas de prevención y respuesta.

Sumado a lo anterior, disponer el desarrollo y la implementación de políticas de ciberseguridad bajo la estructura oculta de la inteligencia estatal, lejos de ser un detalle técnico, reactiva una lógica peligrosa y ya conocida en la región: la priorización discursiva de la seguridad nacional como justificación para restringir libertades fundamentales. A saber, a lo largo del siglo pasado, esta narrativa fue utilizada por regímenes dictatoriales para vigilar, censurar y reprimir a la disidencia bajo la «doctrina de seguridad nacional».

Ahora bien, uno de los pilares en los procesos de Memoria, Verdad y Justicia en la superación de las dictaduras de la región ha sido precisamente la exigencia de límites democráticos al accionar de las agencias de inteligencia. La persistencia de mecanismos opacos y sin controles –como es el caso argentino– no solo es un problema de transparencia, sino una evidencia de que las prácticas y finalidades mismas de dichas agencias siguen siendo incompatibles con los principios democráticos, lo que va en contramano de fallos históricos recientes en la región.

En el escenario argentino, el rediseño del sistema de inteligencia y el traspaso del control de la ciberseguridad a la SIDE no son hechos menores ni aislados, sino parte de un proyecto político del actual gobierno. Este proyecto impulsa discursos y medidas abiertamente regresivas en temas como género, diversidad, protesta social y acceso a la información pública, que han sido denunciados por organismos y organizaciones internacionales como la Relatoría Especial para la Libertad de Expresión de la OEA y Reporteros Sin Fronteras. Esta agenda antiderechos tiene graves impactos especialmente sobre grupos históricamente vulnerables, entre ellos mujeres y personas LGBTQIA+, que además son un blanco frecuente y desproporcionado de las prácticas de vigilancia y los ataques digitales, particularmente quienes ejercen liderazgos políticos, sociales o periodísticos. Precisamente, quienes deberían estar en el centro de las políticas de ciberseguridad son quienes más riesgos enfrentan con los recientes giros autoritarios.

El cambio de gobernanza en cuestión se articula, además, con decisiones geopolíticas de alineamiento expreso con los intereses de Estados Unidos e Israel, países mencionados explícitamente como referentes estratégicos en el nuevo PIN argentino. Esta alineación no solo refuerza una lógica de seguridad nacional que pone en tensión los derechos fundamentales, sino que también reproduce un modelo caracterizado por la concentración de poder y la falta de controles democráticos efectivos. En el caso argentino, donde no existen mecanismos efectivos institucionales de fiscalización sobre las agencias de inteligencia, la pregunta que se impone con fuerza es ¿quién vigila a quienes vigilan?

Implicancias del caso argentino para nuestra región

El caso argentino hace eco en hechos históricos y expone cómo los marcos legales pueden ser utilizados para habilitar prácticas autoritarias. Además, y tomando como referencia un informe reciente de Derechos Digitales, junto a otras acciones realizadas por el gobierno argentino el último tiempo, como la Resolución 428/2024, el caso consolida un rumbo para el despliegue de prácticas de vigilancia bajo normas poco claras, un camino que el Estado ya venía trazando desde 2020. Lo ocurrido en las últimas semanas formaliza dichas actividades y habilita otras como el monitoreo masivo en redes, bajo una estructura que convierte la ciberseguridad en un instrumento político para vigilar y silenciar a la disidencia.

Como vemos, el problema no es nuevo; lo nuevo es que se legitiman la persecución y la vigilancia por vía legal. Estamos ante una disputa política que requiere respuestas claras por parte de los Estados. La región evidencia un panorama en el cual crece la tolerancia hacia formas autoritarias de gobierno. Argentina, un país considerado históricamente como referente en materia de derechos humanos, se ha venido alejando de ese lugar. Este retroceso insta a la activación de compromisos concretos del resto de los países de la región, no solo para construir y defender estándares comunes, sino para impedir que un modelo de ciberseguridad como este sea replicado.

La preocupación es aún mayor considerando que Argentina es uno de los países de América Latina con las estructuras institucionales más robustas en esta área. Cuenta con más recursos técnicos, capacidades operativas y fuerza política que muchos otros. En una región marcada por profundas asimetrías entre países —donde muchos carecen de marcos sólidos, personal capacitado y financiamiento adecuado para la ciberseguridad—, existe el riesgo real de que modelos autoritarios como el argentino influyan negativamente en el diseño de políticas públicas en otros Estados.

Reafirmar un enfoque en ciberseguridad basado en derechos humanos no es una aspiración técnica, sino una urgencia democrática. La protección de la privacidad, la libertad de expresión y la inclusión digital debe estar en el centro de toda política pública en la materia. Fortalecer la gobernanza democrática -con participación multisectorial, perspectiva de género y atención a las desigualdades estructurales cómo las de género- es una tarea impostergable. Solo así podremos construir resiliencia digital sin ceder las libertades que sostienen nuestras democracias.

Cuando la estructura de las organizaciones también es parte del propósito

Este 2025 Derechos Digitales cumple oficialmente veinte años. Este aniversario representa una oportunidad para detenernos y mirar con perspectiva el camino recorrido: veinte años de desafíos, aciertos y también errores, pero por sobre todo aprendizaje. Una historia sobre adaptación constante, crecimiento sostenido y maduración organizacional.

En este hito, queremos destacar una dimensión quizás menos visible de nuestro quehacer, pero profundamente estratégica para lo que somos hoy y lo que queremos ser mañana: el trabajo del área de Operaciones y Finanzas de Derechos Digitales. Un equipo cuya función ha sido clave para sostener y proyectar nuestra misión en el tiempo.

Crecimiento interior

Como muchas organizaciones de la sociedad civil, Derechos Digitales contaba en sus inicios con un equipo polifuncional, que asumía tareas muy diversas: desde la formulación y ejecución de proyectos hasta la gestión administrativa y la relación con donantes. Esta lógica, si bien nos permitió comenzar a trabajar también implicaba una carga significativa sobre las personas encargadas de la investigación y la incidencia, dificultando la especialización y el desarrollo sostenible en un contexto de crecimiento.

Con los años, y a medida que nuestro trabajo crecía en alcance y complejidad, se hizo evidente la necesidad de consolidar un área que asumiera de forma dedicada las labores  administrativas y de soporte estratégico. La oportunidad llegó de la mano de uno de nuestros donantes históricos, Ford Foundation, a través del proyecto BUILD, una iniciativa que daba la posibilidad a diversas organizaciones de concentrar esfuerzos y recursos en el fortalecimiento institucional de largo plazo. Gracias a este apoyo, por primera vez pudimos dedicar esfuerzos a construir, desde un equipo especializado, una estructura organizativa más robusta y preparada para sostener nuestro trabajo hacia el futuro.

Los frutos de esta apuesta fueron visibles en el corto plazo. Un ejemplo de aquello fue la manera en que afrontamos la delicada situación de la pandemia por COVID-19, que trajo consigo una serie de desafíos tanto para nuestras acciones como para el bienestar de nuestros colaboradores, además de socios y pares. En un  escenario profundamente incierto, ya contábamos con una estructura operativa más fortalecida para así sostener nuestras líneas de trabajo y acompañar a otras organizaciones de la región. Además, pudimos destinar esfuerzos y recursos específicamente al acompañamiento del equipo, procurando facilitar su tránsito ante estos procesos de cambio. Este fortalecimiento interno comenzó entonces a proyectarse hacia afuera: a través de microgrants, alianzas estratégicas y una ejecución de proyectos que combinaba solidez técnica con estabilidad financiera.

Este camino no ha sido fácil de transitar. Ha implicado años de aprendizaje, de decisiones complejas y de construir capacidades en un entorno que muchas veces no está pensado para organizaciones como la nuestra. Esto se refleja en distintas formas, a menudo pasadas por alto en el día a día, pero fundamentales para entender cómo trabajamos y qué hemos logrado.

El valor de contar con un apoyo especializado

¿En qué momentos podemos ver el valor de nuestro quehacer interno? Nuestro trabajo administrativo es tan intenso como invisible. La mayor parte del tiempo transcurre detrás del telón, apreciándose con más claridad en aquellos momentos donde las cosas fallan o enfrentamos situaciones complejas. A pesar de esto, en los momentos de mayor exigencia, encontramos los signos de creciente madurez y capacidad de respuesta que hemos forjado, y seguimos consolidando, después de 20 años.

Lo primero es el enfoque en nuestra misión organizacional. Contar con personal especializado dedicado íntegramente al soporte de nuestras tareas permite que quienes diseñan, ejecutan y desarrollan nuestro trabajo sustantivo se centren al 100 % en su labor, sin distracciones burocráticas ni requerimientos administrativos de urgencia. Saber que existe un área que sostiene la estructura interna nos brinda la confianza de continuar avanzando en nuestra misión, incluso en épocas de alta presión, sin desviar esfuerzos en el levantamiento de recursos, proyecciones y reducción de costos. 

Otro de estos signos de madurez está vinculado con la gestión más eficiente de nuestros recursos. Aplicamos políticas claras de planificación y presupuesto, reducción de costos, proyecciones y monitoreo de riesgos que nos permiten no solamente enfrentar el presente, sino anticipar y navegar distintos escenarios, y así estar más preparados para momentos hostiles en términos de financiamiento. Esta capacidad de planificación integral fortalece nuestra resiliencia financiera y si bien no es una garantía, nos brinda más certezas de que las decisiones que tomamos hoy nos preparan para enfrentar los retos que vendrán, a través de diversas herramientas como reservas, inversiones y proyección a largo plazo. En este proceso, nuestras capacidades están en permanente actualización y el crecimiento es continuo: jamás dejamos de aprender y adquirir nuevas herramientas.

Por último, ya estamos en condiciones de asumir que somos un puente entre organizaciones. Nuestro desarrollo administrativo nos permite aportar a la sostenibilidad, no solo de Derechos Digitales, sino también ser un nexo para otros grupos con los que trabajamos. En tiempos de crisis, la colaboración es esencial para las organizaciones sin fines de lucro, ya que permite optimizar recursos, generar confianza social y además nos posiciona como referentes locales en términos de gestión. En Derechos Digitales no solo somos receptores de donaciones para desarrollar nuestros propios proyectos, sino que también hemos logrado convertirnos en fuente de financiamiento para otros colectivos y activistas que, por diversos motivos, no pueden acceder a ciertos tipos de respaldos monetarios, apoyándose así en nuestras capacidades instaladas.

Un claro ejemplo de lo anterior son los Fondos de Respuesta Rápida (FRR) y Fondos de Derechos Digitales (FDD), iniciativa vigente desde 2019 que permite entregar recursos para dar respuesta a emergencias en materia de derechos humanos y tecnología en la región a todo tipo de organizaciones, independientemente de su nivel de madurez. 

¿Y qué sigue?

Resulta innegable que estamos atravesando uno de los momentos más complejos para el espacio cívico y su financiamiento a nivel global. Las recientes decisiones del gobierno de Estados Unidos, no solo pausaron y cortaron recursos clave para el desarrollo mundial, sino que también sacudieron todo el ecosistema filantrópico, generando una incertidumbre sin precedentes.

Estas medidas también han tenido impacto en nuestra operación. Hemos tenido que tomar decisiones complejas que afectan nuestro funcionamiento, como la reducción de costos, congelamiento y suspensión de proyectos y contrataciones asociadas. La adopción responsable de esas medidas fue solamente posible debido a la rápida y dedicada reacción de nuestro equipo, mediante el seguimiento continuo de nuestras finanzas y la formulación de cambios profundos en las proyecciones a corto, mediano y largo plazo, que incluyó la definición de distintos escenarios posibles y la preparación de planes de acción para cada uno de ellos, activando alertas tempranas y evitando asumir la sostenibilidad como un hecho garantizado. 

Pero no basta con lo anteriormente mencionado: el trabajo colaborativo se presenta como nuestra piedra angular mientras persista este contexto de incertidumbre. Así, este fortalecimiento interno no solo beneficia a nuestro propio equipo, sino que nos posiciona como un vínculo confiable para otras organizaciones y activistas de América Latina. Un ejemplo de esto es la capacidad de acceder a fuentes de financiamiento que exigen capacidades comprobables –como auditorías anuales–, para así canalizar recursos administrativos y financieros hacia organizaciones locales.

En Derechos Digitales, resulta vital no solo preservar nuestra actividad, sino también compartir metodologías y tejer redes de articulación que amplifiquen el impacto colectivo de nuestra tarea. En un momento en que la labor de las ONGs y activistas es más necesaria que nunca, mantener la calma, tomar decisiones informadas y trabajar en alianza son las claves para enfrentar la incertidumbre presente y futura.

Es imposible predecir con certeza el futuro, pero afortunadamente sí podemos proyectar escenarios posibles y planificar cómo queremos sostener nuestra misión y mantener activo nuestro trabajo y el fruto de estos 20 años de existencia. A la luz de la historia que hemos compartido aquí, estamos convencidas de que algunas de las acciones cruciales para enfrentar lo que viene son desarrollar capacidades internas sólidas y seguir confiando plenamente en la efectividad de nuestro trabajo sustantivo, asumir definiciones con información y trabajar colaborativamente para seguir impulsando el cambio desde y para el Sur Global.

Educación y tecnologías vs. tecnologías y educación: reflexiones a partir de avances normativos recientes

En un momento de acelerados desarrollos tecnológicos y digitalización, puede parecer redundante decir que la discusión sobre la incorporación de tecnologías ha acompañado buena parte de los debates sobre reformas educativas en la historia reciente. Propuestas de incorporación del cine, radio y televisión marcaron el siglo XX, que –aunque no logró democratizar el acceso a la educación para buena parte de la población mundial– terminó con nuevas promesas de “revolución” educativa derivada exclusivamente de las tecnologías digitales. Como en momentos anteriores, fueron los más variados agentes, incluso instituciones financieras aparentemente poco vinculadas con el campo educativo, quienes vocalizaron de manera más contundente el poder transformador de lo digital para superar los problemas de esa educación “tradicional”. Sin embargo, empezar recuperando esta historia parece importante en un momento en que un nuevo ciclo de optimismos y pesimismos vuelve a instalarse en los debates sobre educación y tecnologías en América Latina.

La olla de oro al final del arcoíris

En un contexto de múltiples precariedades en los sistemas educativos, las tecnologías digitales a veces han sido presentadas como una panacea. La metáfora es de una recompensa tecnológica capaz incluso de transformar prácticas pedagógicas clasificadas de poco eficientes o atractivas para nuevas generaciones. Declaraciones de agentes externos al entorno escolar no ocultan su intento de culpabilizar a las y los docentes por todo tipo de mal relacionado con la educación.

Un extremo de este tipo de discurso se ha activado en Brasil para justificar la adopción de sistemas de reconocimiento facial para el registro de la asistencia escolar en el estado de Paraná. De acuerdo con la gestión local, basada en un documento del Banco Mundial, el método de control de presencia oral sería ineficiente, representando una pérdida de tiempo; la tecnología, por lo tanto, ofrecería la solución a partir de la automatización. Sin embargo, las promesas fueron, como mínimo, optimistas: desde la implementación del sistema, se han registrado múltiples quejas de mal funcionamiento, lo que ha generado aún más retrasos en el registro de asistencia. Ellas incluyen, por ejemplo, errores en la identificación de personas de piel negra y con discapacidad.

Aunque avance rápidamente en la región, el reconocimiento facial es ampliamente cuestionable como tecnología efectiva para la identificación y autentificación de personas. Lo mismo ocurre con los llamados sistemas de reconocimiento de emociones, también en proceso de implementación en escuelas brasileñas.

Este y otros tipos de problemas podrían ser evitados con la realización de estudios previos de impacto amplios y participativos, pero no hay referencias de que se hayan realizado en el caso de Paraná. La iniciativa –que costó más de 4 millones de reales al Estado– está actualmente bajo escrutinio judicial debido a la vulneración de la legislación brasileña de protección de datos, por ejemplo en relación con el consentimiento para la recolección de datos biométricos sensibles de niños, niñas y adolescentes. El “oro”, al final, parece haberse quedado con los proveedores de la tecnología, mientras la educación pública sigue precarizada y carente de inversiones significativas.

Transgresiones sectoriales

El concepto de transgresiones sectoriales es útil para entender algunos procesos detrás del avance de las empresas de tecnologías en la educación. Se refiere a la estrategia de empresas de tecnologías de reivindicar conocimiento y autoridad en ámbitos que van más allá de lo tecnológico. Con eso, pasan a tener un peso diferencial en decisiones estratégicas, en este caso, del ámbito educativo, que no son parte de su competencia.

Rescatar esta idea es clave mientras pensamos políticas educativas y respuestas normativas a los desafíos del avance de las empresas tecnológicas sobre la educación. Con relación a lo primero, importa recuperar el rol que ellas efectivamente cumplen a la hora de definir a quiénes involucrar en discusiones sobre políticas públicas sobre educación y tecnologías. Si bien las empresas pueden tener un espacio en las mesas de discusión, de ningún modo reemplazan la necesidad de involucrar expertas en educación y representantes del sector educativo, como docentes, estudiantes y gestión educativa.

Por otro lado, el recuerdo que trae la idea de transgresión sectorial es clave para evitar caer en trampas normativas como la de crear criterios específicos para “EdTech”. Este tipo de abordaje, explorado por órganos como Unicef, más allá de sus buenas intenciones conllevan el doble riesgo de naturalizar la voz de empresas de tecnologías para incidir en temas educativos y de fragilizar protecciones existentes al pensar criterios diferenciados para el ámbito educativo. Peor aún, puede legitimar la recolección masiva de datos de niños, niñas y adolescentes en el contexto educativo, algo cuidadosamente delimitado por distintas legislaciones alrededor del mundo, incluso en materia de protección de datos personales.

O sea: bajo la excusa de crear reglas específicas, se autoriza y legitima la explotación de datos de infancias sin un completo conocimiento de sus consecuencias. En un contexto regional de gran influencia del lobby de las empresas de tecnologías, iniciativas legislativas como éstas pueden poner en jaque las garantías duramente conquistadas en el marco de leyes generales de protección de datos.

El caso brasilero de Paraná evidencia, y siempre es bueno reiterar, que las leyes de protección de datos sí se aplican a las políticas de uso de tecnologías en educación promovidas desde el sector público. Del mismo modo, las reglas de compras públicas también se aplican a la adquisición de tecnologías por entes del Estado, aunque, como hemos demostrado en la iniciativa IA & Inclusión, ellas sean poco observadas en la región. La existencia o no de intercambio monetario involucrado en los acuerdos con empresas de tecnologías no es un limitante si el uso implica la explotación económica de datos obtenidos a partir de ellos.

Eso no significa que no haya particularidades que deban ser consideradas o que no haya utilidad en el desarrollo de normas administrativas o guías específicas para las instituciones educativas. Las autoridades de protección de datos cumplen un rol clave al proponer orientaciones ancladas en los más altos estándares de protección establecidos en las normativas de datos y de infancias. Eso es particularmente relevante en un contexto en que las grandes empresas de tecnología se acercan a las instituciones educativas para establecer alianzas directas, dificultando procesos de supervisión y fiscalización.

Tecnologías para una educación emancipadora

En un año en que vemos cómo los hombres detrás de las mayores empresas de tecnología no dudan en apoyar un gobierno de extrema derecha marcado por la discriminación, odio y la persecución a oponentes políticos, no es difícil entender por qué gana fuerza en la región una resistencia a las mismas tecnologías. En el último año tuvimos una ley federal aprobada en Brasil prohibiendo el uso de teléfonos celulares en las escuelas, discusiones similares en Argentina –con una resolución porteña sobre el mismo tema– y en lo que va de 2025 ya hubo una “huelga” de redes sociales en abril y otra está prevista para el próximo domingo (25) en Brasil. También en Brasil gana fuerza un movimiento para evitar que niños, niñas y adolescentes tengan acceso a un smartphone hasta que cumplan 14 años y a las redes sociales antes de los 16.

Son innumerables y muy legítimos los motivos que fortalecen este tipo de reacción: desde las crecientes evidencias sobre los impactos nocivos de las tecnologías a la salud, su carácter adictivo, hasta el temor a la violencia en línea en todas sus formas, pasando por el rol de los algoritmos, las exposición a los extremismos y a la desinformación –contenidos ahora menos regulados por las mismas plataformas–, entre otros. Es positivo que estas preocupaciones alcancen a la sociedad de manera más amplia y provoquen reacciones desde el poder político, históricamente sordo a las alertas sobre la necesidad de supervisar y fiscalizar procesos de digitalización del Estado.

Sin embargo, no podemos olvidar la importante historia de usos de tecnologías para la resistencia, la defensa de derechos y la democratización de la comunicación y la educación, en un continente aún marcado por desigualdades. Lejos de comprar la fantasía tecnosolucionista que equipara tecnología y eficiencia, se trata de recuperar internet más allá de las redes sociales. En el mismo sentido, cabe recordar que las tecnologías no son sinónimo de extracción y explotación de datos para la ganancia sin frenos (del mismo modo que “EdTech” no es lo mismo que tecnologías en la educación).

Limitar el acceso a las tecnologías a las niñeces o en el ámbito educativo puede ser una respuesta legítima frente al avance obsceno de los intereses comerciales por sobre cada aspecto de nuestras vidas. Pero también puede implicar restringir el contacto con otras realidades, el acceso a culturas no cubiertas por medios tradicionales, la formación de vínculos afectivos, la exploración de identidades en entornos seguros, y otras formas de conocer el mundo. Más aún: podría limitar la capacidad de las próximas generaciones para imaginar otros futuros tecnológicos. Más justos, más solidarios, más inclusivos.

Reconocer los riesgos de la digitalización en contextos educativos no implica renunciar a sus posibilidades. Más bien, urge avanzar hacia una construcción colectiva de políticas tecnológicas que pongan al centro el bienestar y los derechos de las comunidades escolares. Esto incluye fortalecer los procesos participativos, asegurar evaluaciones de impacto, garantizar el cumplimiento de las leyes de protección de datos y, sobre todo, promover un enfoque pedagógico que incorpore las tecnologías como herramientas de emancipación y no de control. La educación con tecnologías sí es posible, pero solo si se construye desde la equidad, la justicia social y la imaginación crítica.

¿Quién cuenta nuestras historias? Periodismo automatizado y derechos fundamentales

En los últimos años, las herramientas de inteligencia artificial han comenzado a ocupar un lugar cada vez más visible en las redacciones de medios de América Latina. Desde asistentes que ayudan a transcribir entrevistas hasta sistemas que generan notas automáticamente, la promesa es clara: más eficiencia, menos carga laboral, menor costo y mayor productividad. Pero en un contexto de precarización, concentración de medios y saturación de desinformación, la pregunta no puede ser solo técnica: ¿qué implica automatizar la producción de noticias? ¿Qué se pierde cuando desplazamos el criterio humano por decisiones algorítmicas? ¿Y qué derechos están en juego cuando delegamos funciones clave a tecnologías opacas, que pueden comprometer la privacidad de las personas o exponer datos sensibles sin garantías claras?

Las tecnologías no son neutras, ni inevitables. Cómo se diseñan, a quién benefician y en qué condiciones se integran son decisiones profundamente políticas. Cuando hablamos de IA en el periodismo, lo que está en juego no es solo el futuro del oficio, sino también la calidad del debate público, la diversidad de voces y el derecho a una información verificada, plural y libre.

La IA no se equivoca, simplemente inventa

Uno de los mayores peligros del uso de IA en el periodismo no radica únicamente en sus limitaciones técnicas, como su capacidad para generar contenidos falsos con un tono convincente, sino en cómo estas herramientas son incorporadas en las prácticas periodísticas sin un control adecuado. A estas falsedades se les conoce como “alucinaciones”: errores que no son simples imprecisiones, sino construcciones completamente ficticias, presentadas con seguridad estilística. El riesgo aumenta cuando estas herramientas se integran en flujos de trabajo sin revisión humana o se utilizan para cubrir temas sensibles con escasa verificación, desplazando criterios editoriales por resultados automatizados, ajenos al contexto y desvinculados de toda responsabilidad profesional.

Durante el panel internacional “Inteligencia Artificial y Periodismo: ¿Cómo los medios están cubriendo y utilizando la IA en América Latina?”, organizado por la UNESCO en el marco del Día Mundial de la Libertad de Prensa de este año, periodistas de todo el mundo, autoridades y expertas alertaron sobre este fenómeno. Se coincidió en que, lejos de reemplazar el trabajo periodístico, la IA exige una nueva capa de responsabilidad: todo contenido generado o asistido por sistemas automáticos debe ser verificado, contrastado y contextualizado. Usar estas herramientas sin revisión humana no es innovación, es una forma acelerada de erosionar la confianza pública.

Entre precariedad y automatización

La adopción de IA ocurre en un escenario de crisis estructural para el periodismo. En América Latina, muchas redacciones enfrentan recortes presupuestarios, tercerización de funciones editoriales y presión por producir más contenido en menos tiempo. En este contexto, las tecnologías generativas parecen una solución fácil: automatizar notas de economía, clima o espectáculos para ahorrar tiempo y recursos.

Pero esta lógica plantea una falsa dicotomía: ahorrar costos a cambio de debilitar el oficio. En algunos casos, ya se han documentado errores graves en medios internacionales que usaron IA sin control editorial, como la publicación de artículos fabricados o entrevistas a personas inexistentes. El impacto no es solo reputacional, también precariza aún más el trabajo de periodistas, editores y correctores, consolidando un modelo donde la automatización reemplaza capacidades humanas sin generar condiciones más dignas ni sostenibles para quienes sostienen el oficio.

En tiempos donde el periodismo atraviesa una crisis de credibilidad en muchas partes de la región, automatizar sin criterio no es una solución, sino que es una forma de agravar el problema. El periodismo no es solo producción de contenido; es ejercicio crítico, narración situada, atención al contexto y responsabilidad pública. Cuando se reemplaza por sistemas que priorizan la cantidad sobre la calidad, el resultado no es eficiencia, sino desinformación con apariencia de legitimidad, amplificada por la credibilidad institucional de los medios que la reproducen. La automatización acrítica debilita tanto la calidad como la confianza en el periodismo como herramienta democrática.

Las fuentes no son prompts

Uno de los puntos más delicados -y muchas veces invisibles- del uso de IA generativa en el periodismo tiene que ver con la protección de fuentes. Ingresar información confidencial en sistemas como ChatGPT o Gemini, por ejemplo, para redactar un borrador o resumir una entrevista, implica entregar esos datos a empresas cuyos términos de uso permiten almacenarlos, analizarlos o utilizarlos para seguir entrenando sus modelos. En la práctica, esto significa que nombres, descripciones, detalles sensibles sobre hechos o incluso fragmentos de testimonios pueden quedar registrados en servidores externos, sin garantías sobre su eliminación o uso futuro.

Esto no solo va en contra del principio básico de confidencialidad periodística. También expone a personas que entregaron testimonios bajo promesas de reserva, especialmente en contextos de riesgo como la violencia de género, la corrupción o los conflictos socioambientales, donde una filtración de información puede tener consecuencias graves. La tecnología puede facilitar tareas, pero no debe jamás poner en peligro a las fuentes, ni debilitar las condiciones bajo las que se resguarda su información.

En América Latina, con intentos regulatorios sobre la IA y nuevas reglas sobre datos personales, como la nueva Ley de Protección de Datos Personales en Chile que establece obligaciones claras sobre el consentimiento, la proporcionalidad y la finalidad del tratamiento de datos, este punto cobra aún más relevancia. Las y los periodistas tienen la responsabilidad de aplicar esos principios no solo frente a personas terceras, sino también frente a las plataformas que usan en sus procesos de trabajo, asumiendo que toda herramienta digital forma parte del entorno de riesgo que debe ser evaluado críticamente.

Principios y propuestas para un uso responsable de la IA

Frente a este panorama, no todo son alertas. Existen esfuerzos concretos para promover un uso ético de la IA en el periodismo. Uno de los más relevantes es la Carta de París sobre inteligencia artificial y periodismo elaborada por Reporteros Sin Fronteras (RSF) y publicada en 2023, que establece un decálogo de principios éticos para enfrentar los desafíos actuales.

Entre sus recomendaciones destacan la necesidad de transparencia sobre el uso de herramientas automatizadas, la trazabilidad del contenido generado por IA, la supervisión editorial humana obligatoria, la garantía de que la IA no sustituya funciones esenciales del periodismo y el compromiso con una gobernanza tecnológica centrada en derechos humanos. Esta carta no solo interpela a medios y periodistas, sino también a gobiernos, desarrolladores y plataformas tecnológicas, recordando que el ejercicio periodístico no puede depender de sistemas cuya lógica excluye la responsabilidad pública.

A nivel práctico, ya existen iniciativas que avanzan en la implementación de estos principios. Algunos medios han comenzado a etiquetar de forma explícita el contenido generado por IA, a establecer protocolos de revisión y a capacitar a sus equipos en el uso crítico de estas herramientas. También se discute la incorporación de cláusulas éticas en los contratos con proveedores tecnológicos y la creación de mecanismos colectivos de evaluación y rendición de cuentas, especialmente en redacciones independientes y comunitarias.

La tecnología puede ser aliada, pero siempre bajo marcos de transparencia, ética profesional y respeto por las personas. Eso implica comprender sus límites, evaluar críticamente cómo está diseñada y qué efectos produce, y evitar delegar en sistemas automatizados decisiones que exigen contexto, criterio editorial y responsabilidad humana. Usarla con cuidado no solo protege el ejercicio periodístico, sino que también garantiza el derecho de las audiencias a recibir información confiable, diversa y producida con estándares de integridad.

Periodismo, democracia y tecnología

La automatización en el periodismo no es un escenario neutral. Puede ayudar a abordar tareas operativas en contextos de sobrecarga, reducción de equipos o necesidad de mejorar la accesibilidad de ciertos contenidos. Pero cuando se adopta sin criterios de justicia, equidad y responsabilidad, también puede profundizar problemas ya existentes como la precarización laboral, pérdida de diversidad en las coberturas y deterioro del juicio editorial. Informar es una función pública y una responsabilidad con la sociedad, no una tarea replicable sin contexto por sistemas opacos.

En América Latina, donde el espacio cívico se reduce, donde el acceso a la información muchas veces depende de medios independientes, y donde las amenazas a periodistas se multiplican, proteger el periodismo es también proteger la democracia.

Por eso, las decisiones sobre cómo se usa la IA en la producción de noticias no pueden quedar en manos de unos pocos actores tecnológicos. Deben involucrar a periodistas, audiencias, legisladores, editores, academia, sociedad civil y defensores de derechos humanos. Porque si el periodismo se transforma, debe hacerlo sin perder la capacidad de escuchar, cuestionar y poner en el centro las historias que merecen ser contadas.