Hablar en clave para existir: resistencias digitales frente a la censura algorítmica

Estas frases alteradas aparecen en redes cada vez que abordamos temas que desafían las normas impuestas por el algoritmo: 4bu$o s3xual, su1c1d1o, desvivir. Se le llama “algospeak” a estas estrategias de lenguaje que buscan eludir la vigilancia de plataformas como TikTok, YouTube o Instagram a ciertos contenidos considerados inapropiados. Así se forma un código lleno de caracteres y eufemismos que no surge de la creatividad, sino de la necesidad de resistir un sistema que a menudo castiga la discusión de una realidad muchas veces incómoda mediante el silenciamiento.

La gestión algorítmica no solo limita el presente, también interviene en la posibilidad de construir futuros más justos. Al condicionar qué narrativas son visibles y cuáles no, los algoritmos afectan directamente la capacidad de articular ideas, reflexiones, desacuerdos y alternativas.

Las voces que denuncian violencias estructurales son etiquetadas como “inapropiadas” o simplemente eliminadas. De hecho, las personas defensoras de derechos humanos, activistas y periodistas son especialmente afectadas, porque sus relatos son sistemáticamente considerados como “sensibles” o “peligrosos” por sistemas que no entienden el contexto ni el propósito de las expresiones detectadas por los filtros automatizados.

Esta jerarquización automática de los discursos revela una visión del mundo profundamente sesgada. El algospeak es síntoma de un entorno que redefine lo que podemos decir, que aplica controles automáticos y reorganiza lo que consideramos importante. Pero el daño no es solo individual: afecta también lo que recordamos y cómo construimos colectivamente nuestros relatos en la defensa de los derechos humanos.

La doble vara del algoritmo

Los estándares de las plataformas no se aplican con el mismo rigor para todos los contenidos ni para todas las voces. Un ejemplo claro de este desbalance ocurrió en México, cuando publicaciones que denunciaban abusos policiales fueron eliminadas por usar música con derechos de autor. Aunque el objetivo era denunciar violencia institucional, el algoritmo priorizó la protección de propiedad intelectual por sobre el derecho a la verdad y la justicia. Al mismo tiempo, contenidos que promovían discursos misóginos o racistas se mantuvieron visibles sin consecuencias.

Esta doble vara, que castiga la denuncia y deja pasar el abuso, no es un error: es una consecuencia directa de sistemas diseñados sin contexto, sin perspectiva de derechos y sin rendición de cuentas. Se censuran las pruebas, pero no las violencias. Se penalizan las denuncias, pero no las estructuras que las provocan. Al proteger ciertas narrativas y silenciar otras, los algoritmos refuerzan el statu quo y erosionan las posibilidades de transformación social.

Además, según recoge la Red Internacional de Periodistas, este es un juego asimétrico. En ese laberinto de claves y restricciones, lo que está en riesgo no es solo el alcance inmediato; las denuncias se vuelven más difíciles de rastrear, y la información concreta de organizaciones, activistas o movimientos sociales desaparece para quienes más la necesitan.

El impacto en la acción colectiva y la memoria

El control automático que penaliza palabras sin ponerlas en contexto condiciona la forma en que narramos nuestras luchas, ya que nos obliga a moldear las palabras que usamos para nombrar nuestras realidades. En muchos casos, estas son palabras que han costado años conceptualizar y consensuar dentro de los movimientos sociales. Al no llamar las cosas por su nombre, se diluye el mensaje y se fragmenta la memoria colectiva.

Como advierte la revista Forced Migration Review, cuando comunidades en condiciones vulnerables se reapropian de términos o usan lenguajes de denuncia, los algoritmos parecen ser más efectivos para eliminar sus contenidos que para moderar discursos de odio o acoso que les atacan. Este desbalance se vuelve crítico cuando miramos quiénes quedan sistemáticamente fuera de las reglas del juego. Las experiencias de personas refugiadas y/o racializadas, por ejemplo, se vuelven aún más invisibilizadas.

Existe un desfase entre los contextos locales y las reglas impuestas globalmente por las plataformas. Muchas veces, los sistemas de moderación algorítmica no están adaptados a las realidades sociales, culturales y lingüísticas de comunidades del Sur Global, lo que intensifica la exclusión digital. Una palabra que en un idioma puede ser una forma legítima de denuncia, en otro es catalogada como violenta o riesgosa. Esta desconexión refuerza la desigualdad en el acceso a la palabra pública y subraya la necesidad de una moderación en el entorno digital que escuche y responda a las realidades plurales que habitan internet.

Quienes dominan los códigos pueden sortear la censura; quienes no, quedan afuera de la conversación. El Digital Future Society alerta que a activistas, creadores de contenido y periodistas se les exige desarrollar un lenguaje que se reinventa una y otra vez frente a la opacidad algorítmica. Pero cuando las palabras cambian constantemente para eludir la censura, se vuelve más difícil ponerlas en común y hacerlas accesibles para otras personas. Frente a estas restricciones debemos repensar cómo nos comunicamos y qué estrategias podemos adoptar.

¿Cómo resistimos?

Nombrar con claridad es un acto político. Llamar las cosas por su nombre, sin eufemismos, es también una forma de resistencia. Reapropiarse del lenguaje algorítmico no significa aceptarlo, sino visibilizarlo como síntoma de un sistema injusto. Algunas organizaciones ya crean glosarios y recursos compartidos para descifrar el algospeak, como el Algospeak Dictionary del Colectivo de Derechos Digitales para la Salud y los Derechos Sexuales y Reproductivos. Democratizar estos conocimientos es clave para que más personas puedan resistir y participar.

También necesitamos exigir mayor transparencia algorítmica. Las plataformas deben explicar cómo moderan y bajo qué criterios y con qué sesgos. Este reclamo no es técnico: es político. Implica defender la libertad de expresión, pero también proteger los temas políticos, culturales y sociales que importan y que hoy están siendo eliminados por sistemas automatizados.

Por último, urge construir y habilitar redes que no estén subordinadas a intereses corporativos. Espacios descentralizados como el fediverso, los medios comunitarios, cooperativas digitales o las alianzas entre organizaciones pueden resguardar nuestras narrativas y sostener la memoria. Resistir también es cuidar redes donde nuestras palabras no sean censuradas por algoritmos opacos.

Palabras que pesan

Las palabras tienen peso. Y cuando las escribimos completas, aunque duelan, aunque molesten, estamos recordando que hay cosas que no pueden ser contenidas, ni siquiera por un algoritmo. Recuperar el lenguaje, cuidarlo y defenderlo es una tarea urgente para quienes luchan por una internet más justa.

En tiempos de automatización y censura silenciosa, reapropiarnos del derecho a nombrar también es reapropiarnos del derecho a existir. No basta con adaptarse: necesitamos transformar el entorno digital para que nuestras palabras no tengan que esconderse.

El desafío de construir el futuro de los derechos humanos

La historia de Derechos Digitales comenzó hace dos décadas apostando a una idea común: que las tecnologías permitirían democratizar el ejercicio de un conjunto de derechos humanos de los cuales buena parte de nuestras poblaciones se veían excluidas. En particular, los derechos a acceder y compartir libremente contenidos artísticos, culturales y científico-académicos, así como noticias y opiniones sobre una amplia variedad de temas. Iniciamos nuestro activismo luchando por garantías a estas libertades en el ámbito tecnológico: que no se impusieran barreras técnicas ni jurídicas al acceso. Al contrario, que los nuevos marcos protegieran y desarrollaran nuestros derechos digitales.

Si bien nuestros orígenes se enmarcan más de una década después de que la apertura democrática en la mayoría de los países del Cono Sur abriera espacio a las primeras iniciativas sociales similares, construimos nuestro trabajo a partir de sus luchas y logros, y de las reflexiones y avances de movimientos iniciados años antes. No partimos desde cero, sino desde un mapa que ya mostraba zonas de conflicto, alianzas posibles y caminos por ensayar.

Una historia construida sobre sueños de libertad

Nuestra relación más obvia, al haber sido responsables de la adaptación y difusión de las licencias Creative Commons a Chile, es con el movimiento de “cultura libre”: con el que compartimos la resistencia al avance desenfrenado de la propiedad intelectual como mecanismo para controlar la circulación de contenidos digitales y proteger antiguos monopolios culturales y mediáticos. Sin embargo, este también nace con fuerte inspiración en dos movimientos previos: el que se construye alrededor del software libre, y aquel que se origina de las disputas por el acceso libre al conocimiento, en particular el acceso a la literatura científica.

El primer texto de nuestra actual página web, con fecha de 5 de mayo de 2005 refleja esta vinculación fundante. Su título: “¿Qué es el software libre?”. Su conclusión:

Considerando las políticas de licenciamiento impuestas por soluciones propietarias, las que suelen socavar las libertades ciudadanas, los beneficios que reporta el trabajo colaborativo y el aliciente para el desarrollo nacional, y los costes asociados a la implementación de soluciones informáticas de código abierto, Derechos Digitales manifiesta su decidida opción por el software libre u open source”.

Otro ejemplo del mismo mes, que apunta al vínculo con movimientos más tradicionales de derechos humanos, es el texto de Daniel Álvarez Valenzuela, fundador y entonces director de Derechos Digitales. Según él, internet podría “conferir a los ciudadanos ‘de a pie’ las mismas posibilidades de ejercer su derecho a la libertad de expresión que los grandes grupos económicos”.

Así, al argumentar sobre cómo la propiedad intelectual representaba una “mordaza” a la libertad de expresión, Álvarez recupera las reivindicaciones del fuerte activismo por la libertad de expresión y el derecho a la comunicación en América Latina. Movimientos responsables por denunciar la censura estatal y cuestionar el monopolio económico de los medios de comunicación en nuestra región.

Nuestros primeros textos reflejan otras relaciones con temáticas de interés de distintos grupos: transparencia y acceso a la información, acceso a la justicia, protección de datos, entre otras. Si bien esas referencias ampliaban el marco conceptual desde el cual abordábamos lo digital, nuestras alianzas y formas de trabajo siguieron, durante bastante tiempo, ligadas sobre todo a comunidades técnicas y jurídicas. Así, por mucho tiempo nuestro trabajo se enmarcó en un nicho dentro del amplio espectro del activismo en derechos humanos.

Promesas secuestradas

En 20 años de actuación, maduramos nuestra concepción sobre estas bases, siempre buscando proteger el ejercicio de derechos facilitado por las tecnologías de intentos de captura, criminalización y vigilancia. Pero lo que antes tomaba la forma de una discusión técnica, jurídica y delimitada a un ambiente digital accesible a una pequeña élite regional, hoy está en el centro de las preocupaciones cotidianas de un sinnúmero de personas afectadas de diferentes formas por las tecnologías digitales.

Primero porque el acceso a internet se ha incrementado significativamente en la región, aunque de manera desigual y a menudo en condiciones precarias. Las brechas no son solo de infraestructura, sino también de calidad, asequibilidad y autonomía. Muchas conexiones son lentas, inestables o costosas, y buena parte del acceso ocurre exclusivamente vía móvil, con planes que restringen contenidos y vulneran el principio de neutralidad de la red. Además, persiste una desigualdad profunda en el acceso a dispositivos adecuados y en las competencias necesarias para usar internet de forma segura, crítica y orientada al ejercicio de derechos. La desconexión ya no es el único problema: también lo es una conectividad limitada, subordinada y sin garantías.

Segundo porque ya no es necesario “estar” en internet para sentir los efectos de la digitalización que –a pesar de la eterna promesa de eficiencia– parece haber traído más riesgos que ventajas. La digitalización atraviesa hoy el acceso a servicios esenciales como salud, educación o justicia, sin que existan garantías adecuadas para todas las personas. Estas transformaciones, impulsadas muchas veces por actores privados sin transparencia ni control democrático, o embelesadas por la promesa de la inteligencia artificial, terminan agravando desigualdades y generando nuevas formas de exclusión. Si antes una preocupación central era con el filtrado de datos y la ciberseguridad, a ella se suman también las consecuencias tangibles de los mismos, la violencia y la manipulación del debate público digital a nuestras vidas y sociedades. Ya no hablamos solo de acceso a información, sino de la posibilidad misma de participar en la esfera pública sin ser invisibilizadas, acosadas o manipuladas.

Tercero, porque nuestros cuerpos son capturados y transformados en rastros digitales explotables para distintos fines ajenos a nuestra voluntad, a medida que las tecnologías digitales se aplican para mediar nuestro acceso a espacios y derechos. La expansión de sistemas de identificación biométrica, el monitoreo de actividades y el análisis predictivo han convertido nuestra vida en datos a explotar y nuestras huellas digitales en materia prima para el control social, la discriminación automatizada y la extracción de valor. Lo que alguna vez se entendió como mediación tecnológica, hoy opera como filtro, barrera o condición de acceso a la vida en sociedad.

Las promesas de apertura, descentralización y acceso que inspiraron el nacimiento del campo han sido sistemáticamente desplazadas por dinámicas de concentración, extracción y control que definen las infraestructuras digitales contemporáneas.

En estas condiciones, el entorno digital ya no parece un espacio naturalmente propicio para el ejercicio de derechos. Lo que comenzó como un terreno fértil para imaginar nuevas libertades, hoy plantea desafíos más urgentes, más desiguales, más difíciles de revertir. Pero si algo hemos aprendido en estos veinte años, es que el conflicto no clausura la posibilidad, sino que nos obliga a repensar nuestro trabajo.

Por el derecho a soñar

A pesar de estos patentes cambios y de un contexto geopolítico internacional refractario a las narrativas de derechos humanos, hoy más que nunca nos parece central reivindicar nuestra misión. No como una consigna repetida, sino como una tarea que se redefine constantemente frente a amenazas más sofisticadas, actores más poderosos y exclusiones más profundas. El escenario que enfrentamos es a menudo hostil, pero también más disputado: cada vez hay más fisuras que visibilizan una diversidad de voces que reclaman por justicia. Voces que requieren ambientes seguros para seguir manifestándose y entornos habilitantes, incluso a nivel digital.

A 20 años de nuestra fundación, seguimos apostando en el software libre para garantizar libertad, autonomía y protección. Mantenemos nuestra convicción en la necesidad de democratizar las comunicaciones y romper con los monopolios que se actualizan cada día a costa de la libertad de nuestras comunidades. Confiamos, más que nunca, en que los derechos humanos son una herramienta viva para enfrentar las crisis del presente y construir el futuro.

Los próximos años exigirán más que resistencia: necesitaremos nuevas alianzas, nuevas formas de incidencia y una comprensión más amplia de qué significa hoy defender derechos en entornos digitales. Necesitaremos resiliencia y solidaridad. Desde los márgenes donde trabajamos como sociedad civil latinoamericana y en toda la región, sabemos que no basta con reaccionar, sino que debemos proponer el futuro que queremos. Este seguirá siendo nuestro lugar.

Cuando la ciberseguridad es cooptada por la inteligencia estatal

La ciberseguridad se ha consolidado como un tema primordial para los Estados latinoamericanos en los últimos años. Entre la creciente digitalización y las amenazas cibernéticas, se ha impulsado la formulación de estrategias nacionales y otras políticas públicas que establecen tanto los objetivos de los gobiernos en la materia, como, en muchos casos, las entidades responsables de su implementación. En ese contexto, y como señalamos en una reciente publicación, es fundamental abordar a las políticas de ciberseguridad desde enfoques basados en derechos humanos que coloquen a las personas al centro de las acciones de prevención y respuesta a los ciberataques contemplando sus riesgos específicos y necesidades, priorizando el ejercicio de derechos fundamentales. En las últimas semanas, Argentina ha captado la atención del ámbito de la ciberseguridad debido a una serie de decisiones gubernamentales que han encendido varias alarmas.

¿Qué fue lo que ocurrió?

En septiembre de 2023, Argentina aprobó su Segunda Estrategia Nacional de Ciberseguridad, un documento que, a primera vista, representó un avance significativo en la región al incorporar principios de derechos humanos y perspectiva de género. No obstante, ese enfoque ha quedado en entredicho tras una serie de decisiones adoptadas por el gobierno actual. En julio de 2024, la reestructuración del Sistema de Inteligencia Nacional -que disolvió la Agencia Federal de Inteligencia y restituyó sus funciones a la vieja Secretaría de Inteligencia del Estado (SIDE), restablecida bajo el control directo y exclusivo del Poder Ejecutivo- marcó el primer giro. Luego, en abril de 2025, con el Decreto 274/2025, la preocupación se intensificó: la SIDE pasó a controlar la Agencia Federal de Ciberseguridad y, con ello, la implementación de la Estrategia Nacional y la operación del CERT.ar. Este modelo de gobernanza en la política de ciberseguridad no tiene precedentes, ni dentro ni fuera de América Latina.

A la par de dichas reformas, en mayo de 2025 la SIDE aprobó el Plan de Inteligencia Nacional (PIN). Este es un documento definido por el gobierno como “secreto”, que establece los lineamientos del Sistema de Inteligencia para “promover los intereses estratégicos” del gobierno. Al PIN sólo tienen acceso el presidente, la SIDE y la Comisión Bicameral Permanente de Fiscalización de los Organismos de Inteligencia. Esta restricción para la consulta del documento siembra de entrada preocupaciones no solo sobre su opacidad sino sobre los retrocesos que pueda representar para las libertades y los derechos fundamentales de la ciudadanía. Más aún, y según lo señalado por medios como La Nación que ha logrado acceder al documento extraoficialmente, el PIN otorga facultades a la SIDE para recabar información sobre todas aquellas personas que, a criterio de la entidad, “erosionen” o “manipulen” la confianza de la opinión pública sobre las políticas de seguridad y económicas del gobierno actual; una práctica prohibida por la propia Ley de Inteligencia Nacional

La aprobación del PIN despertó las alarmas del gremio periodístico y del sector de la sociedad civil argentina, pues la ampliación de las facultades operativas de la SIDE básicamente legitima la persecución y vigilancia a quienes expresen opiniones críticas, un pilar fundamental para el debate democrático. De hecho, el periodista de la Nación que reveló la existencia del nuevo documento de inteligencia estatal reportó ataques a sus cuentas de redes sociales, así como amenazas recibidas a través de estas. La gravedad de este caso visibiliza un patrón sistemático en el país y en la región que amenaza la libertad de expresión así como el derecho de acceso a la información pública, aspectos que hemos documentado en otros artículos.

Los peligros del cambio en la gobernanza de la ciberseguridad

Designar la ciberseguridad al mando de organismos de inteligencia implica un retroceso en la medida que desplaza el enfoque centrado en las personas, limita la participación social y profundiza riesgos de vigilancia. Este cambio se alinea con una concepción conservadora de la ciberseguridad, anclada en una visión técnica centrada exclusivamente en la protección de infraestructuras críticas del Estado, puesto que las agencias de inteligencia tienen como núcleo la protección de los intereses estatales desde el ámbito de la seguridad nacional. Es importante destacar que este enfoque ha sido paulatinamente superado por marcos más integrales y centrados en derechos humanos, que colocan a las personas en el núcleo de las políticas de prevención y respuesta.

Sumado a lo anterior, disponer el desarrollo y la implementación de políticas de ciberseguridad bajo la estructura oculta de la inteligencia estatal, lejos de ser un detalle técnico, reactiva una lógica peligrosa y ya conocida en la región: la priorización discursiva de la seguridad nacional como justificación para restringir libertades fundamentales. A saber, a lo largo del siglo pasado, esta narrativa fue utilizada por regímenes dictatoriales para vigilar, censurar y reprimir a la disidencia bajo la «doctrina de seguridad nacional».

Ahora bien, uno de los pilares en los procesos de Memoria, Verdad y Justicia en la superación de las dictaduras de la región ha sido precisamente la exigencia de límites democráticos al accionar de las agencias de inteligencia. La persistencia de mecanismos opacos y sin controles –como es el caso argentino– no solo es un problema de transparencia, sino una evidencia de que las prácticas y finalidades mismas de dichas agencias siguen siendo incompatibles con los principios democráticos, lo que va en contramano de fallos históricos recientes en la región.

En el escenario argentino, el rediseño del sistema de inteligencia y el traspaso del control de la ciberseguridad a la SIDE no son hechos menores ni aislados, sino parte de un proyecto político del actual gobierno. Este proyecto impulsa discursos y medidas abiertamente regresivas en temas como género, diversidad, protesta social y acceso a la información pública, que han sido denunciados por organismos y organizaciones internacionales como la Relatoría Especial para la Libertad de Expresión de la OEA y Reporteros Sin Fronteras. Esta agenda antiderechos tiene graves impactos especialmente sobre grupos históricamente vulnerables, entre ellos mujeres y personas LGBTQIA+, que además son un blanco frecuente y desproporcionado de las prácticas de vigilancia y los ataques digitales, particularmente quienes ejercen liderazgos políticos, sociales o periodísticos. Precisamente, quienes deberían estar en el centro de las políticas de ciberseguridad son quienes más riesgos enfrentan con los recientes giros autoritarios.

El cambio de gobernanza en cuestión se articula, además, con decisiones geopolíticas de alineamiento expreso con los intereses de Estados Unidos e Israel, países mencionados explícitamente como referentes estratégicos en el nuevo PIN argentino. Esta alineación no solo refuerza una lógica de seguridad nacional que pone en tensión los derechos fundamentales, sino que también reproduce un modelo caracterizado por la concentración de poder y la falta de controles democráticos efectivos. En el caso argentino, donde no existen mecanismos efectivos institucionales de fiscalización sobre las agencias de inteligencia, la pregunta que se impone con fuerza es ¿quién vigila a quienes vigilan?

Implicancias del caso argentino para nuestra región

El caso argentino hace eco en hechos históricos y expone cómo los marcos legales pueden ser utilizados para habilitar prácticas autoritarias. Además, y tomando como referencia un informe reciente de Derechos Digitales, junto a otras acciones realizadas por el gobierno argentino el último tiempo, como la Resolución 428/2024, el caso consolida un rumbo para el despliegue de prácticas de vigilancia bajo normas poco claras, un camino que el Estado ya venía trazando desde 2020. Lo ocurrido en las últimas semanas formaliza dichas actividades y habilita otras como el monitoreo masivo en redes, bajo una estructura que convierte la ciberseguridad en un instrumento político para vigilar y silenciar a la disidencia.

Como vemos, el problema no es nuevo; lo nuevo es que se legitiman la persecución y la vigilancia por vía legal. Estamos ante una disputa política que requiere respuestas claras por parte de los Estados. La región evidencia un panorama en el cual crece la tolerancia hacia formas autoritarias de gobierno. Argentina, un país considerado históricamente como referente en materia de derechos humanos, se ha venido alejando de ese lugar. Este retroceso insta a la activación de compromisos concretos del resto de los países de la región, no solo para construir y defender estándares comunes, sino para impedir que un modelo de ciberseguridad como este sea replicado.

La preocupación es aún mayor considerando que Argentina es uno de los países de América Latina con las estructuras institucionales más robustas en esta área. Cuenta con más recursos técnicos, capacidades operativas y fuerza política que muchos otros. En una región marcada por profundas asimetrías entre países —donde muchos carecen de marcos sólidos, personal capacitado y financiamiento adecuado para la ciberseguridad—, existe el riesgo real de que modelos autoritarios como el argentino influyan negativamente en el diseño de políticas públicas en otros Estados.

Reafirmar un enfoque en ciberseguridad basado en derechos humanos no es una aspiración técnica, sino una urgencia democrática. La protección de la privacidad, la libertad de expresión y la inclusión digital debe estar en el centro de toda política pública en la materia. Fortalecer la gobernanza democrática -con participación multisectorial, perspectiva de género y atención a las desigualdades estructurales cómo las de género- es una tarea impostergable. Solo así podremos construir resiliencia digital sin ceder las libertades que sostienen nuestras democracias.

Cuando la estructura de las organizaciones también es parte del propósito

Este 2025 Derechos Digitales cumple oficialmente veinte años. Este aniversario representa una oportunidad para detenernos y mirar con perspectiva el camino recorrido: veinte años de desafíos, aciertos y también errores, pero por sobre todo aprendizaje. Una historia sobre adaptación constante, crecimiento sostenido y maduración organizacional.

En este hito, queremos destacar una dimensión quizás menos visible de nuestro quehacer, pero profundamente estratégica para lo que somos hoy y lo que queremos ser mañana: el trabajo del área de Operaciones y Finanzas de Derechos Digitales. Un equipo cuya función ha sido clave para sostener y proyectar nuestra misión en el tiempo.

Crecimiento interior

Como muchas organizaciones de la sociedad civil, Derechos Digitales contaba en sus inicios con un equipo polifuncional, que asumía tareas muy diversas: desde la formulación y ejecución de proyectos hasta la gestión administrativa y la relación con donantes. Esta lógica, si bien nos permitió comenzar a trabajar también implicaba una carga significativa sobre las personas encargadas de la investigación y la incidencia, dificultando la especialización y el desarrollo sostenible en un contexto de crecimiento.

Con los años, y a medida que nuestro trabajo crecía en alcance y complejidad, se hizo evidente la necesidad de consolidar un área que asumiera de forma dedicada las labores  administrativas y de soporte estratégico. La oportunidad llegó de la mano de uno de nuestros donantes históricos, Ford Foundation, a través del proyecto BUILD, una iniciativa que daba la posibilidad a diversas organizaciones de concentrar esfuerzos y recursos en el fortalecimiento institucional de largo plazo. Gracias a este apoyo, por primera vez pudimos dedicar esfuerzos a construir, desde un equipo especializado, una estructura organizativa más robusta y preparada para sostener nuestro trabajo hacia el futuro.

Los frutos de esta apuesta fueron visibles en el corto plazo. Un ejemplo de aquello fue la manera en que afrontamos la delicada situación de la pandemia por COVID-19, que trajo consigo una serie de desafíos tanto para nuestras acciones como para el bienestar de nuestros colaboradores, además de socios y pares. En un  escenario profundamente incierto, ya contábamos con una estructura operativa más fortalecida para así sostener nuestras líneas de trabajo y acompañar a otras organizaciones de la región. Además, pudimos destinar esfuerzos y recursos específicamente al acompañamiento del equipo, procurando facilitar su tránsito ante estos procesos de cambio. Este fortalecimiento interno comenzó entonces a proyectarse hacia afuera: a través de microgrants, alianzas estratégicas y una ejecución de proyectos que combinaba solidez técnica con estabilidad financiera.

Este camino no ha sido fácil de transitar. Ha implicado años de aprendizaje, de decisiones complejas y de construir capacidades en un entorno que muchas veces no está pensado para organizaciones como la nuestra. Esto se refleja en distintas formas, a menudo pasadas por alto en el día a día, pero fundamentales para entender cómo trabajamos y qué hemos logrado.

El valor de contar con un apoyo especializado

¿En qué momentos podemos ver el valor de nuestro quehacer interno? Nuestro trabajo administrativo es tan intenso como invisible. La mayor parte del tiempo transcurre detrás del telón, apreciándose con más claridad en aquellos momentos donde las cosas fallan o enfrentamos situaciones complejas. A pesar de esto, en los momentos de mayor exigencia, encontramos los signos de creciente madurez y capacidad de respuesta que hemos forjado, y seguimos consolidando, después de 20 años.

Lo primero es el enfoque en nuestra misión organizacional. Contar con personal especializado dedicado íntegramente al soporte de nuestras tareas permite que quienes diseñan, ejecutan y desarrollan nuestro trabajo sustantivo se centren al 100 % en su labor, sin distracciones burocráticas ni requerimientos administrativos de urgencia. Saber que existe un área que sostiene la estructura interna nos brinda la confianza de continuar avanzando en nuestra misión, incluso en épocas de alta presión, sin desviar esfuerzos en el levantamiento de recursos, proyecciones y reducción de costos. 

Otro de estos signos de madurez está vinculado con la gestión más eficiente de nuestros recursos. Aplicamos políticas claras de planificación y presupuesto, reducción de costos, proyecciones y monitoreo de riesgos que nos permiten no solamente enfrentar el presente, sino anticipar y navegar distintos escenarios, y así estar más preparados para momentos hostiles en términos de financiamiento. Esta capacidad de planificación integral fortalece nuestra resiliencia financiera y si bien no es una garantía, nos brinda más certezas de que las decisiones que tomamos hoy nos preparan para enfrentar los retos que vendrán, a través de diversas herramientas como reservas, inversiones y proyección a largo plazo. En este proceso, nuestras capacidades están en permanente actualización y el crecimiento es continuo: jamás dejamos de aprender y adquirir nuevas herramientas.

Por último, ya estamos en condiciones de asumir que somos un puente entre organizaciones. Nuestro desarrollo administrativo nos permite aportar a la sostenibilidad, no solo de Derechos Digitales, sino también ser un nexo para otros grupos con los que trabajamos. En tiempos de crisis, la colaboración es esencial para las organizaciones sin fines de lucro, ya que permite optimizar recursos, generar confianza social y además nos posiciona como referentes locales en términos de gestión. En Derechos Digitales no solo somos receptores de donaciones para desarrollar nuestros propios proyectos, sino que también hemos logrado convertirnos en fuente de financiamiento para otros colectivos y activistas que, por diversos motivos, no pueden acceder a ciertos tipos de respaldos monetarios, apoyándose así en nuestras capacidades instaladas.

Un claro ejemplo de lo anterior son los Fondos de Respuesta Rápida (FRR) y Fondos de Derechos Digitales (FDD), iniciativa vigente desde 2019 que permite entregar recursos para dar respuesta a emergencias en materia de derechos humanos y tecnología en la región a todo tipo de organizaciones, independientemente de su nivel de madurez. 

¿Y qué sigue?

Resulta innegable que estamos atravesando uno de los momentos más complejos para el espacio cívico y su financiamiento a nivel global. Las recientes decisiones del gobierno de Estados Unidos, no solo pausaron y cortaron recursos clave para el desarrollo mundial, sino que también sacudieron todo el ecosistema filantrópico, generando una incertidumbre sin precedentes.

Estas medidas también han tenido impacto en nuestra operación. Hemos tenido que tomar decisiones complejas que afectan nuestro funcionamiento, como la reducción de costos, congelamiento y suspensión de proyectos y contrataciones asociadas. La adopción responsable de esas medidas fue solamente posible debido a la rápida y dedicada reacción de nuestro equipo, mediante el seguimiento continuo de nuestras finanzas y la formulación de cambios profundos en las proyecciones a corto, mediano y largo plazo, que incluyó la definición de distintos escenarios posibles y la preparación de planes de acción para cada uno de ellos, activando alertas tempranas y evitando asumir la sostenibilidad como un hecho garantizado. 

Pero no basta con lo anteriormente mencionado: el trabajo colaborativo se presenta como nuestra piedra angular mientras persista este contexto de incertidumbre. Así, este fortalecimiento interno no solo beneficia a nuestro propio equipo, sino que nos posiciona como un vínculo confiable para otras organizaciones y activistas de América Latina. Un ejemplo de esto es la capacidad de acceder a fuentes de financiamiento que exigen capacidades comprobables –como auditorías anuales–, para así canalizar recursos administrativos y financieros hacia organizaciones locales.

En Derechos Digitales, resulta vital no solo preservar nuestra actividad, sino también compartir metodologías y tejer redes de articulación que amplifiquen el impacto colectivo de nuestra tarea. En un momento en que la labor de las ONGs y activistas es más necesaria que nunca, mantener la calma, tomar decisiones informadas y trabajar en alianza son las claves para enfrentar la incertidumbre presente y futura.

Es imposible predecir con certeza el futuro, pero afortunadamente sí podemos proyectar escenarios posibles y planificar cómo queremos sostener nuestra misión y mantener activo nuestro trabajo y el fruto de estos 20 años de existencia. A la luz de la historia que hemos compartido aquí, estamos convencidas de que algunas de las acciones cruciales para enfrentar lo que viene son desarrollar capacidades internas sólidas y seguir confiando plenamente en la efectividad de nuestro trabajo sustantivo, asumir definiciones con información y trabajar colaborativamente para seguir impulsando el cambio desde y para el Sur Global.

Educación y tecnologías vs. tecnologías y educación: reflexiones a partir de avances normativos recientes

En un momento de acelerados desarrollos tecnológicos y digitalización, puede parecer redundante decir que la discusión sobre la incorporación de tecnologías ha acompañado buena parte de los debates sobre reformas educativas en la historia reciente. Propuestas de incorporación del cine, radio y televisión marcaron el siglo XX, que –aunque no logró democratizar el acceso a la educación para buena parte de la población mundial– terminó con nuevas promesas de “revolución” educativa derivada exclusivamente de las tecnologías digitales. Como en momentos anteriores, fueron los más variados agentes, incluso instituciones financieras aparentemente poco vinculadas con el campo educativo, quienes vocalizaron de manera más contundente el poder transformador de lo digital para superar los problemas de esa educación “tradicional”. Sin embargo, empezar recuperando esta historia parece importante en un momento en que un nuevo ciclo de optimismos y pesimismos vuelve a instalarse en los debates sobre educación y tecnologías en América Latina.

La olla de oro al final del arcoíris

En un contexto de múltiples precariedades en los sistemas educativos, las tecnologías digitales a veces han sido presentadas como una panacea. La metáfora es de una recompensa tecnológica capaz incluso de transformar prácticas pedagógicas clasificadas de poco eficientes o atractivas para nuevas generaciones. Declaraciones de agentes externos al entorno escolar no ocultan su intento de culpabilizar a las y los docentes por todo tipo de mal relacionado con la educación.

Un extremo de este tipo de discurso se ha activado en Brasil para justificar la adopción de sistemas de reconocimiento facial para el registro de la asistencia escolar en el estado de Paraná. De acuerdo con la gestión local, basada en un documento del Banco Mundial, el método de control de presencia oral sería ineficiente, representando una pérdida de tiempo; la tecnología, por lo tanto, ofrecería la solución a partir de la automatización. Sin embargo, las promesas fueron, como mínimo, optimistas: desde la implementación del sistema, se han registrado múltiples quejas de mal funcionamiento, lo que ha generado aún más retrasos en el registro de asistencia. Ellas incluyen, por ejemplo, errores en la identificación de personas de piel negra y con discapacidad.

Aunque avance rápidamente en la región, el reconocimiento facial es ampliamente cuestionable como tecnología efectiva para la identificación y autentificación de personas. Lo mismo ocurre con los llamados sistemas de reconocimiento de emociones, también en proceso de implementación en escuelas brasileñas.

Este y otros tipos de problemas podrían ser evitados con la realización de estudios previos de impacto amplios y participativos, pero no hay referencias de que se hayan realizado en el caso de Paraná. La iniciativa –que costó más de 4 millones de reales al Estado– está actualmente bajo escrutinio judicial debido a la vulneración de la legislación brasileña de protección de datos, por ejemplo en relación con el consentimiento para la recolección de datos biométricos sensibles de niños, niñas y adolescentes. El “oro”, al final, parece haberse quedado con los proveedores de la tecnología, mientras la educación pública sigue precarizada y carente de inversiones significativas.

Transgresiones sectoriales

El concepto de transgresiones sectoriales es útil para entender algunos procesos detrás del avance de las empresas de tecnologías en la educación. Se refiere a la estrategia de empresas de tecnologías de reivindicar conocimiento y autoridad en ámbitos que van más allá de lo tecnológico. Con eso, pasan a tener un peso diferencial en decisiones estratégicas, en este caso, del ámbito educativo, que no son parte de su competencia.

Rescatar esta idea es clave mientras pensamos políticas educativas y respuestas normativas a los desafíos del avance de las empresas tecnológicas sobre la educación. Con relación a lo primero, importa recuperar el rol que ellas efectivamente cumplen a la hora de definir a quiénes involucrar en discusiones sobre políticas públicas sobre educación y tecnologías. Si bien las empresas pueden tener un espacio en las mesas de discusión, de ningún modo reemplazan la necesidad de involucrar expertas en educación y representantes del sector educativo, como docentes, estudiantes y gestión educativa.

Por otro lado, el recuerdo que trae la idea de transgresión sectorial es clave para evitar caer en trampas normativas como la de crear criterios específicos para “EdTech”. Este tipo de abordaje, explorado por órganos como Unicef, más allá de sus buenas intenciones conllevan el doble riesgo de naturalizar la voz de empresas de tecnologías para incidir en temas educativos y de fragilizar protecciones existentes al pensar criterios diferenciados para el ámbito educativo. Peor aún, puede legitimar la recolección masiva de datos de niños, niñas y adolescentes en el contexto educativo, algo cuidadosamente delimitado por distintas legislaciones alrededor del mundo, incluso en materia de protección de datos personales.

O sea: bajo la excusa de crear reglas específicas, se autoriza y legitima la explotación de datos de infancias sin un completo conocimiento de sus consecuencias. En un contexto regional de gran influencia del lobby de las empresas de tecnologías, iniciativas legislativas como éstas pueden poner en jaque las garantías duramente conquistadas en el marco de leyes generales de protección de datos.

El caso brasilero de Paraná evidencia, y siempre es bueno reiterar, que las leyes de protección de datos sí se aplican a las políticas de uso de tecnologías en educación promovidas desde el sector público. Del mismo modo, las reglas de compras públicas también se aplican a la adquisición de tecnologías por entes del Estado, aunque, como hemos demostrado en la iniciativa IA & Inclusión, ellas sean poco observadas en la región. La existencia o no de intercambio monetario involucrado en los acuerdos con empresas de tecnologías no es un limitante si el uso implica la explotación económica de datos obtenidos a partir de ellos.

Eso no significa que no haya particularidades que deban ser consideradas o que no haya utilidad en el desarrollo de normas administrativas o guías específicas para las instituciones educativas. Las autoridades de protección de datos cumplen un rol clave al proponer orientaciones ancladas en los más altos estándares de protección establecidos en las normativas de datos y de infancias. Eso es particularmente relevante en un contexto en que las grandes empresas de tecnología se acercan a las instituciones educativas para establecer alianzas directas, dificultando procesos de supervisión y fiscalización.

Tecnologías para una educación emancipadora

En un año en que vemos cómo los hombres detrás de las mayores empresas de tecnología no dudan en apoyar un gobierno de extrema derecha marcado por la discriminación, odio y la persecución a oponentes políticos, no es difícil entender por qué gana fuerza en la región una resistencia a las mismas tecnologías. En el último año tuvimos una ley federal aprobada en Brasil prohibiendo el uso de teléfonos celulares en las escuelas, discusiones similares en Argentina –con una resolución porteña sobre el mismo tema– y en lo que va de 2025 ya hubo una “huelga” de redes sociales en abril y otra está prevista para el próximo domingo (25) en Brasil. También en Brasil gana fuerza un movimiento para evitar que niños, niñas y adolescentes tengan acceso a un smartphone hasta que cumplan 14 años y a las redes sociales antes de los 16.

Son innumerables y muy legítimos los motivos que fortalecen este tipo de reacción: desde las crecientes evidencias sobre los impactos nocivos de las tecnologías a la salud, su carácter adictivo, hasta el temor a la violencia en línea en todas sus formas, pasando por el rol de los algoritmos, las exposición a los extremismos y a la desinformación –contenidos ahora menos regulados por las mismas plataformas–, entre otros. Es positivo que estas preocupaciones alcancen a la sociedad de manera más amplia y provoquen reacciones desde el poder político, históricamente sordo a las alertas sobre la necesidad de supervisar y fiscalizar procesos de digitalización del Estado.

Sin embargo, no podemos olvidar la importante historia de usos de tecnologías para la resistencia, la defensa de derechos y la democratización de la comunicación y la educación, en un continente aún marcado por desigualdades. Lejos de comprar la fantasía tecnosolucionista que equipara tecnología y eficiencia, se trata de recuperar internet más allá de las redes sociales. En el mismo sentido, cabe recordar que las tecnologías no son sinónimo de extracción y explotación de datos para la ganancia sin frenos (del mismo modo que “EdTech” no es lo mismo que tecnologías en la educación).

Limitar el acceso a las tecnologías a las niñeces o en el ámbito educativo puede ser una respuesta legítima frente al avance obsceno de los intereses comerciales por sobre cada aspecto de nuestras vidas. Pero también puede implicar restringir el contacto con otras realidades, el acceso a culturas no cubiertas por medios tradicionales, la formación de vínculos afectivos, la exploración de identidades en entornos seguros, y otras formas de conocer el mundo. Más aún: podría limitar la capacidad de las próximas generaciones para imaginar otros futuros tecnológicos. Más justos, más solidarios, más inclusivos.

Reconocer los riesgos de la digitalización en contextos educativos no implica renunciar a sus posibilidades. Más bien, urge avanzar hacia una construcción colectiva de políticas tecnológicas que pongan al centro el bienestar y los derechos de las comunidades escolares. Esto incluye fortalecer los procesos participativos, asegurar evaluaciones de impacto, garantizar el cumplimiento de las leyes de protección de datos y, sobre todo, promover un enfoque pedagógico que incorpore las tecnologías como herramientas de emancipación y no de control. La educación con tecnologías sí es posible, pero solo si se construye desde la equidad, la justicia social y la imaginación crítica.

¿Quién cuenta nuestras historias? Periodismo automatizado y derechos fundamentales

En los últimos años, las herramientas de inteligencia artificial han comenzado a ocupar un lugar cada vez más visible en las redacciones de medios de América Latina. Desde asistentes que ayudan a transcribir entrevistas hasta sistemas que generan notas automáticamente, la promesa es clara: más eficiencia, menos carga laboral, menor costo y mayor productividad. Pero en un contexto de precarización, concentración de medios y saturación de desinformación, la pregunta no puede ser solo técnica: ¿qué implica automatizar la producción de noticias? ¿Qué se pierde cuando desplazamos el criterio humano por decisiones algorítmicas? ¿Y qué derechos están en juego cuando delegamos funciones clave a tecnologías opacas, que pueden comprometer la privacidad de las personas o exponer datos sensibles sin garantías claras?

Las tecnologías no son neutras, ni inevitables. Cómo se diseñan, a quién benefician y en qué condiciones se integran son decisiones profundamente políticas. Cuando hablamos de IA en el periodismo, lo que está en juego no es solo el futuro del oficio, sino también la calidad del debate público, la diversidad de voces y el derecho a una información verificada, plural y libre.

La IA no se equivoca, simplemente inventa

Uno de los mayores peligros del uso de IA en el periodismo no radica únicamente en sus limitaciones técnicas, como su capacidad para generar contenidos falsos con un tono convincente, sino en cómo estas herramientas son incorporadas en las prácticas periodísticas sin un control adecuado. A estas falsedades se les conoce como “alucinaciones”: errores que no son simples imprecisiones, sino construcciones completamente ficticias, presentadas con seguridad estilística. El riesgo aumenta cuando estas herramientas se integran en flujos de trabajo sin revisión humana o se utilizan para cubrir temas sensibles con escasa verificación, desplazando criterios editoriales por resultados automatizados, ajenos al contexto y desvinculados de toda responsabilidad profesional.

Durante el panel internacional “Inteligencia Artificial y Periodismo: ¿Cómo los medios están cubriendo y utilizando la IA en América Latina?”, organizado por la UNESCO en el marco del Día Mundial de la Libertad de Prensa de este año, periodistas de todo el mundo, autoridades y expertas alertaron sobre este fenómeno. Se coincidió en que, lejos de reemplazar el trabajo periodístico, la IA exige una nueva capa de responsabilidad: todo contenido generado o asistido por sistemas automáticos debe ser verificado, contrastado y contextualizado. Usar estas herramientas sin revisión humana no es innovación, es una forma acelerada de erosionar la confianza pública.

Entre precariedad y automatización

La adopción de IA ocurre en un escenario de crisis estructural para el periodismo. En América Latina, muchas redacciones enfrentan recortes presupuestarios, tercerización de funciones editoriales y presión por producir más contenido en menos tiempo. En este contexto, las tecnologías generativas parecen una solución fácil: automatizar notas de economía, clima o espectáculos para ahorrar tiempo y recursos.

Pero esta lógica plantea una falsa dicotomía: ahorrar costos a cambio de debilitar el oficio. En algunos casos, ya se han documentado errores graves en medios internacionales que usaron IA sin control editorial, como la publicación de artículos fabricados o entrevistas a personas inexistentes. El impacto no es solo reputacional, también precariza aún más el trabajo de periodistas, editores y correctores, consolidando un modelo donde la automatización reemplaza capacidades humanas sin generar condiciones más dignas ni sostenibles para quienes sostienen el oficio.

En tiempos donde el periodismo atraviesa una crisis de credibilidad en muchas partes de la región, automatizar sin criterio no es una solución, sino que es una forma de agravar el problema. El periodismo no es solo producción de contenido; es ejercicio crítico, narración situada, atención al contexto y responsabilidad pública. Cuando se reemplaza por sistemas que priorizan la cantidad sobre la calidad, el resultado no es eficiencia, sino desinformación con apariencia de legitimidad, amplificada por la credibilidad institucional de los medios que la reproducen. La automatización acrítica debilita tanto la calidad como la confianza en el periodismo como herramienta democrática.

Las fuentes no son prompts

Uno de los puntos más delicados -y muchas veces invisibles- del uso de IA generativa en el periodismo tiene que ver con la protección de fuentes. Ingresar información confidencial en sistemas como ChatGPT o Gemini, por ejemplo, para redactar un borrador o resumir una entrevista, implica entregar esos datos a empresas cuyos términos de uso permiten almacenarlos, analizarlos o utilizarlos para seguir entrenando sus modelos. En la práctica, esto significa que nombres, descripciones, detalles sensibles sobre hechos o incluso fragmentos de testimonios pueden quedar registrados en servidores externos, sin garantías sobre su eliminación o uso futuro.

Esto no solo va en contra del principio básico de confidencialidad periodística. También expone a personas que entregaron testimonios bajo promesas de reserva, especialmente en contextos de riesgo como la violencia de género, la corrupción o los conflictos socioambientales, donde una filtración de información puede tener consecuencias graves. La tecnología puede facilitar tareas, pero no debe jamás poner en peligro a las fuentes, ni debilitar las condiciones bajo las que se resguarda su información.

En América Latina, con intentos regulatorios sobre la IA y nuevas reglas sobre datos personales, como la nueva Ley de Protección de Datos Personales en Chile que establece obligaciones claras sobre el consentimiento, la proporcionalidad y la finalidad del tratamiento de datos, este punto cobra aún más relevancia. Las y los periodistas tienen la responsabilidad de aplicar esos principios no solo frente a personas terceras, sino también frente a las plataformas que usan en sus procesos de trabajo, asumiendo que toda herramienta digital forma parte del entorno de riesgo que debe ser evaluado críticamente.

Principios y propuestas para un uso responsable de la IA

Frente a este panorama, no todo son alertas. Existen esfuerzos concretos para promover un uso ético de la IA en el periodismo. Uno de los más relevantes es la Carta de París sobre inteligencia artificial y periodismo elaborada por Reporteros Sin Fronteras (RSF) y publicada en 2023, que establece un decálogo de principios éticos para enfrentar los desafíos actuales.

Entre sus recomendaciones destacan la necesidad de transparencia sobre el uso de herramientas automatizadas, la trazabilidad del contenido generado por IA, la supervisión editorial humana obligatoria, la garantía de que la IA no sustituya funciones esenciales del periodismo y el compromiso con una gobernanza tecnológica centrada en derechos humanos. Esta carta no solo interpela a medios y periodistas, sino también a gobiernos, desarrolladores y plataformas tecnológicas, recordando que el ejercicio periodístico no puede depender de sistemas cuya lógica excluye la responsabilidad pública.

A nivel práctico, ya existen iniciativas que avanzan en la implementación de estos principios. Algunos medios han comenzado a etiquetar de forma explícita el contenido generado por IA, a establecer protocolos de revisión y a capacitar a sus equipos en el uso crítico de estas herramientas. También se discute la incorporación de cláusulas éticas en los contratos con proveedores tecnológicos y la creación de mecanismos colectivos de evaluación y rendición de cuentas, especialmente en redacciones independientes y comunitarias.

La tecnología puede ser aliada, pero siempre bajo marcos de transparencia, ética profesional y respeto por las personas. Eso implica comprender sus límites, evaluar críticamente cómo está diseñada y qué efectos produce, y evitar delegar en sistemas automatizados decisiones que exigen contexto, criterio editorial y responsabilidad humana. Usarla con cuidado no solo protege el ejercicio periodístico, sino que también garantiza el derecho de las audiencias a recibir información confiable, diversa y producida con estándares de integridad.

Periodismo, democracia y tecnología

La automatización en el periodismo no es un escenario neutral. Puede ayudar a abordar tareas operativas en contextos de sobrecarga, reducción de equipos o necesidad de mejorar la accesibilidad de ciertos contenidos. Pero cuando se adopta sin criterios de justicia, equidad y responsabilidad, también puede profundizar problemas ya existentes como la precarización laboral, pérdida de diversidad en las coberturas y deterioro del juicio editorial. Informar es una función pública y una responsabilidad con la sociedad, no una tarea replicable sin contexto por sistemas opacos.

En América Latina, donde el espacio cívico se reduce, donde el acceso a la información muchas veces depende de medios independientes, y donde las amenazas a periodistas se multiplican, proteger el periodismo es también proteger la democracia.

Por eso, las decisiones sobre cómo se usa la IA en la producción de noticias no pueden quedar en manos de unos pocos actores tecnológicos. Deben involucrar a periodistas, audiencias, legisladores, editores, academia, sociedad civil y defensores de derechos humanos. Porque si el periodismo se transforma, debe hacerlo sin perder la capacidad de escuchar, cuestionar y poner en el centro las historias que merecen ser contadas.

Ciberpatrullaje: cuando vigilar se justifica en nombre de la seguridad

Seguridad digital ≠ Seguridad nacional

La narrativa de seguridad ha justificado el despliegue de vigilancia digital en varios países de América Latina. En Argentina, una resolución habilitó a las fuerzas de seguridad a monitorear redes sociales y otras fuentes abiertas, incluso con inteligencia artificial, bajo criterios ambiguos que permiten investigar “cualquier delito”. En Perú, se firmaron convenios para entrenar cibersoldados, en alianza con una empresa israelí, país cuestionado por sus tecnologías de vigilancia, importando modelos de guerra digital sin debate. En Colombia, el ciberpatrullaje es una práctica oficial de la Policía Judicial para recolectar información pública, sin garantías de proporcionalidad.

Aunque se presentan como medidas para prevenir delitos, estas prácticas han sido utilizadas para vigilar, judicializar o intimidar a personas por ejercer su libertad de expresión. En Argentina, un joven fue procesado por un tuit; en Bolivia, 37 personas fueron condenadas por supuesta participación en protestas; en Brasil, una sátira sobre Bolsonaro terminó en detención; en Uruguay, un adolescente fue arrestado por error tras una confusión en redes; y en México, la Guardia Nacional usó software israelí para rastrear a críticos del ejército. Todos estos casos documentados en el informe Perfilamiento en redes sociales y ciberpatrullaje como nuevas modalidades de la vigilancia masiva desplegada por los Estados: casos relevantes en América Latina, evidencian cómo el discurso de protección ha servido para legitimar formas de vigilancia contrarias a los derechos humanos.

El caso más reciente ocurrió en Venezuela, tras las protestas por los resultados electorales, el monitoreo de redes también fue utilizado para perseguir e intimidar a manifestantes y activistas.

OSINT y ciberpatrullaje: entre la búsqueda abierta y la vigilancia encubierta

Para entender cómo se aplican hoy las prácticas de vigilancia, es necesario observar el uso de la inteligencia de fuentes abiertas (OSINT por sus siglas en inglés) y su implementación en el ciberpatrullaje. La metodología OSINT consiste en recolectar y analizar información pública, como publicaciones en redes sociales, sitios web, imágenes, videos o metadatos, con fines investigativos. Su expansión se debe a que no requiere vulnerar sistemas protegidos: todo está a la vista. Pero esa accesibilidad no implica que su uso esté libre de consecuencias.

Si bien existen usos responsables y útiles de esta herramienta como el de Trace Labs -una organización que usa OSINT en plataformas colaborativas para ayudar a encontrar personas desaparecidas bajo protocolos y fines humanitarios- este tipo de iniciativas son excepcionales.  En la mayoría de países de la región, OSINT ha sido adoptado por fuerzas de seguridad bajo el argumento de proteger a la ciudadanía o prevenir amenazas, pero en realidad se usa para vigilar y perfilar a personas críticas del poder, periodistas y activistas. El perfilamiento implica recolectar, clasificar e interpretar datos para construir hipótesis sobre una persona: qué piensa, con quién se vincula o qué podría hacer.

El ciberpatrullaje amplifica esta lógica: es la práctica estatal del monitoreo del discurso en línea (y de las personas) con técnicas OSINT, en la mayoría de las veces sin notificación, sin supervisión ni protocolos claros. Su implementación no está orientada a la identificación de personas vinculadas a causas judiciales, sino que opera de forma masiva, permitiendo el perfilamiento de individuos por sus opiniones, afiliaciones políticas o participación en espacios sociales.  Sin embargo, tanto los perfilamientos como el ciberpatrullaje pueden derivar posteriormente en la apertura de causas judiciales. En contextos de desigualdad, estas prácticas golpean con más fuerza a mujeres activistas, comunidades indígenas, personas defensoras de derechos humanos o sectores populares. ¿Qué criterios se usan?, ¿cuáles son los límites? El problema no es OSINT en sí, sino cómo, para qué y contra quién se utiliza.

El Consejo de Derechos Humanos de la ONU aprobó en 2022 el informe “Sobre el derecho a la privacidad en la era digital” que por primera vez explora las prácticas de inteligencia en redes sociales y de monitoreo del discurso en línea como nuevas modalidades de vigilancia masiva estatal. Al reconocer que son actividades que tienen serios impactos en los derechos humanos, sostiene que esta observación del espacio público es casi siempre desproporcionada. En ese sentido, recomendó a los Estados adoptar marcos legales adecuados para regular la recolección, análisis y compartición de inteligencia obtenida de redes sociales que delimite claramente los escenarios en que ésta se encuentra permitida, sus prerrequisitos, las autorizaciones y procedimientos, así como los mecanismos para garantizar su supervisión adecuada.

En la región, identificamos que es una práctica que pretende ampararse en la legalidad, pero que en realidad se despliega a partir de interpretaciones arbitrarias de ciertas facultades como la prevención del delito. Estas facultades, originalmente pensadas para otros fines, están siendo extendidas sin regulación específica al ámbito digital, incluyendo la detección temprana de delitos supuestamente vinculados a la actividad de quienes presuntamente desinforman. Este escenario genera una profunda inseguridad jurídica y un efecto amedrentador, dificultando que las personas ejerzan libremente sus derechos en línea.

¿Cómo cuidarnos frente al ciberpatrullaje?

Aunque la responsabilidad principal frente a la vigilancia digital recae tanto en los Estados como en las plataformas y empresas que permiten o ejecutan estas actividades, también es cierto que históricamente grupos de la sociedad civil hemos generado estrategias de autoprotección para sobrevivir en entornos hostiles. Protegernos significa responder con conciencia crítica y cuidado colectivo mientras exigimos marcos legales que limiten la vigilancia y garanticen nuestros derechos en línea. 

Para reducir la exposición, hay algunas acciones básicas que se pueden adoptar en las redes sociales. Por un lado, evitar el uso del nombre real completo (nombre y apellido) como nombre de usuario o nombre visible, y procurar no repetir el mismo @alias en todas las redes. También es recomendable configurar las cuentas como privadas o restringidas, de modo que solo los perfiles aprobados puedan acceder al contenido. Otra medida clave es desactivar los permisos de ubicación en los dispositivos móviles, para que las aplicaciones no puedan rastrear ni compartir los movimientos.

Cuando la idea es publicar fotos desde un lugar específico, es recomendable esperar algunas horas o días antes de subirlas, así no se revela la ubicación en tiempo real. Además, se sugiere conversar con contactos y amistades sobre la importancia de no etiquetar ni compartir datos privados sin previo consentimiento. Por otro lado, es importante considerar la selección de una foto de perfil que no sea fácilmente rastreable, ya que existen herramientas OSINT que permiten buscar imágenes en otras plataformas y vincularlas con la identidad de las personas usuarias. Por último, aceptar solo solicitudes de personas que realmente resulten conocidas, ya que muchas veces el ciberpatrullaje empieza con perfiles ficticios que buscan establecer contacto directo.

La vigilancia no es cuidar, es poner en riesgo nuestros derechos

Estas actividades se despliegan sin reglas, sin control y sin justificación pública, y eso ha permitido que se normalicen prácticas autoritarias bajo la retórica de la seguridad. En esta parte del mundo, donde muchas democracias son frágiles y la capacidad de la ciudadanía para fiscalizar al Estado es débil, el uso de estas tecnologías crece sin transparencia, sin debate público y con una preocupante opacidad.

Los Estados adquieren herramientas de monitoreo de redes sociales mientras persisten -y en algunos casos se profundizan- las barreras para acceder a información básica sobre su licitación, adquisición, funcionamiento, responsables, bases de datos involucradas y el gasto público asociado. Incluso cuando la sociedad civil ha recurrido a solicitudes de acceso a la información, muchas autoridades se amparan en argumentos de seguridad nacional para obstaculizar el escrutinio democrático.

¿Con qué criterios se decide comprar tecnologías a empresas extranjeras como las israelíes, cuestionadas internacionalmente por su papel en la vigilancia masiva?

Proteger no puede seguir siendo un argumento aceptable para la vigilancia masiva, mientras la ciudadanía, la misma a la que supuestamente se quiere cuidar, se siente más vigilada que segura. Estas prácticas suponen riesgos concretos para la libertad de expresión -especialmente en contextos de protesta social o frente a discursos críticos o incómodos- al generar estigmatización, autocensura e incluso incitación a la violencia contra quienes son catalogadas como opositoras. A la luz de los casos expuestos, queda claro que la vigilancia no es protección: es poder sin control.

Por un trabajo digno en la era de los algoritmos

El legado del primero de mayo en el entorno digital latinoamericano

Cada Primero de Mayo, el mundo conmemora la histórica lucha por los derechos laborales, recordando las demandas por derechos como una jornada justa, salarios dignos y condiciones de trabajo seguras. Esta fecha, arraigada en las movilizaciones obreras del siglo XIX, nos invita a reflexionar sobre el estado actual del mercado laboral y los desafíos que aún persisten, especialmente en un contexto global marcado por la rápida incidencia de las tecnologías digitales.

El mercado laboral latinoamericano, si bien diverso en sus matices nacionales, comparte desafíos comunes en cuanto a la protección de los derechos laborales. La persistencia de la informalidad –promediando casi la mitad de la población empleada en la región– continúa erosionando la capacidad de las personas trabajadoras para acceder a protecciones básicas como seguridad social, vacaciones pagadas y estabilidad en el empleo. En este escenario, la promesa de flexibilidad y autonomía ofrecida por las plataformas digitales de trabajo bajo demanda ha encontrado un terreno fértil para su expansión, presentando alternativas prácticas de generación de ingresos para poblaciones en situación de vulnerabilidad. Sin embargo, como exploramos en nuestra columna sobre la «paradoja de la flexibilidad», esta aparente libertad a menudo enmascara una realidad de precariedad, inestabilidad y una creciente dependencia de sistemas de gestión algorítmica opacos.

Invito a reflexionar con lo siguiente: imagine que su teléfono vibra con una notificación fría e impersonal, «Su cuenta ha sido suspendida por violar los términos y condiciones». Intenta recordar qué pudo haber hecho mal, repasa mentalmente las extensas cláusulas que quizás leyó por encima al registrarse, pero la razón específica se escurre entre la ambigüedad del mensaje. Intenta apelar, buscar una explicación humana, pero se topa con respuestas automatizadas que no llevan a ningún lado. Su fuente de ingresos se ha cortado totalmente de un momento a otro. Este escenario no es hipotético para quienes dependen de plataformas y para quienes la suspensión de una cuenta significa quedarse sin sustento. Para otras personas quizás sea una herramienta para complementar ingresos o manejar sus horarios; pero para muchas en nuestra región, especialmente para quienes encuentran en estas plataformas su única oportunidad laboral, la realidad es muy distinta. Mientras algunas personas pueden elegir cuándo y cómo trabajar, otras se ven atrapadas en la urgencia de aceptar cualquier tarea disponible –sin margen para negociar o rechazar–, en labores que exigen menor calificación. ¿Estamos hablando entonces de una fuente de trabajo flexible, o una nueva forma de vulnerabilidad laboral?

Es tiempo de ponerle reglas al algoritmo

La irrupción de tecnologías como los algoritmos, las plataformas digitales y la inteligencia artificial en el ámbito laboral plantea tanto oportunidades como desafíos sin precedentes para los derechos de las personas trabajadoras. Por un lado, se argumenta que la automatización tiene el potencial de liberar de tareas repetitivas (como la revisión de códigos) o riesgosas (como ciertos controles médicos), o que impulsará la productividad, abriendo nuevas opciones de empleo en sectores emergentes. Sin embargo, en diversos sectores desde la manufactura hasta los servicios, los algoritmos gestionan tareas, evalúan el desempeño, asignan trabajos o tarifas e incluso toman decisiones sobre la contratación y el despido.

Esto conlleva a que estas mismas tecnologías pueden exacerbar las vulnerabilidades existentes. Facilitan nuevas formas de explotación, vigilancia y control, especialmente en sectores carentes de regulación adecuada y alta informalidad como el reparto de mercaderías o el servicio doméstico. En estos rubros aquellas problemáticas pueden verse profundizadas, ya que es común ver a su fuerza de trabajo sumergida en una narrativa que ni siquiera la reconoce como persona trabajadora. Los mecanismos de vigilancia y monitoreo regidos por algoritmos a menudo carecen de transparencia y rendición de cuentas, lo cual somete a trabajadoras y trabajadores a la presión constante de aceptar cada solicitud. Incluso, les obliga a aceptar en condiciones de peligro, como cuando implica cargar mercancías pesadas que ponen en riesgo la integridad de sus vehículos o cuando han sido víctimas de maltrato por parte de locatarios o clientes. Se acepta cualquier pedido por el temor a que el incumplimiento derive en la suspensión o bloqueo de su fuente de ingresos, sin mecanismos claros para comprender la decisión o revertirla.

Las cuentas pendientes en este nuevo panorama laboral son significativas: ¿Cuántas decisiones injustas se toman hoy sin que la persona trabajadora pueda cuestionarlas o comprender sus razones? Una regulación efectiva es ineludible para que la tecnología potencie el trabajo respetando derechos, pero no basta con leyes: debe incluir la participación de personas trabajadoras en el diseño de estas herramientas. Se requiere abordar la clasificación de los vínculos entre empresas y personas en plataformas, además de garantizar transparencia y mecanismos de auditoría independiente. Se requiere rendición de cuentas ante las autoridades para evitar discriminación e injusticias, y priorizar la protección de datos personales ante la vigilancia intrusiva y la toma de decisiones automatizadas que perjudican a las personas trabajadoras. 

En este Día Internacional de las Trabajadoras y Trabajadores, el llamado a la defensa de los derechos humanos en el ámbito digital resuena con fuerza. La flexibilidad no puede venir a cualquier costo:  las promesas de progreso tecnológico no deben traducirse en un agravamiento de las condiciones de trabajo y una erosión de los derechos históricamente conquistados. Es imperativo que las tecnologías digitales se desarrollen y utilicen con un enfoque centrado en las personas, aplicando un respaldo de derechos laborales y garantizando un futuro laboral justo, equitativo y digno en América Latina. La lucha por el trabajo decente en la era digital es la continuación de la batalla histórica por la justicia social, y en este Primero de Mayo, reafirmamos nuestro compromiso con esa causa.

Del miedo al autocuidado digital: derechos digitales para niñas en las TIC

¿Alguna vez te has sentido confundida al escuchar cómo las grandes corporaciones usan nuestros datos? ¿O te ha pasado que alguien te diga “no tengo nada que ocultar, así que no me importa lo que sepan de mí”? Proteger nuestra privacidad y seguridad digital no se trata solo de ocultar información, sino más bien de ejercer el derecho a decidir qué compartimos, con quién, cuándo, dónde y para qué, conociendo los riesgos y sin tener miedo a represalias.

Hoy más que nunca, en un mundo cada vez más digitalizado, necesitamos reflexionar sobre nuestro rol como mujeres usuarias, creadoras y defensoras de un entorno virtual más seguro. Repasar nuestras trayectorias de cuando éramos más pequeñas, y ver también cómo viven hoy las infancias su vínculo con las tecnologías. Y qué mejor fecha para reflexionar al respecto que el 24 de abril: Día Internacional de las Niñas en las Tecnologías de la Información y la Comunicación (TIC). Esta efeméride, impulsada por la Unión Internacional de Telecomunicaciones (UIT) desde 2011, busca generar espacios que inspiren a niñas y adolescentes a explorar el mundo de la tecnología, no solo como consumidoras, sino como protagonistas de su transformación.

A pesar de estar viviendo en una era hiperconectada, el acceso, la participación y la representación en el ámbito digital siguen denotando profundas desigualdades de género. En el reporte de la UNESCO sobre STEM y género se menciona que solo el 35% de quienes estudian estos temas son mujeres y que menos del 30% de quienes ocupan puestos de investigación en ciencia son mujeres. Además, las mujeres ocupan apenas el 22% de los empleos en inteligencia artificial, uno de los sectores con mayor crecimiento y proyección a futuro. Según el reporte “Las mujeres en ciencias, tecnología, ingeniería y matemáticas en América Latina y el Caribe” de ONU Mujeres, esto responde a múltiples factores, como desde edades tempranas niñas y adolescentes enfrentan estereotipos de género; por ejemplo, 9 de cada 10 niñas entre 6 y 8 años asocian las matemáticas, la programación y/o la ingeniería con habilidades masculinas, lo que afecta directamente su confianza para explorar estas áreas.

Muchas mujeres hemos crecido con la sensación de que la tecnología no está hecha para nosotras y nos sentimos ajenas a un mundo dominado por figuras masculinas, lenguajes técnicos inaccesibles y espacios que rara vez se preocupan por incluir otras voces. Para mujeres, niñas y diversidades, entender cómo proteger nuestros datos, cómo navegar con conciencia y cómo evitar riesgos en línea es una forma de resistencia frente a las violencias digitales, la vigilancia y la exclusión. Estas habilidades pueden parecer pequeñas, pero marcan una gran diferencia en la forma en que habitamos lo digital. Dejar de lado el miedo paralizante y reemplazarlo por curiosidad, información y práctica, es uno de los pasos más potentes hacia una resiliencia digital.

Los riesgos digitales para niñas y mujeres jóvenes incluyen la exposición a contenidos violentos o inapropiados, que pueden afectar su salud mental y emocional; el contacto con personas peligrosas, como depredadores que se hacen pasar por amigos o pares; y la inseguridad digital, que desalienta a muchas niñas a participar activamente en tecnología y limita su desarrollo profesional. Por eso, es esencial enseñar y promover conocimientos de auto cuidado digital, como lo hace la guía de cuidados básicos Security in a Box que nos enseña a usar contraseñas seguras y distintas. Verificar siempre con quién se está hablando, utilizar herramientas de protección. La guía Mozilla Privacy not Included sobre el nivel de privacidad y seguridad de distintos dispositivos y aplicaciones del mercado también es de mucha utilidad. Y por último, y no por eso menos importante, pedir ayuda cuando algo incomoda: eso también es cuidarse.

Nunca más una tecnología sin nosotras

Incluir a niñas y mujeres jóvenes en las TIC más allá de un rol de usuarias no es solo una cuestión de números, sino de transformaciones profundas. El actual modelo de desarrollo tecnológico tiende a reproducir desigualdades, mientras no haya diversidad y perspectiva de género en las personas que diseñan estas tecnologías, corremos el riesgo de que los productos que usamos todos los días (desde apps hasta sistemas de inteligencia artificial) perpetúen sesgos, invisibilicen necesidades específicas y vulneren derechos.

La subrepresentación femenina en estos campos ha sido una de las razones por las cuales muchas no nos hemos animado a entrar en este mundo. Probablemente no conozcamos de mujeres en estos campos hasta que estamos muy dentro. Reconocer historias como las de Ada Lovelace, Reshma Saujani, María Emilia Alcalde, Yordanos Genanaw o Meredith Whittaker es fundamental para derribar el mito de que “las mujeres no son aptas para la tecnología”. Ellas son solo algunas referentas en las tecnologías, pero la lista puede ser mucho más larga. En efecto, recientemente con motivo del 8M Derechos Digitales lanzó una campaña en redes visibilizando a mujeres que han transformado el mundo digital bajo la consigna: ¡La tecnología y el espacio digital no es lo que sería hoy sin nosotras!

Y entonces asoma la pregunta que tanto incomoda, pero que nos interpela directamente: ¿qué podemos hacer todas nosotras desde donde estamos para achicar la brecha de género digital? Podemos fomentar la alfabetización digital con enfoque de género en centros educativos y comunidades. Debemos exigir políticas públicas que garanticen el acceso equitativo a internet y formación TIC. Acompañar la creación de espacios de mentoría entre mujeres que ya están en el sector y nuevas generaciones. Visibilizar referentas femeninas en tecnología desde la infancia. Y, fundamentalmente, promover leyes y marcos normativos que garanticen la seguridad digital, el derecho a la privacidad y el acceso libre y ético a la información para todas las mujeres y niñas del mundo.

Para poder acompañar ese proceso de fortalecimiento de derechos digitales en niñas y mujeres, existen herramientas útiles de organizaciones sensibles con estos temas para empezar desde temprana edad. Por ejemplo Girls Who Code y Ada’s List, colectivos que ofrecen talleres y ofertas laborales para jóvenes interesadas en informática. También contamos con varios entornos educativos online que enseñan cómo programar mediante una interfaz gráfica intuitiva. Tal es el caso de Scratch, Code.org o Alice, por nombrar algunos. Además, está disponible Raspberry Pi, un dispositivo de bajo costo que permite a las personas usuarias construir y programar su propia computadora. Por último, la reciente investigación de Derechos Digitales, en colaboración con María Lab, Taller Comunicación Mujer e Internet Bolivia, “Líneas de ayuda para atender casos de violencia de género en línea: Monitoreos y tendencias en Bolivia, Brasil y Ecuador” también ofrece herramientas de asistencia y acompañamiento para afrontar situaciones violentas en internet.

La transformación digital que necesitamos no puede darse sin justicia social, sin enfoque de género, ni tampoco sin derechos humanos. Y tampoco debe suceder dejando fuera a nuevas generaciones con el potencial de ser protagonistas del desarrollo tecnológico en nuestra región. Es hora de dejar de ver la tecnología como un fin en sí mismo, y comenzar a pensarla como una herramienta para construir sociedades más justas y equitativas, para todas las edades. Garantizar hoy el derecho de una niña a un uso consciente y seguro de la tecnología es abrirle el camino para liderar el mundo del mañana.

La IA y los nuevos riesgos para la privacidad

La inteligencia artificial (IA) es mucho más que los sistemas de chat que se popularizaron desde inicios de esta década. Si bien ahora se está viviendo el boom de esta tecnología, no hay que olvidar que la IA es una rama de las ciencias de la Computación que ha estado presente desde sus inicios. En el pasado, existieron hitos importantes en relación a esto. Por ejemplo, en el año 1997 la computadora Deep Blue, creada por IBM, fue capaz de vencer en ajedrez al entonces campeón del mundo Gary Kasparov. También, hace poco menos de 10 años, el software Alpha Go de Google logró ganarle a varios campeones internacionales del juego de estrategia Go.

El boom que se vive en la actualidad tiene que ver principalmente con los modelos grandes de lenguaje (LLM por sus siglas en inglés). Se trata de un programa de la IA que permite tener aplicaciones con las cuales nos podemos comunicar de forma natural como si estuviéramos hablando con personas. Para que estos sistemas puedan tener una conversación con humanos se los debe entrenar con cantidades extraordinarias de datos y además se requiere de mucha capacidad de cómputo.

Dime qué datos utilizas y te diré quién eres

Si se piensa en los LLM desde una perspectiva de privacidad, lo primero que nos deberíamos preguntar es ¿de dónde salen los datos que entrenan el modelo? Según OpenAI, utilizan 3 fuentes para entrenar los modelos de ChatGPT: información pública, información compartida por socios e información provista por humanos.

En la primera opción, se puede pensar en la internet pública con sitios como Wikipedia, Github, Archivo de internet y otras similares. Desde un punto de vista de privacidad, esta información está públicamente accesible y se puso a disposición con la intención de compartir conocimiento libremente. Se podría decir que entrenar LLM con esta información, haría más accesible el conocimiento a la mayoría de la gente.

Pero este no es el caso para todos los sitios web. Existen casos como las redes sociales, donde las personas -por error- pudieron haber publicado información personal sin intención y esta se hizo pública. Incluso se podría haber subido contenido con el propósito de que sea accesible para el público, pero no necesariamente para entrenar modelos de inteligencia artificial.  Evidentemente, hay problemas relacionados con derechos de autor, pero en esta columna no nos vamos a detener en esa cuestión.

En el segundo caso, no es claro cuáles son los socios que proveen información a OpenAI. En su página web mencionan una colaboración con al gobierno de Islandia para mejorar el soporte del idioma islandés, y también hablan de colaborar con la organización Free Law Project. Sin embargo, no queda claro con qué otros grupos hacen alianzas para la provisión de datos.

Desde el punto de vista económico, el principal aliado de OpenAI es Microsoft. Una empresa que en 2023 realizó un acuerdo de 10 mil millones de dólares con OpenAI por varios años, y que incluye el uso de la infraestructura Azure. Esta infraestructura es la “nube” que oferta Microsoft para que terceros puedan ejecutar sus aplicaciones. En este caso, Azure es la principal infraestructura de ChatGPT y otros productos de OpenAI.

¿Será que OpenAI utiliza información de las aplicaciones de Microsoft como Bing, Outlook, Office 360, entre otros? ¿Estará Microsoft entregando información personal de sus usuarios para entrenar al ChatGPT? No hay forma de saberlo, salvo que se haga una auditoría y se transparente la forma en la que OpenAI entrena sus modelos.

Si pensamos en las otras empresas líderes como Google con Gemini, Meta con MetaAI o X con Grok, podemos, al menos, sospechar que utilizan los datos de sus sistemas para entrenar sus modelos grandes de lenguaje. Todas estas empresas tienen algo en común, muchos datos y gran capacidad de procesamiento de información, lo que las pone en la élite de la IA.

Nube y privacidad: malos amigos

Ya se analizó la privacidad al momento de entrenar los modelos LLM. Ahora bien, ¿qué pasa con nuestra privacidad al utilizar estos chat bots? El principal problema que se presenta al utilizar estas herramientas de IA es que se encuentran en la nube, a quien le entregamos todos nuestros datos.

Si se utiliza la IA para que nos responda nuestras preguntas cotidianas, estas preguntas se asocian a nuestro perfil y sirven para perfilarnos como individuos. Si se usa la IA para que resuma una llamada de Zoom, entonces estamos entregando la transcripción de la conversación y el resumen a la plataforma. Si la utilizamos para escribir un correo electrónico, entonces el sistema que lo redacta tendrá el contenido de nuestro correo. Si le pedimos que nos sintetice un documento confidencial, le servimos en bandeja esa información. Toda esta interacción servirá para entrenar los futuros modelos de lenguaje. En teoría, gente con la capacidad de hacer las preguntas correctas a la IA podría extraer información de nuestros archivos confidenciales.

Por otra parte, el uso de IA en aplicaciones de chat cifrado también resulta un problema muy grave para la privacidad de la ciudadanía. El cifrado extremo a extremo protege nuestras comunicaciones para que nadie, excepto las personas que participan en la misma, las pueda leer. Un adversario particularmente importante del cual nos protege este tipo de cifrado es el proveedor del servicio. Si se piensa en WhatsApp, entonces su cifrado nos debe proteger para que WhatsApp no lea nuestras conversaciones. Sin embargo, desde algún tiempo atrás tenemos entre nuestros contactos al bot de @MetaAI. A este bot lo podemos invocar desde cualquier conversación para hacerle consultas. Cuando eso sucede, el cifrado extremo a extremo pierde su valor ya que Meta debe leer nuestras conversaciones para interactuar.

En general, los problemas de privacidad de la IA están asociados a la utilización de plataformas en “la nube”. En otras columnas, hemos visto algunos ejemplos del uso de infraestructura propia con software libre para poder tener una oficina virtual, sistemas de videoconferencia seguras, incluso instancias de redes sociales descentralizadas como el Fediverso.  ¿Se puede hacer lo mismo con la inteligencia artificial?

La respuesta es sí, y de hecho existen varios LLMs que se pueden utilizar sin costo y de forma local o incluso en infraestructura propia. A diferencia de sistemas como una nube propia o sistemas de chat seguro, con inteligencia artificial se va a necesitar mayor capacidad de cómputo o versiones más pequeñas de los LLM. Al usar modelos más cortos, probablemente no sirvan para preguntar cualquier cosa, pero sí podrían ser muy útiles para tener un bot con un propósito específico. Por ejemplo, para resumir documentos confidenciales o traducir textos.

IA al servicio de las personas, no de las corporaciones

En nuestros días, es común que la gente utilice IA para apoyarse en sus tareas cotidianas y, seguramente, en el futuro esta herramienta se usará aún más. Es sumamente importante que como sociedad podamos reflexionar acerca de los propósitos para los cuales se seguirá utilizando la IA y los riesgos que eso trae aparejado. No es lo mismo recurrir a ella para traducir un documento público, redactar un correo electrónico o resumir un documento confidencial. Habrá casos en los que se pueda considerar aceptable utilizar IA a cambio de sacrificar la privacidad y habrá otros en los que no.

La autonomía en la IA es algo que la sociedad debe explorar. Para tareas y actividades donde se trabaja sobre información sensible, tener un sistema tecnológico que no reporte esa información a terceros sería una herramienta muy poderosa. Incluso varias organizaciones podrían unirse entre sí para compartir infraestructura y poder ejecutar colectivamente mejores modelos de lenguaje. Las regulaciones sobre esta herramienta tecnológica deben velar por el respeto de nuestra privacidad, nuestros datos y nuestra información. Solo de esa forma podremos imaginar un futuro digital seguro para todas y todos.