Las tecnologías del ICE y el perverso sistema automatizado de persecución a migrantes latinos

La administración Trump ha convertido al Servicio de Inmigración y Control de Aduanas de EE. UU. (ICE, por sus siglas en inglés) en una agencia de vigilancia masiva. Con un presupuesto que supera los USD 28.000 millones en 2025 (el triple que el año anterior), la agencia ha tejido una red que cruza bases de datos gubernamentales, compra información de empresas y despliega tecnología en las calles.

Un migrante mexicano lo descubrió cuando el ICE rastreó las transferencias de remesas que enviaba a su familia en México, identificó su dirección en Hawái y lo arrestó, pese a no tener antecedentes criminales. En Chicago, una mujer colombiana fue detenida en lo que parecía una parada de tráfico rutinaria: su vehículo había sido marcado con anticipación, cruzando registros estatales con bases de datos federales. Otro migrante mexicano, que vendía flores en una ciudad de Los Ángeles, estuvo semanas detenido porque el ICE lo confundió con un sospechoso de nombre similar, pese a tener documentos que probaban su inocencia. Tres casos, tres tecnologías distintas, un mismo sistema.

La agencia lleva años construyendo este ecosistema de vigilancia, una arquitectura de datos originalmente creada tras el 11 de septiembre para “combatir terroristas”, ahora redirigida hacia comunidades migrantes que trabajan y sostienen la economía del país. Un embudo que comienza con datos que las personas mismas generan (remesas, registros vehiculares, ubicaciones de celular), pasa por el cruce con bases de datos gubernamentales y comerciales, y termina en una operación de calle donde un agente ICE con un teléfono decide el destino de alguien en segundos. Un sistema que, en ese proceso, no distingue entre quien tiene una orden de deportación y quien simplemente existe en sus bases de datos.

Etapa 1: la maquinaria de recolección masiva de datos

El punto de partida del sistema son los datos. ICE no recolecta la mayoría de la información por sí misma: la compra. Cada vez que alguien paga una factura de luz, manda una remesa, saca una licencia de conducir o publica algo en redes sociales, esa información puede terminar en manos de la agencia. Empresas como Thomson Reuters y LexisNexis reúnen datos de múltiples fuentes sobre una misma persona (historiales de crédito, direcciones, números de teléfono, registros vehiculares, vínculos familiares) y se los venden al ICE. No hace falta una orden judicial, ya que la ley no lo exige cuando los datos los vende una empresa privada, y esa es exactamente la puerta de entrada del ICE.

El celular también delata. Aplicaciones que millones de personas utilizan a diario registran su ubicación constantemente, y empresas como Venntel o PenLink capturan y revenden al gobierno esos registros de movimientos a través de GPS. Y en la calle, la red Flock Safety opera 100.000 cámaras en 49 estados que leen 20.000 millones de matrículas de automóviles al mes.

A eso se suman los datos biométricos. La foto de la licencia de conducir queda en bases de datos estatales a las que el ICE tiene acceso. Clearview AI fue más lejos: extrajo imágenes de redes sociales y sitios de noticias hasta acumular más de 50.000 millones de rostros, y el ICE firmó un contrato para aprovechar esa base. Por último, lo que el propio Estado ya sabía también está disponible, como por ejemplo declaraciones de impuestos, registros médicos de Medicaid y datos del Seguro Social. En 2025, un juez federal determinó que el IRS, la autoridad tributaria norteamericana, infringió la ley aproximadamente 42.000 veces al compartir datos de contribuyentes con el ICE.

Etapa 2: la inteligencia artificial convierte datos en objetivos

La información recolectada en la primera etapa no es suficiente. El sistema necesita convertirla en personas localizables, y para eso existen empresas como Palantir. Fundada con capital de la CIA, esta compañía tecnológica mantiene contratos con el ICE desde 2011. Su plataforma cruza todas las fuentes de información de la etapa anterior y construye un perfil con ubicación probable. No es una búsqueda manual, es un modelo de IA que procesa miles de variables para determinar dónde podría estar alguien ahora mismo.

La herramienta más reveladora que Palantir desarrolló para el ICE es ELITE. Funciona, según un agente que testificó bajo juramento ante un tribunal, como un Google Maps de personas deportables. Básicamente muestra en un mapa la ubicación posible de cada objetivo, con una puntuación de probabilidad. Para calcularla, cruza, por ejemplo, la dirección registrada en Medicaid con el último registro de GPS y la última vez que su placa fue captada por una cámara. Además, construye un expediente automático con antecedentes penales y órdenes judiciales. El sistema tiene restricciones internas sobre qué puede hacer y a quién puede marcar como objetivo. Sin embargo, en ciertos operativos que la agencia denomina “especiales”, aplican filtros distintos para identificar personas que en condiciones normales no calificarían como objetivo. Hasta ahora, el ICE no ha explicado públicamente cuándo ocurre esto ni quién lo autoriza.

En 2025, el organismo migratorio pagó USD 30 millones adicionales para expandir ese sistema y construir ImmigrationOS, una plataforma diseñada para rastrear a una persona desde que entra al país hasta que es deportada, con seguimiento en tiempo real. Una persona que entró al sistema como un dato termina aquí reducida a un caso con estado y fecha estimada de salida del país, sin haber sido escuchada ni haber podido refutar lo que el algoritmo decidió sobre ella.

Etapa 3: cualquier calle puede ser una zona de vigilancia

Con un objetivo identificado, el sistema pasa de los algoritmos a la calle. El agente llega con una aplicación llamada Mobile Fortify en su teléfono del gobierno, apunta a la cara de cualquier persona (no necesariamente la que buscaba), y en segundos coteja esa imagen con millones de fotografías recolectadas previamente en la Etapa 1. Vale aclarar que esas fotografías recolectadas fueron tomadas sin el aviso correspondiente: las personas no saben que algún día esos registros formarán parte de un sistema de identificación masiva. Si hay coincidencia, el sistema devuelve nombre, fecha de nacimiento, nacionalidad y si existe una orden de deportación. Si la imagen facial no es suficiente, otra herramienta de BI2 Technologies repite el proceso con el iris del ojo. Todo esto ocurre en la calle, sin que la persona haya hecho nada, sin que lo sepa, y sin que ningún juez lo haya autorizado.

Lo más preocupante de Mobile Fortify es que fue desplegada mientras aún estaba en fase de prueba, sin evaluación de impacto sobre privacidad. Aún más, no cuenta con precisión. En un caso documentado ante un tribunal en Oregon, el sistema escaneó a la misma mujer dos veces y devolvió dos nombres diferentes. Aun así, el ICE trata sus resultados como prueba definitiva, por encima incluso de un acta de nacimiento.

Incluso hay herramientas que operan de forma aún más encubierta. Los simuladores celulares, conocidos también como IMSI Catchers, se disfrazan de torres de telefonía para forzar a los teléfonos cercanos a conectarse e identificar qué dispositivos están en un área. La agencia migratoria compró vehículos equipados con estos artefactos para desplegarlos de forma encubierta en vecindarios específicos. Para quienes están en proceso migratorio existe SmartLINK, una aplicación que el ICE obliga a instalar en el teléfono personal, que rastrea la ubicación y exige verificaciones periódicas mediante reconocimiento facial. Una migrante colombiana en California lo descubrió cuando la app le bloqueó un viaje a otro estado. Cuando preguntó, un oficial le dijo que ella no había hecho nada malo, era una decisión discrecional del organismo.

Cuando las personas migrantes están detenidas, sufren una mayor pérdida de privacidad. Dispositivos de las empresas Cellebrite y Magnet Forensics desbloquean y copian el contenido completo de un teléfono en minutos, como mensajes, fotos, historial de ubicación y contactos. De hecho, aplicaciones con cifrado, como WhatsApp, no pueden proteger la información en este orden. El cifrado impide que los mensajes sean interceptados mientras viajan por internet, pero una vez que el teléfono está desbloqueado en manos de un agente, ese cifrado es irrelevante. Las conversaciones de una persona detenida pueden convertirse en el punto de partida para rastrear a otras que nunca tuvieron contacto con el ICE.

Protegerse también es una forma de resistir

Entender cómo funciona este sistema ya es una forma de resistencia. Para quienes están migrando o piensan hacerlo, ese conocimiento puede marcar la diferencia desde el primer día. El celular es la fuente de datos más vulnerable. Utilizar Signal, en vez de WhatsApp, reduce significativamente el rastro: Signal no almacena metadatos ni comparte información con terceros. Revisar qué aplicaciones tienen acceso a la ubicación y revocar los permisos innecesarios limita lo que empresas pueden capturar y vender. En zonas con alta presencia del ICE, una bolsa Faraday bloquea todas las señales del teléfono móvil, impidiendo que los simuladores celulares lo detecten. Y en redes sociales, publicar ubicaciones o etiquetar lugares es entregar voluntariamente la información que el sistema pagaría por obtener.

Sin embargo, las medidas individuales tienen un límite, el sistema descrito no se puede desmontar con una app. La Electronic Frontier Foundation publica guías gratuitas y actualizadas sobre cómo proteger la privacidad digital en situaciones de riesgo, su sección Surveillance Self-Defense es un punto de partida concreto. Organizaciones como ACLU, National Immigration Law Center y Just Futures Law están litigando activamente en esa dirección. Difundir su trabajo y exigir a los representantes que tomen posición es también una forma de actuar.

¿La libertad de las personas depende de un algoritmo?

Lo que Edward Snowden reveló en 2013 sobre la vigilancia masiva de la NSA pareció, en su momento, el límite de lo imaginable. Hoy, el accionar del ICE lo supera ampliamente. A diferencia de los programas de Snowden, este sistema no opera en las sombras, tiene contratos públicos, nombres de empresas y cifras de inversión.

Este sistema perverso no termina en el momento de la detención. Las fotografías tomadas por Mobile Fortify se almacenan por 15 años; los contactos extraídos del teléfono de una persona detenida se convierten en nuevos sujetos de interés. Y detrás de cada etapa hay una empresa que factura. El Brennan Center lo llama un “complejo industrial de deportación”, empresas cuyos ingresos dependen directamente del desarrollo y crecimiento del sistema automatizado.

La IA comete errores, como cualquier sistema automatizado. Hay una diferencia fundamental entre una IA entrenada para recomendar películas y una entrenada con décadas de datos de agencias de seguridad estadounidenses para localizar personas y deportarlas. Cuando la primera se equivoca, ves una película que no te gusta. Cuando la segunda se equivoca, una persona inocente termina detenida semanas, como aquel migrante mexicano que trabajaba vendiendo flores. El problema no es solo el error, es que incluso cuando el sistema funciona como fue diseñado, una persona pierde su libertad por decisión de un algoritmo, sin que nadie la haya visto ni escuchado y sin que haya podido defenderse. La pregunta que ninguna agencia ha respondido es quién asume la responsabilidad por eso, y la respuesta, hasta ahora, brilla por su ausencia.

Palantir, Clearview, Thomson Reuters, LexisNexis, GEO Group: estas son solo algunas de las empresas que forman este ecosistema (hay decenas más que no se mencionaron). Lo que se describió en esta columna es sólo una fracción de esta arquitectura de vigilancia que sigue creciendo, contrato por contrato, dato por dato. En el aire queda una pregunta que, no debe abordarse desde un aspecto tecnológico, sino más bien desde la dimensión ético-política: ¿qué clase de sociedades se moldean cuando se construyen sistemas capaces de privar de la libertad a las personas en base a una puntuación y una fecha de deportación? ¿Quiénes son las primeras y principales víctimas de este sistema de expulsión automatizado?

La guerra por otros medios: control de software e infraestructura estratégica

La guerra que comenzaron Israel y EE. UU. contra Irán acapara la agenda mediática. Las pantallas se inundan constantemente de bombardeos mutuos e imágenes impactantes que parecen tomadas de un filme o de un videojuego. Sin embargo, hay elementos de este conflicto que no se llegan a ver tan fácilmente: existe otra arista de la guerra que tiene a la tecnología como protagonista.

La batalla también se libra a través de los medios de comunicación en las narrativas contradictorias entre un bando y otro. Ello complejiza la posibilidad de encontrar certezas en medio de un contexto bélico de estas características. Sin embargo, hay elementos que son plausibles de ser analizados como ciertos.

En varios medios circula la noticia sobre el trabajo de inteligencia que realizaron Israel y EE. UU. para lograr ejecutar al ayatolá Ali Khamenei. Entre las tareas de inteligencia, se dice que habrían intervenido cámaras de tráfico y de circuitos cerrados en algunas oficinas donde se desempeñaban los altos mandos militares de Irán. Con toda esa información les fue posible determinar la ubicación del ayatolá, e incluso conocer cuáles podían ser sus vías de evacuación.

Ante esta situación, y más allá de las particularidades del propio conflicto en Oriente Próximo, cabe preguntarse: ¿qué tan seguros son los sistemas tecnológicos de nuestros países? ¿La dependencia tecnológica es una brecha de seguridad para los Estados? ¿Existe alguna forma de minimizar este riesgo? Para reflexionar sobre estas preguntas iremos por partes.

Dependencia tecnológica

Es de público conocimiento que un gran porcentaje de Estados dependen tecnológicamente de un puñado de países que tienen la capacidad productiva para fabricar dispositivos electrónicos. Como venimos señalado en Derechos Digitales, América Latina no escapa a ese contexto. Es así como cada dispositivo tecnológico -en nuestras casas, lugares de trabajo y espacios públicos- fue diseñado y construido por empresas radicadas en el Norte Global y en algunas regiones de Asia.

Ahora bien, ¿son confiables en términos de seguridad los dispositivos que utilizamos? Y más aún: ¿hay posibilidades de que las instituciones de seguridad de los Estados donde están localizadas estas empresas hayan generado acuerdos con ellas para tener acceso a los dispositivos en caso de “ser necesario”?

En la historia reciente, existe suficiente evidencia y ejemplos como para suponer que los dispositivos electrónicos pueden ser intervenidos, tanto en situaciones de conflictos como también con el fin de desplegar vigilancia masiva. Conocido es el caso en que el ex analista de inteligencia de la CIA y la NSA, Edward Snowden, denunció en 2013 públicamente con documentos el funcionamiento de una vasta red de vigilancia global por parte de EE. UU. y países aliados, facilitada a partir de la colaboración con distintas empresas de tecnología.

Más recientemente, Israel se atribuyó en 2024 ataques simultáneos en Siria y el Líbano a través de equipos electrónicos que contaban con carga explosiva. Situación que originó gran preocupación en organizaciones internacionales de Derechos Humanos debido a lo indiscriminado de los ataques. También cabe recordar que, días atrás, se generó una polémica entre el Pentágono y Anthropic, la empresa detrás del motor de inteligencia artificial Claude. La discusión se centra en que el Pentágono solicita a la empresa quitar los límites éticos del motor para poder utilizarlo en vigilancia masiva y manejo autónomo de armas. La compañía se negó, e incluso demandó al Pentágono por exceder su autoridad y sus salvaguardas éticas, violando derechos básicos.

A primera vista, la guerra parece un tema lejano para la historia de los últimos años en América Latina. Sin embargo, las recientes operaciones militares estadounidenses en las inmediaciones de Cuba, o en Venezuela, por ejemplo, encienden las alarmas. En este convulsionado contexto, ¿es razonable pensar que en el corto o mediano plazo nuestra región se pueda ver involucrada en algún conflicto de mayor escala? Si ese fuera el escenario, ¿la dependencia tecnológica representaría una brecha de seguridad y soberanía para los países latinoamericanos? Si analizamos los antecedentes antes mencionados, la respuesta es que muy probablemente sí.

Minimización de la brecha

En la actual división global del trabajo, solo algunos países poseen la capacidad para diseñar y construir dispositivos electrónicos. Esta situación deja en desventaja al resto de los países del mundo que, en un futuro inmediato pero también en un período prolongado de tiempo, precisan invertir en tecnologías y capacidades humanas que no están dispuestos a pagar, o ni siquiera pueden afrontarlo.

Ahora bien, los equipos electrónicos se componen esencialmente de dos capas: la física y la lógica (hardware y software, respectivamente). Esta distinción cobra gran relevancia en el análisis que proponemos. Si bien no todos los Estados tienen la capacidad de construir la capa física, ¿qué sucede con la capa lógica?

La capa lógica, o software, es un programa computacional. Dentro de la gama de programas computacionales, nos referiremos a los que pertenecen a las categorías de “sistema operativo” o “firmware”. En ambos casos, se trata de programas de bajo nivel que interactúan directamente con el hardware (capa física). Para nombrar algunos ejemplos, podemos mencionar los sistemas operativos Windows, OSx y GNU/Linux, como así también aquellos que permiten el funcionamiento de teléfonos como iOS y Android.

De la misma forma ocurre con los sistemas de videovigilancia. Se componen de cámaras y de un sistema central que procesa y gestiona las grabaciones, llamado DVR (Digital Video Recorder) o NVR (Network Video Recorder) en función de la forma en que las cámaras se comunican: analógica o digital respectivamente. Dicho centro de procesamiento actúa como un ordenador especializado para esa tarea y, por tanto, posee un firmware o sistema operativo para su funcionamiento. Dentro de sus funciones están: configurar las cámaras, gestionar grabaciones y administrar el control de acceso.

Los sistemas de videovigilancia desactualizados pueden poseer vulnerabilidades, que ya son conocidas. A la vez, existe una gran cantidad de documentación pública sobre cómo explotar esas vulnerabilidades para acceder a los sistemas de videovigilancia, como por ejemplo el proyecto Shodan. Por lo tanto, si ya son conocidas las debilidades en sistemas desactualizados, es muy probable que empresas de seguridad ofensiva tengan herramientas para vulnerar la seguridad de estos dispositivos, tal como se afirma en el portal especializado Wired. De forma alternativa, existen una serie de proyectos de código abierto para administrar cámaras que cuentan con las ventajas ya mencionadas.

Por otra parte, otra característica de la capa lógica es que puede estar construida de forma cerrada o abierta. La forma cerrada (o software privativo) refiere a programas que desarrollan empresas para el manejo de equipos en el que la persona usuaria final no puede analizar, modificar o mejorar el código fuente. Generalmente, viene precargado en el dispositivo en forma de archivo ejecutable, el cual es ilegible. En la otra vereda, está la forma abierta (o software libre) vinculada a programas que, en muchos casos, son construidos de forma comunitaria, e incluso pueden contar con colaboración de empresas. Su característica es que es totalmente abierto, disponible para analizar, modificar y mejorar.

Ahora bien, volvamos al cuestionamiento de la dependencia tecnológica sobre qué hacer si un dispositivo viene diseñado, por ejemplo, con una puerta trasera. En el caso de que la capa lógica esté desarrollada sobre la concepción de software privativo, es muy difícil poder identificarla y actuar para modificar su comportamiento con el fin de suprimir dicha vulnerabilidad, pues no hay acceso al código. Por el contrario, en el caso del software libre sí tenemos la posibilidad de hacer auditorias independientes, así como suprimir funciones o alterar su comportamiento, lo que a simple vista otorga una gran ventaja.

Otra desventaja del software privativo es que necesita de pagos periódicos para su actualización. Por distintos motivos, las instituciones no mantienen las versiones más actualizadas lo que las deja con mayor propensión a ataques de vulnerabilidades conocidas, como es el caso de Guacamaya Leaks. En aquel episodio, un grupo de hackers intervino sistemas de varias instituciones militares en América Latina, aprovechando, principalmente, estas debilidades de sus desactualizados sistemas de software pago.

Software libre y seguridad nacional

Con la proliferación de los sistemas digitales de comunicación y, más aún, con el Internet de las cosas (IoT), donde muchos dispositivos cotidianos están conectados entre sí, es sumamente importante analizar qué rol puede jugar la dependencia tecnológica en escenarios de conflicto, ya sea armados o no.

La discusión no puede quedarse en si el software privativo es mejor o peor que el software libre: en ambos casos se encontrarán vulnerabilidades. El análisis debe centrarse en el control que se puede tener de los dispositivos y sistemas. En ese sentido, el software libre corre con ventaja al permitir el control de las funciones y, al mismo tiempo, el acceso libre a las actualizaciones. Además, al tratarse de código abierto, el software libre habilita una permanente auditoría, por lo que es menos probable que contenga funciones maliciosas por diseño.

En un mundo donde las potencias se disputan recursos estratégicos en otros territorios, es indispensable que los Estados latinoamericanos reconfiguren, a mediano y largo plazo, su seguridad digital y las medidas necesarias para enfrentar una amenaza externa.

Contribución a la consulta para el informe temático titulado “Impacto de la vigilancia digital y asistida por IA en los derechos de reunión y de asociación, incluidos los efectos inhibitorios”

En esta contribución, presentada ante la Relatoría Especial para la Libertad de Asociación y Reunión, presentamos algunos casos concretos de preocupación sobre el despliegue de sistemas de IA en el marco de protestas pacíficas en países de la región, así como algunos de sus efectos inhibitorios. Formulamos recomendaciones de política pública a los Estados y empresas del sector privado.

Aporte conjunto a la convocatoria de aportes sobre los impactos en los derechos humanos del uso de IA en la lucha contra el terrorismo

Aporte conjunto con el CELS y Fundación Vía Libre sobre el uso de IA en la lucha contra el terrorismo. En el documento identificamos tres tendencias, de regulación de la IA que habilita al uso de la biometría remota para la lucha contra el terrorismo, de potencial uso dual del reconocimiento facial para dichos fines, y de reformas de leyes de inteligencia y contraterrorismo que habilitarían al uso de IA y otras tecnologías de vigilancia masiva para tal ámbito.

Amicus curiae sobre la demanda de inconstitucionalidad de la Ley de Inteligencia Orgánica de Ecuador

En este documento sustentamos argumentos para la inconstitucionalidad de los artículos que regulan la solicitud de entrega de datos a entidades públicas, privadas y personas naturales; la interceptación de las comunicaciones y entrega de metadatos; la vigilancia del ciberespacio; la protección de datos en las tareas de inteligencia; y las limitaciones al derecho de acceso a la información pública.

Infancias en línea: riesgos, regulaciones y desafíos para América Latina

En 2017, el Fondo de las Naciones Unidas para la Infancia (UNICEF) publicó la estimación de que 1 de cada 3 usuarios de internet en todo el mundo era niño, niña o adolescente. A pesar de que aún existen muchos jóvenes que no tienen un acceso significativo a internet – y de que esto constituye un problema de orden primario -, es posible que hoy, casi una década después, la proporción de personas con menos de 18 años en entornos digitales sea aún mayor. En la realidad latinoamericana, estadísticas de países como Brasil, Argentina y México muestran que niños, niñas y adolescentes no solo pasan cada vez más tiempo conectados, sino que también comienzan a acceder a internet a edades cada vez más tempranas.

El punto sobre el cual UNICEF venía alertando al menos desde 2017 es que la infraestructura y las aplicaciones de internet, en esencia, no fueron diseñadas para este público, ni evolucionaron considerando la etapa de desarrollo físico, cognitivo y psicosocial que atraviesan niños, niñas y adolescentes. A esto se suma la lógica de explotación comercial sobre la cual opera internet desde hace años, muy distante de aquella idea inicial de un espacio libre, abierto y creativo. Estos factores exponen a los más jóvenes a una serie de riesgos online, considerablemente más graves que para los usuarios adultos.

En los últimos meses, la discusión sobre estos temas se intensificó. En el Reino Unido entró en vigor un paquete de medidas regulatorias que coloca en el centro la protección infantil en línea. En Brasil, el debate ganó aún más visibilidad tras una denuncia sobre la “adultización” e hipersexualización de niños y adolescentes en entornos digitales. Ambos episodios muestran cómo la agenda de protección en internet se consolidó como un tema urgente en todo el mundo. Sin embargo, es importante reflexionarlo desde una perspectiva localizada desde el contexto latinoamericano.

Niños y adolescentes están, de hecho, en riesgo en internet

La OCDE clasifica los riesgos a los que están expuestos niños, niñas y adolescentes en internet en cuatro categorías – las “4 C’s”. La primera son los riesgos de exposición a contenido inadecuado, como materiales nocivos, discursos de odio, desinformación u otros contenidos ilegales. Aquí entra, por ejemplo, la exposición a la pornografía, con consecuencias que van desde la erotización precoz hasta el estímulo a la violencia y la reproducción de estigmas de género. También entra el acceso a juegos de azar, un problema creciente en América Latina.

La segunda categoría son los riesgos de conducta, que abarcan aquellos creados por las propias interacciones de los niños en entornos digitales. Pueden manifestarse en comportamientos odiosos o nocivos, como el ciberacoso o la automutilación, muchas veces incentivados por el diseño de las plataformas y la viralización de ciertos contenidos. A comienzos de 2025, por ejemplo, una niña de 8 años murió en Brasil tras inhalar desodorante en aerosol en un reto de TikTok.

El tercer grupo son los riesgos de contacto, cuando niños y adolescentes son expuestos a interacciones dañinas o criminales con terceros adultos. Estos encuentros pueden ir desde situaciones de acoso hasta casos de explotación sexual infantil. Recientemente, en Estados Unidos, la fiscalía de Lousiana demandó a la plataforma de juegos Roblox, muy popular entre el público infantil, por no implementar mecanismos básicos de seguridad, lo que habría permitido que pedófilos se hicieran pasar por niños y entablaran interacciones malintencionadas a través del chat.

La cuarta dimensión son los riesgos de consumo, ligados al perfilado comercial y la inducción de gastos, parte estructural del modelo de negocio de las grandes plataformas digitales. Niños y adolescentes, en proceso de desarrollo, carecen hasta cierta edad de herramientas para distinguir publicidad de contenido orgánico. Incluso siendo ya un poco más viejos, no cuentan con recursos suficientes para lidiar con las presiones comerciales. Las prácticas de perfilamiento, como ya denunciaron distintos whistleblowers, han sido utilizadas por plataformas para aprovechar la vulnerabilidad emocional de adolescentes (sobre todo niñas). Entre sus prácticas está la promoción de contenidos que estimulan distorsiones corporales para mantenerlas enganchadas, aun con pleno conocimiento de sus efectos nocivos en la salud mental.

La OCDE señala, además, que existen riesgos transversales, como la pérdida de privacidad, la salud física y mental y los derivados de tecnologías digitales avanzadas o biométricas. Temas como el sharenting, los sesgos de los sistemas de inteligencia artificial y los impactos del uso excesivo de redes sociales en el sedentarismo juvenil entran en esta categoría. Casos recientes publicados en la prensa, como la denuncia de las ganancias de YouTube con contenidos abusivos sobre niños, muestran cómo estas dimensiones se combinan y retroalimentan.

Es esencial reconocer estos riesgos, así como el hecho de que pueden afectar de manera trágica el desarrollo de una persona en formación. También es importante destacar que no recaen de forma homogénea: estudios comparativos señalan que las plataformas aplican reglas más laxas en países del Sur Global. En América Latina, niños indígenas y afrodescendientes tienen menos acceso tanto a internet como a educación formal, incluida la educación digital. Además, en un contexto en el que las plataformas digitales lucran con la vulneración de derechos, la carga del cuidado recae de forma desproporcionada en las familias y, especialmente, en las madres. En una región con altas tasas de maternidad en solitario y bajos niveles de alfabetización digital, muchas mujeres no cuentan con el tiempo ni con las herramientas necesarias para acompañar la navegación segura de sus hijos, lo que los vuelve aún más vulnerables.

 La respuesta regulatoria

No es en vano que, sobre todo en los últimos cinco años, este tema comenzó a recibir creciente atención de reguladores en todo el mundo. En 2020, el Comité de los Derechos del Niño de la ONU redactó la versión final de su Observación General 25 relativa a los derechos de los niños en relación con el entorno digital, aprobándola a comienzos de 2021. El documento representó un hito en el derecho internacional de los derechos humanos, al interpretar la Convención sobre los Derechos del Niño de 1989 a la luz de los avances tecnológicos, reafirmando que todos los derechos de niños, niñas y adolescentes se extienden también al entorno digital. Conviene recordar que la Convención de 1989 es el tratado internacional más ratificado del mundo, y que instauró la doctrina de la protección integral, reconociendo a todas las personas con menos de 18 años como sujetos de derechos, con autonomía progresiva para su ejercicio, y, por lo tanto, debiendo ser promovidos y protegidos en todos los espacios.

2021 también marcó la aprobación del Age Appropriate Design Code por el ICO del Reino Unido, que estableció estándares de diseño para productos y servicios digitales destinados o con alta probabilidad de ser utilizados por niños y adolescentes. La iniciativa inspiró en los años siguientes diversas medidas por parte de autoridades de protección de datos, especialmente en Europa, como en Suecia e Irlanda. El Digital Services Act (DSA), aprobado en 2023 en la Unión Europea, también tiene reglas específicas para el grupo, señalando el principio de su mejor interés para el desarrollo de servicios digitales y reglas diferenciadas para el tratamiento de sus datos.

En 2024, Australia aprobó una ley inédita que prohíbe el acceso de personas con menos de 16 años a redes sociales y la Unión Africana adoptó directrices para la protección en línea de niños, niñas y adolescentes. La discusión también ganó fuerza en los Estados Unidos, donde ya recibió media sanción el Kids Online Safety Act (KOSA), aunque bajo apoyo desde argumentos problemáticos de políticos conservadores, como la protección de niños a “contenidos LGBT”. En 2025, nuevamente el Reino Unido, esta vez a través de la Ofcom, publicó una serie de directrices condensadas en los ya mencionados Protection of Children Codes and Guidance.

Estas iniciativas también resonaron en América Latina. En julio de 2025, Colombia aprobó la Ley 2489, “por medio de la cual se establecen disposiciones para el desarrollo de entornos digitales sanos y seguros para los niños, niñas y adolescentes del país”. En Brasil, desde 2022 se debate en el Congreso Nacional el Proyecto de Ley nº 2628,  que también establece reglas específicas para la protección de los más jóvenes en internet. El texto fue aprobado en el Senado a finales de 2024 y recién aprobado también en la Cámara de los Diputados, en agosto de 2025. Ahora vuelve al Senado para aprobación final, incluyendo dispositivos como la prohibición del uso de datos de personas con menos de 18 años para publicidad comportamental, además de previsiones sobre supervisión parental, vedación de acceso a contenidos dañinos y rendición de cuentas por parte de las aplicaciones digitales. Su tramitación recobró fuerza en agosto de este año, tras la referida denuncia del influencer Felca digital sobre la adultización e hipersexualización de niños y adolescentes en internet.

Un punto común de estas iniciativas regulatorias es establecer reglas diferenciadas para el uso de entornos digitales por parte de niños y adolescentes, ya sea en relación con los contenidos a los que pueden (o no) acceder, o en relación con prácticas de diseño y extracción de datos. Para que esa diferenciación ocurra en la práctica, gobiernos y empresas que proveen servicios digitales señalan que es necesario poder identificar quiénes son las personas con menos de 18 años en internet. En este contexto, aun cuando no aparezcan de forma explícita en todas las normativas recientes, la implementación de mecanismos de verificación de edad ha pasado a ser considerada una puerta de entrada esencial para la defensa de la infancia.

Informes de autoridades y análisis recientes hablan de una “ola global” de sistemas de verificación de edad en toda internet, donde la protección de la infancia se presenta como justificación para extender controles de identidad a todos los usuarios, incluso en aplicaciones que no son consideradas de alto riesgo. Esta tendencia recuerda al debate de la última década que oponía la defensa de la criptografía fuerte al combate contra la circulación de material de abuso sexual infantil, dividiendo en grupos opuestos, de manera simplista, a defensores de la privacidad y defensores de la infancia.

Más allá de soluciones fáciles

Esa falsa oposición plantea trampas que empobrecen el debate y dificultan la búsqueda de soluciones. Tiene, al menos, dos problemas centrales. El primero es no reconocer que niños y adolescentes, como sujetos de derechos, también tienen derecho a la privacidad y deben poder ejercerlo en el marco de su autonomía progresiva. Si pensamos en quienes viven en contextos familiares o comunitarios represivos, buscando información sobre su sexualidad o identidad de género, por ejemplo, este derecho se vuelve aún más importante.

Extender mecanismos de verificación de edad de manera indiscriminada altera la estructura de internet y puede afectar también a las propias infancias. No se trata de sacrificar las características fundamentales de la red como el acceso abierto y el anonimato relativo en nombre de su protección, porque ellas también se benefician de estas condiciones. El desafío es matizar el debate y reconocer las tensiones en juego, incluyendo en las discusiones regulatorias también agentes técnicos que puedan apoyar a desarrollar estos matices.

El segundo problema es desconsiderar que las tecnologías operan dentro de entramados sociotécnicos complejos. Así como no son, de manera aislada, la raíz de los riesgos que enfrentan niños y adolescentes, tampoco serán, de manera aislada, la solución.

Debemos discutir seriamente temas como la cultura de la violación y la ausencia de educación sexual en las escuelas, y cómo estas problemáticas atraviesan desigualdades de género y raza. En América Latina, entre 2018 y 2022, casi 490.000 niñas con menos de 18 años fueron víctimas de delitos contra su dignidad sexual, un dato que evidencia la urgencia de ese debate. Además, es necesario debatir el modelo económico que sostiene internet: el capitalismo de vigilancia. Un sistema nocivo para todos los usuarios, pero que impacta de manera particularmente severa a niños, niñas y adolescentes.

Estamos en un potencial punto de inflexión en la forma en que se estructura la internet y circulan sus usuarios. El debate sobre la protección de las infancias es indispensable, pero no puede reducirse a fórmulas simplistas ni a la falsa oposición entre privacidad y seguridad. América Latina no debe importar soluciones regulatorias prefabricadas sin crítica, sino comprometerse en un proyecto político y social que coloque a niños, niñas y adolescentes en toda su diversidad en el centro de un futuro digital verdaderamente justo.

De la promesa tecnológica al control estatal: lo que revela el caso mexicano

En junio de 2025, México aprobó un paquete legislativo que incluyó reformas a la Ley de la Guardia Nacional, la Ley General de Población y la Ley General en Materia de Desaparición Forzada. Este conjunto de reformas legales creó una Clave Única de Registro de Población (CURP) biométrica que es obligatoria para acceder a servicios públicos y privados. Además, amplió significativamente las facultades de inteligencia de las Fuerzas Armadas y la Guardia Nacional. Esto se llevó a cabo a pesar de la movilización de organizaciones de la sociedad civil, que advirtieron sobre los graves riesgos que estas reformas representan para los derechos humanos y la democracia en el país.

Lejos de ser un caso aislado, este proceso refleja una tendencia regional cada vez más extendida en América Latina: la consolidación de infraestructuras de vigilancia y control social, legitimadas a través de reformas legales y sustentadas en el uso de tecnologías digitales y biométricas. Este fenómeno revela un panorama en que el tecnosolucionismo y la seguridad se utilizan como argumentos para erosionar libertades, reforzar el poder estatal y profundizar desigualdades estructurales.

Promesas y peligros de la identidad digital

La creación de la CURP biométrica en México implica el establecimiento de una base de datos centralizada que asocia el número único de registro de cada persona con sus datos biométricos, como huellas dactilares y fotografía. El objetivo declarado por el Gobierno es responder a la crisis generada por la creciente desaparición de personas, mediante la construcción de un sistema que permita registrar y rastrear cada interacción y movimiento de la ciudadanía en su vida cotidiana, desde el acceso a servicios públicos hasta actividades privadas, con el fin de facilitar su identificación y localización.

Al tratarse de un registro obligatorio, se elimina la posibilidad de un consentimiento informado sobre la recolección y el uso de los datos personales, lo que agrava los riesgos para la autonomía y la privacidad. Además, habría que considerar qué ocurre con quienes no logran registrarse: ¿quedarán excluidos del acceso a servicios esenciales? La obligatoriedad de la CURP biométrica como requisito para acceder a servicios públicos y privados implica que quienes no estén registrados en esta base o no puedan hacerlo quedarán fuera de derechos y prestaciones básicas.

Así, personas que no logran acercarse a los centros de registro, sobre todo las que viven en zonas remotas; aquellas que no tienen datos biométricos que puedan ser recopilados (como personas mayores con huellas dactilares deterioradas o personas con ciertas discapacidades); y personas trans cuya identidad de género y nombre social no se reflejan en su CURP -especialmente considerando que varios estados mexicanos no reconocen legalmente el nombre social- quedan aún más marginadas. Es decir, además de profundizar desigualdades estructurales ya existentes, este tipo de medidas produce nuevas formas de exclusión, reforzando barreras institucionales y sociales que afectan de manera desproporcionada a los grupos sociales históricamente excluidos.

Al mismo tiempo, este tipo de infraestructura plantea serias preocupaciones en términos de privacidad y desafía directamente el derecho al anonimato. El anonimato protege a las personas frente al rastreo constante de sus actividades y opiniones, especialmente en contextos donde disentir puede tener consecuencias.

También conlleva importantes riesgos en materia de ciberseguridad: aunque existen distintos niveles de madurez en ciberseguridad en los Estados de América Latina, se han registrado repetidos ataques y vulneraciones a bases de datos públicas en varios países. Las filtraciones de datos biométricos resultan especialmente graves, ya que se trata de información que, a diferencia de una contraseña, no puede ser modificada: forma parte intrínseca de la identidad física de cada persona. Su exposición indebida, así, puede llevar a fraudes y robo de identidad.

La creación de bases de datos centralizadas y la recopilación indiscriminada de datos biométricos no son fenómenos exclusivos de México. En 2023, Derechos Digitales ya advertía de la tendencia en un informe sobre la proliferación de sistemas de identidad digital en América Latina, señalando los riesgos asociados y la falta de controles efectivos, como la ausencia de garantías judiciales, la opacidad en el uso de los datos y el acceso por parte de múltiples entidades estatales sin supervisión.

Sin embargo, hay ejemplos que muestran decisiones orientadas a establecer límites: en Brasil, en 2022, el Supremo Tribunal Federal decidió imponer restricciones significativas al Cadastro Base do Cidadão -una base de datos también con información biométrica creada por decreto presidencial- al considerar inconstitucional el acceso irrestricto por parte de todos los órganos gubernamentales, reforzando así la necesidad de controles judiciales y criterios de proporcionalidad. Esta discusión resulta especialmente pertinente para México, donde el nuevo paquete legislativo otorga acceso a la base de datos biométrica a diversas instancias de inteligencia y a las Fuerzas Armadas sin requerir autorización judicial ni mecanismos de control democrático.

Inteligencia sin control: el poder opaco

Las reformas legales recientes en México otorgan a las Fuerzas Armadas y a la Guardia Nacional un poder sin precedentes en materia de inteligencia. Estas instituciones reciben facultades ampliadas para realizar labores de vigilancia e interceptación de comunicaciones sin necesidad de autorización judicial, eliminando cualquier contrapeso democrático. Además, se les concede acceso irrestricto a la base de datos de la CURP biométrica, lo que les permite rastrear de forma masiva e indiscriminada a la población, sin que las personas sean informadas de que sus datos están siendo consultados o utilizados.

Este escenario se ve agravado por la decisión del gobierno mexicano, aprobada en marzo de 2025 por el Congreso, de eliminar instituciones autónomas clave, como el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI). El órgano tenía entre sus competencias garantizar la protección de datos personales y el acceso a la información, y su extinción implica un grave retroceso en materia de transparencia y rendición de cuentas. En este contexto, también resulta pertinente llamar la atención sobre la recientemente aprobada Convención de Cibercrimen de la ONU, que fue incluso apoyada por México, cuyo enfoque favorece a la vigilancia y el intercambio transfronterizo de datos entre agencias sin establecer salvaguardas suficientes en materia de derechos humanos, privacidad y debido proceso.

Las nuevas leyes mexicanas legitiman la vigilancia permanente y opaca, donde el control estatal se expande sin supervisión efectiva. Se trata de una tendencia que no es exclusiva de México. En Argentina, por ejemplo, se transfirió el control de la ciberseguridad a la Secretaría de Inteligencia del Estado (SIDE), consolidando un aparato de vigilancia bajo mando directo del Poder Ejecutivo y debilitando garantías fundamentales. A esto se suma la aprobación reciente de la Ley de Inteligencia en Ecuador, que otorgó facultades amplias y ambiguas a los organismos de inteligencia, sin mecanismos claros de transparencia ni rendición de cuentas.

La tendencia regional apunta a un mismo patrón: justificar el incremento de poderes de vigilancia en nombre de la seguridad nacional, mientras se consolidan estructuras estatales cada vez más autoritarias. Estas reformas fortalecen un poder opaco, erosionan las garantías democráticas y colocan a las poblaciones en una situación de vulnerabilidad constante frente al Estado.

Tecnología como atajo político: el falso remedio

Como se mencionó, el principal argumento del gobierno mexicano para impulsar la CURP biométrica y el nuevo paquete de reformas fue responder a la crisis nacional de desapariciones. Actualmente, México enfrenta más de 129.000 personas desaparecidas, más de 5.600 fosas clandestinas y una crisis forense con más de 70.000 cuerpos sin identificar. Se trata de una situación extrema que exige respuestas urgentes, integrales y respetuosas de los Derechos Humanos.

Sin embargo, el paquete de leyes no fue acompañado de argumentos que sostengan de forma clara y verificable cómo estas reformas legales y la nueva infraestructura de vigilancia contribuirían efectivamente a resolver esta crisis. Por el contrario, las causas estructurales, como la impunidad, corrupción, falta de capacidades forenses e institucionales, no fueron enfrentadas por las reformas. Colectivos de familias buscadoras y organizaciones de derechos digitales han advertido que el paquete legislativo no sólo elude las verdaderas causas de la crisis, sino que instala un sistema de vigilancia masiva sin garantías, que expone aún más a las personas defensoras y a la población en situación de vulnerabilidad.

El tecnosolucionismo presenta la tecnología como una solución mágica a problemas sociales complejos. Pero la tecnología, por sí sola, no resuelve esos problemas ni sustituye políticas públicas integrales. Al contrario, su implementación desmedida y sin garantías puede generar nuevas capas de control social, agravando riesgos a los derechos humanos.

Este fenómeno se agrava cuando las reformas legales y la adopción de tecnologías se realizan sin participación social ni debate público, como pasó en México. En América Latina, esta tendencia es cada vez más visible. Por ejemplo, la implementación creciente de tecnologías de reconocimiento facial para supuestamente mejorar la seguridad pública se ha justificado sin evidencia alguna de su efectividad ni participación social. En cambio, hay abundante evidencia de que estas tecnologías profundizan la discriminación y la violencia contra poblaciones ya marginalizadas, especialmente personas negras y trans.

Es importante reconocer que esta problemática y la narrativa del tecnosolucionismo no se limita a contextos autoritarios. Aunque se agrave en estos casos, también se observan en países cuyos gobiernos se presentan como defensores de los Derechos Humanos. Abordar la implementación de tecnologías desde un enfoque de derechos implica cuestionar quién la diseña y cómo se implementa, con qué objetivos y bajo qué condiciones, priorizando siempre la autonomía y la dignidad de las personas. Cuando el uso de estas tecnologías se legitima a través de legislaciones que no respetan marcos de Derechos Humanos ni contemplan procesos con participación social significativa, su implementación termina consolidando estructuras de control que perpetúan la vigilancia y la exclusión, en lugar de fortalecer la democracia y garantizar derechos.

Tendencias y prácticas de vigilancia en América Latina

Este informe fue realizado en conjunto por el Consorcio Al Sur, del cual Derechos Digitales forma parte. El documento explora cómo las prácticas de vigilancia se han expandido en América Latina en los últimos años, marcadas por el avance de tecnologías digitales y la falta de regulaciones adecuadas. A través del análisis de casos en países como Argentina, Brasil, Chile, Colombia y México, se evidencia una creciente adopción de sistemas de videovigilancia, reconocimiento facial, monitoreo de redes sociales y recopilación masiva de datos por parte del Estado, a menudo sin transparencia ni control democrático.

El informe advierte sobre la normalización de estas prácticas bajo discursos de seguridad, combate al crimen o control sanitario, especialmente durante la pandemia de COVID-19. También destaca la participación de empresas privadas y actores internacionales en la provisión de tecnologías, muchas veces sin marcos que garanticen la protección de derechos fundamentales como la privacidad, la libertad de expresión y la no discriminación. Se concluye que la región enfrenta una expansión silenciosa de sistemas de vigilancia que requieren respuestas urgentes: legislación robusta, mecanismos de rendición de cuentas, participación ciudadana y gobernanza basada en derechos humanos.

Hablar en clave para existir: resistencias digitales frente a la censura algorítmica

Estas frases alteradas aparecen en redes cada vez que abordamos temas que desafían las normas impuestas por el algoritmo: 4bu$o s3xual, su1c1d1o, desvivir. Se le llama “algospeak” a estas estrategias de lenguaje que buscan eludir la vigilancia de plataformas como TikTok, YouTube o Instagram a ciertos contenidos considerados inapropiados. Así se forma un código lleno de caracteres y eufemismos que no surge de la creatividad, sino de la necesidad de resistir un sistema que a menudo castiga la discusión de una realidad muchas veces incómoda mediante el silenciamiento.

La gestión algorítmica no solo limita el presente, también interviene en la posibilidad de construir futuros más justos. Al condicionar qué narrativas son visibles y cuáles no, los algoritmos afectan directamente la capacidad de articular ideas, reflexiones, desacuerdos y alternativas.

Las voces que denuncian violencias estructurales son etiquetadas como “inapropiadas” o simplemente eliminadas. De hecho, las personas defensoras de derechos humanos, activistas y periodistas son especialmente afectadas, porque sus relatos son sistemáticamente considerados como “sensibles” o “peligrosos” por sistemas que no entienden el contexto ni el propósito de las expresiones detectadas por los filtros automatizados.

Esta jerarquización automática de los discursos revela una visión del mundo profundamente sesgada. El algospeak es síntoma de un entorno que redefine lo que podemos decir, que aplica controles automáticos y reorganiza lo que consideramos importante. Pero el daño no es solo individual: afecta también lo que recordamos y cómo construimos colectivamente nuestros relatos en la defensa de los derechos humanos.

La doble vara del algoritmo

Los estándares de las plataformas no se aplican con el mismo rigor para todos los contenidos ni para todas las voces. Un ejemplo claro de este desbalance ocurrió en México, cuando publicaciones que denunciaban abusos policiales fueron eliminadas por usar música con derechos de autor. Aunque el objetivo era denunciar violencia institucional, el algoritmo priorizó la protección de propiedad intelectual por sobre el derecho a la verdad y la justicia. Al mismo tiempo, contenidos que promovían discursos misóginos o racistas se mantuvieron visibles sin consecuencias.

Esta doble vara, que castiga la denuncia y deja pasar el abuso, no es un error: es una consecuencia directa de sistemas diseñados sin contexto, sin perspectiva de derechos y sin rendición de cuentas. Se censuran las pruebas, pero no las violencias. Se penalizan las denuncias, pero no las estructuras que las provocan. Al proteger ciertas narrativas y silenciar otras, los algoritmos refuerzan el statu quo y erosionan las posibilidades de transformación social.

Además, según recoge la Red Internacional de Periodistas, este es un juego asimétrico. En ese laberinto de claves y restricciones, lo que está en riesgo no es solo el alcance inmediato; las denuncias se vuelven más difíciles de rastrear, y la información concreta de organizaciones, activistas o movimientos sociales desaparece para quienes más la necesitan.

El impacto en la acción colectiva y la memoria

El control automático que penaliza palabras sin ponerlas en contexto condiciona la forma en que narramos nuestras luchas, ya que nos obliga a moldear las palabras que usamos para nombrar nuestras realidades. En muchos casos, estas son palabras que han costado años conceptualizar y consensuar dentro de los movimientos sociales. Al no llamar las cosas por su nombre, se diluye el mensaje y se fragmenta la memoria colectiva.

Como advierte la revista Forced Migration Review, cuando comunidades en condiciones vulnerables se reapropian de términos o usan lenguajes de denuncia, los algoritmos parecen ser más efectivos para eliminar sus contenidos que para moderar discursos de odio o acoso que les atacan. Este desbalance se vuelve crítico cuando miramos quiénes quedan sistemáticamente fuera de las reglas del juego. Las experiencias de personas refugiadas y/o racializadas, por ejemplo, se vuelven aún más invisibilizadas.

Existe un desfase entre los contextos locales y las reglas impuestas globalmente por las plataformas. Muchas veces, los sistemas de moderación algorítmica no están adaptados a las realidades sociales, culturales y lingüísticas de comunidades del Sur Global, lo que intensifica la exclusión digital. Una palabra que en un idioma puede ser una forma legítima de denuncia, en otro es catalogada como violenta o riesgosa. Esta desconexión refuerza la desigualdad en el acceso a la palabra pública y subraya la necesidad de una moderación en el entorno digital que escuche y responda a las realidades plurales que habitan internet.

Quienes dominan los códigos pueden sortear la censura; quienes no, quedan afuera de la conversación. El Digital Future Society alerta que a activistas, creadores de contenido y periodistas se les exige desarrollar un lenguaje que se reinventa una y otra vez frente a la opacidad algorítmica. Pero cuando las palabras cambian constantemente para eludir la censura, se vuelve más difícil ponerlas en común y hacerlas accesibles para otras personas. Frente a estas restricciones debemos repensar cómo nos comunicamos y qué estrategias podemos adoptar.

¿Cómo resistimos?

Nombrar con claridad es un acto político. Llamar las cosas por su nombre, sin eufemismos, es también una forma de resistencia. Reapropiarse del lenguaje algorítmico no significa aceptarlo, sino visibilizarlo como síntoma de un sistema injusto. Algunas organizaciones ya crean glosarios y recursos compartidos para descifrar el algospeak, como el Algospeak Dictionary del Colectivo de Derechos Digitales para la Salud y los Derechos Sexuales y Reproductivos. Democratizar estos conocimientos es clave para que más personas puedan resistir y participar.

También necesitamos exigir mayor transparencia algorítmica. Las plataformas deben explicar cómo moderan y bajo qué criterios y con qué sesgos. Este reclamo no es técnico: es político. Implica defender la libertad de expresión, pero también proteger los temas políticos, culturales y sociales que importan y que hoy están siendo eliminados por sistemas automatizados.

Por último, urge construir y habilitar redes que no estén subordinadas a intereses corporativos. Espacios descentralizados como el fediverso, los medios comunitarios, cooperativas digitales o las alianzas entre organizaciones pueden resguardar nuestras narrativas y sostener la memoria. Resistir también es cuidar redes donde nuestras palabras no sean censuradas por algoritmos opacos.

Palabras que pesan

Las palabras tienen peso. Y cuando las escribimos completas, aunque duelan, aunque molesten, estamos recordando que hay cosas que no pueden ser contenidas, ni siquiera por un algoritmo. Recuperar el lenguaje, cuidarlo y defenderlo es una tarea urgente para quienes luchan por una internet más justa.

En tiempos de automatización y censura silenciosa, reapropiarnos del derecho a nombrar también es reapropiarnos del derecho a existir. No basta con adaptarse: necesitamos transformar el entorno digital para que nuestras palabras no tengan que esconderse.

Análisis sobre el proyecto de Ley de Inteligencia en Ecuador

En la Asamblea Legislativa de Ecuador avanza la discusión del «Proyecto de ley orgánica de inteligencia» que, si bien busca responder a los retos que enfrenta el país en materia de seguridad nacional, propone un articulado que genera preocupación por su nivel de desprotección de los derechos humanos.