Las tecnologías del ICE y el perverso sistema automatizado de persecución a migrantes latinos

La administración Trump ha convertido al Servicio de Inmigración y Control de Aduanas de EE. UU. (ICE, por sus siglas en inglés) en una agencia de vigilancia masiva. Con un presupuesto que supera los USD 28.000 millones en 2025 (el triple que el año anterior), la agencia ha tejido una red que cruza bases de datos gubernamentales, compra información de empresas y despliega tecnología en las calles.

Un migrante mexicano lo descubrió cuando el ICE rastreó las transferencias de remesas que enviaba a su familia en México, identificó su dirección en Hawái y lo arrestó, pese a no tener antecedentes criminales. En Chicago, una mujer colombiana fue detenida en lo que parecía una parada de tráfico rutinaria: su vehículo había sido marcado con anticipación, cruzando registros estatales con bases de datos federales. Otro migrante mexicano, que vendía flores en una ciudad de Los Ángeles, estuvo semanas detenido porque el ICE lo confundió con un sospechoso de nombre similar, pese a tener documentos que probaban su inocencia. Tres casos, tres tecnologías distintas, un mismo sistema.

La agencia lleva años construyendo este ecosistema de vigilancia, una arquitectura de datos originalmente creada tras el 11 de septiembre para “combatir terroristas”, ahora redirigida hacia comunidades migrantes que trabajan y sostienen la economía del país. Un embudo que comienza con datos que las personas mismas generan (remesas, registros vehiculares, ubicaciones de celular), pasa por el cruce con bases de datos gubernamentales y comerciales, y termina en una operación de calle donde un agente ICE con un teléfono decide el destino de alguien en segundos. Un sistema que, en ese proceso, no distingue entre quien tiene una orden de deportación y quien simplemente existe en sus bases de datos.

Etapa 1: la maquinaria de recolección masiva de datos

El punto de partida del sistema son los datos. ICE no recolecta la mayoría de la información por sí misma: la compra. Cada vez que alguien paga una factura de luz, manda una remesa, saca una licencia de conducir o publica algo en redes sociales, esa información puede terminar en manos de la agencia. Empresas como Thomson Reuters y LexisNexis reúnen datos de múltiples fuentes sobre una misma persona (historiales de crédito, direcciones, números de teléfono, registros vehiculares, vínculos familiares) y se los venden al ICE. No hace falta una orden judicial, ya que la ley no lo exige cuando los datos los vende una empresa privada, y esa es exactamente la puerta de entrada del ICE.

El celular también delata. Aplicaciones que millones de personas utilizan a diario registran su ubicación constantemente, y empresas como Venntel o PenLink capturan y revenden al gobierno esos registros de movimientos a través de GPS. Y en la calle, la red Flock Safety opera 100.000 cámaras en 49 estados que leen 20.000 millones de matrículas de automóviles al mes.

A eso se suman los datos biométricos. La foto de la licencia de conducir queda en bases de datos estatales a las que el ICE tiene acceso. Clearview AI fue más lejos: extrajo imágenes de redes sociales y sitios de noticias hasta acumular más de 50.000 millones de rostros, y el ICE firmó un contrato para aprovechar esa base. Por último, lo que el propio Estado ya sabía también está disponible, como por ejemplo declaraciones de impuestos, registros médicos de Medicaid y datos del Seguro Social. En 2025, un juez federal determinó que el IRS, la autoridad tributaria norteamericana, infringió la ley aproximadamente 42.000 veces al compartir datos de contribuyentes con el ICE.

Etapa 2: la inteligencia artificial convierte datos en objetivos

La información recolectada en la primera etapa no es suficiente. El sistema necesita convertirla en personas localizables, y para eso existen empresas como Palantir. Fundada con capital de la CIA, esta compañía tecnológica mantiene contratos con el ICE desde 2011. Su plataforma cruza todas las fuentes de información de la etapa anterior y construye un perfil con ubicación probable. No es una búsqueda manual, es un modelo de IA que procesa miles de variables para determinar dónde podría estar alguien ahora mismo.

La herramienta más reveladora que Palantir desarrolló para el ICE es ELITE. Funciona, según un agente que testificó bajo juramento ante un tribunal, como un Google Maps de personas deportables. Básicamente muestra en un mapa la ubicación posible de cada objetivo, con una puntuación de probabilidad. Para calcularla, cruza, por ejemplo, la dirección registrada en Medicaid con el último registro de GPS y la última vez que su placa fue captada por una cámara. Además, construye un expediente automático con antecedentes penales y órdenes judiciales. El sistema tiene restricciones internas sobre qué puede hacer y a quién puede marcar como objetivo. Sin embargo, en ciertos operativos que la agencia denomina “especiales”, aplican filtros distintos para identificar personas que en condiciones normales no calificarían como objetivo. Hasta ahora, el ICE no ha explicado públicamente cuándo ocurre esto ni quién lo autoriza.

En 2025, el organismo migratorio pagó USD 30 millones adicionales para expandir ese sistema y construir ImmigrationOS, una plataforma diseñada para rastrear a una persona desde que entra al país hasta que es deportada, con seguimiento en tiempo real. Una persona que entró al sistema como un dato termina aquí reducida a un caso con estado y fecha estimada de salida del país, sin haber sido escuchada ni haber podido refutar lo que el algoritmo decidió sobre ella.

Etapa 3: cualquier calle puede ser una zona de vigilancia

Con un objetivo identificado, el sistema pasa de los algoritmos a la calle. El agente llega con una aplicación llamada Mobile Fortify en su teléfono del gobierno, apunta a la cara de cualquier persona (no necesariamente la que buscaba), y en segundos coteja esa imagen con millones de fotografías recolectadas previamente en la Etapa 1. Vale aclarar que esas fotografías recolectadas fueron tomadas sin el aviso correspondiente: las personas no saben que algún día esos registros formarán parte de un sistema de identificación masiva. Si hay coincidencia, el sistema devuelve nombre, fecha de nacimiento, nacionalidad y si existe una orden de deportación. Si la imagen facial no es suficiente, otra herramienta de BI2 Technologies repite el proceso con el iris del ojo. Todo esto ocurre en la calle, sin que la persona haya hecho nada, sin que lo sepa, y sin que ningún juez lo haya autorizado.

Lo más preocupante de Mobile Fortify es que fue desplegada mientras aún estaba en fase de prueba, sin evaluación de impacto sobre privacidad. Aún más, no cuenta con precisión. En un caso documentado ante un tribunal en Oregon, el sistema escaneó a la misma mujer dos veces y devolvió dos nombres diferentes. Aun así, el ICE trata sus resultados como prueba definitiva, por encima incluso de un acta de nacimiento.

Incluso hay herramientas que operan de forma aún más encubierta. Los simuladores celulares, conocidos también como IMSI Catchers, se disfrazan de torres de telefonía para forzar a los teléfonos cercanos a conectarse e identificar qué dispositivos están en un área. La agencia migratoria compró vehículos equipados con estos artefactos para desplegarlos de forma encubierta en vecindarios específicos. Para quienes están en proceso migratorio existe SmartLINK, una aplicación que el ICE obliga a instalar en el teléfono personal, que rastrea la ubicación y exige verificaciones periódicas mediante reconocimiento facial. Una migrante colombiana en California lo descubrió cuando la app le bloqueó un viaje a otro estado. Cuando preguntó, un oficial le dijo que ella no había hecho nada malo, era una decisión discrecional del organismo.

Cuando las personas migrantes están detenidas, sufren una mayor pérdida de privacidad. Dispositivos de las empresas Cellebrite y Magnet Forensics desbloquean y copian el contenido completo de un teléfono en minutos, como mensajes, fotos, historial de ubicación y contactos. De hecho, aplicaciones con cifrado, como WhatsApp, no pueden proteger la información en este orden. El cifrado impide que los mensajes sean interceptados mientras viajan por internet, pero una vez que el teléfono está desbloqueado en manos de un agente, ese cifrado es irrelevante. Las conversaciones de una persona detenida pueden convertirse en el punto de partida para rastrear a otras que nunca tuvieron contacto con el ICE.

Protegerse también es una forma de resistir

Entender cómo funciona este sistema ya es una forma de resistencia. Para quienes están migrando o piensan hacerlo, ese conocimiento puede marcar la diferencia desde el primer día. El celular es la fuente de datos más vulnerable. Utilizar Signal, en vez de WhatsApp, reduce significativamente el rastro: Signal no almacena metadatos ni comparte información con terceros. Revisar qué aplicaciones tienen acceso a la ubicación y revocar los permisos innecesarios limita lo que empresas pueden capturar y vender. En zonas con alta presencia del ICE, una bolsa Faraday bloquea todas las señales del teléfono móvil, impidiendo que los simuladores celulares lo detecten. Y en redes sociales, publicar ubicaciones o etiquetar lugares es entregar voluntariamente la información que el sistema pagaría por obtener.

Sin embargo, las medidas individuales tienen un límite, el sistema descrito no se puede desmontar con una app. La Electronic Frontier Foundation publica guías gratuitas y actualizadas sobre cómo proteger la privacidad digital en situaciones de riesgo, su sección Surveillance Self-Defense es un punto de partida concreto. Organizaciones como ACLU, National Immigration Law Center y Just Futures Law están litigando activamente en esa dirección. Difundir su trabajo y exigir a los representantes que tomen posición es también una forma de actuar.

¿La libertad de las personas depende de un algoritmo?

Lo que Edward Snowden reveló en 2013 sobre la vigilancia masiva de la NSA pareció, en su momento, el límite de lo imaginable. Hoy, el accionar del ICE lo supera ampliamente. A diferencia de los programas de Snowden, este sistema no opera en las sombras, tiene contratos públicos, nombres de empresas y cifras de inversión.

Este sistema perverso no termina en el momento de la detención. Las fotografías tomadas por Mobile Fortify se almacenan por 15 años; los contactos extraídos del teléfono de una persona detenida se convierten en nuevos sujetos de interés. Y detrás de cada etapa hay una empresa que factura. El Brennan Center lo llama un “complejo industrial de deportación”, empresas cuyos ingresos dependen directamente del desarrollo y crecimiento del sistema automatizado.

La IA comete errores, como cualquier sistema automatizado. Hay una diferencia fundamental entre una IA entrenada para recomendar películas y una entrenada con décadas de datos de agencias de seguridad estadounidenses para localizar personas y deportarlas. Cuando la primera se equivoca, ves una película que no te gusta. Cuando la segunda se equivoca, una persona inocente termina detenida semanas, como aquel migrante mexicano que trabajaba vendiendo flores. El problema no es solo el error, es que incluso cuando el sistema funciona como fue diseñado, una persona pierde su libertad por decisión de un algoritmo, sin que nadie la haya visto ni escuchado y sin que haya podido defenderse. La pregunta que ninguna agencia ha respondido es quién asume la responsabilidad por eso, y la respuesta, hasta ahora, brilla por su ausencia.

Palantir, Clearview, Thomson Reuters, LexisNexis, GEO Group: estas son solo algunas de las empresas que forman este ecosistema (hay decenas más que no se mencionaron). Lo que se describió en esta columna es sólo una fracción de esta arquitectura de vigilancia que sigue creciendo, contrato por contrato, dato por dato. En el aire queda una pregunta que, no debe abordarse desde un aspecto tecnológico, sino más bien desde la dimensión ético-política: ¿qué clase de sociedades se moldean cuando se construyen sistemas capaces de privar de la libertad a las personas en base a una puntuación y una fecha de deportación? ¿Quiénes son las primeras y principales víctimas de este sistema de expulsión automatizado?

La guerra por otros medios: control de software e infraestructura estratégica

La guerra que comenzaron Israel y EE. UU. contra Irán acapara la agenda mediática. Las pantallas se inundan constantemente de bombardeos mutuos e imágenes impactantes que parecen tomadas de un filme o de un videojuego. Sin embargo, hay elementos de este conflicto que no se llegan a ver tan fácilmente: existe otra arista de la guerra que tiene a la tecnología como protagonista.

La batalla también se libra a través de los medios de comunicación en las narrativas contradictorias entre un bando y otro. Ello complejiza la posibilidad de encontrar certezas en medio de un contexto bélico de estas características. Sin embargo, hay elementos que son plausibles de ser analizados como ciertos.

En varios medios circula la noticia sobre el trabajo de inteligencia que realizaron Israel y EE. UU. para lograr ejecutar al ayatolá Ali Khamenei. Entre las tareas de inteligencia, se dice que habrían intervenido cámaras de tráfico y de circuitos cerrados en algunas oficinas donde se desempeñaban los altos mandos militares de Irán. Con toda esa información les fue posible determinar la ubicación del ayatolá, e incluso conocer cuáles podían ser sus vías de evacuación.

Ante esta situación, y más allá de las particularidades del propio conflicto en Oriente Próximo, cabe preguntarse: ¿qué tan seguros son los sistemas tecnológicos de nuestros países? ¿La dependencia tecnológica es una brecha de seguridad para los Estados? ¿Existe alguna forma de minimizar este riesgo? Para reflexionar sobre estas preguntas iremos por partes.

Dependencia tecnológica

Es de público conocimiento que un gran porcentaje de Estados dependen tecnológicamente de un puñado de países que tienen la capacidad productiva para fabricar dispositivos electrónicos. Como venimos señalado en Derechos Digitales, América Latina no escapa a ese contexto. Es así como cada dispositivo tecnológico -en nuestras casas, lugares de trabajo y espacios públicos- fue diseñado y construido por empresas radicadas en el Norte Global y en algunas regiones de Asia.

Ahora bien, ¿son confiables en términos de seguridad los dispositivos que utilizamos? Y más aún: ¿hay posibilidades de que las instituciones de seguridad de los Estados donde están localizadas estas empresas hayan generado acuerdos con ellas para tener acceso a los dispositivos en caso de “ser necesario”?

En la historia reciente, existe suficiente evidencia y ejemplos como para suponer que los dispositivos electrónicos pueden ser intervenidos, tanto en situaciones de conflictos como también con el fin de desplegar vigilancia masiva. Conocido es el caso en que el ex analista de inteligencia de la CIA y la NSA, Edward Snowden, denunció en 2013 públicamente con documentos el funcionamiento de una vasta red de vigilancia global por parte de EE. UU. y países aliados, facilitada a partir de la colaboración con distintas empresas de tecnología.

Más recientemente, Israel se atribuyó en 2024 ataques simultáneos en Siria y el Líbano a través de equipos electrónicos que contaban con carga explosiva. Situación que originó gran preocupación en organizaciones internacionales de Derechos Humanos debido a lo indiscriminado de los ataques. También cabe recordar que, días atrás, se generó una polémica entre el Pentágono y Anthropic, la empresa detrás del motor de inteligencia artificial Claude. La discusión se centra en que el Pentágono solicita a la empresa quitar los límites éticos del motor para poder utilizarlo en vigilancia masiva y manejo autónomo de armas. La compañía se negó, e incluso demandó al Pentágono por exceder su autoridad y sus salvaguardas éticas, violando derechos básicos.

A primera vista, la guerra parece un tema lejano para la historia de los últimos años en América Latina. Sin embargo, las recientes operaciones militares estadounidenses en las inmediaciones de Cuba, o en Venezuela, por ejemplo, encienden las alarmas. En este convulsionado contexto, ¿es razonable pensar que en el corto o mediano plazo nuestra región se pueda ver involucrada en algún conflicto de mayor escala? Si ese fuera el escenario, ¿la dependencia tecnológica representaría una brecha de seguridad y soberanía para los países latinoamericanos? Si analizamos los antecedentes antes mencionados, la respuesta es que muy probablemente sí.

Minimización de la brecha

En la actual división global del trabajo, solo algunos países poseen la capacidad para diseñar y construir dispositivos electrónicos. Esta situación deja en desventaja al resto de los países del mundo que, en un futuro inmediato pero también en un período prolongado de tiempo, precisan invertir en tecnologías y capacidades humanas que no están dispuestos a pagar, o ni siquiera pueden afrontarlo.

Ahora bien, los equipos electrónicos se componen esencialmente de dos capas: la física y la lógica (hardware y software, respectivamente). Esta distinción cobra gran relevancia en el análisis que proponemos. Si bien no todos los Estados tienen la capacidad de construir la capa física, ¿qué sucede con la capa lógica?

La capa lógica, o software, es un programa computacional. Dentro de la gama de programas computacionales, nos referiremos a los que pertenecen a las categorías de “sistema operativo” o “firmware”. En ambos casos, se trata de programas de bajo nivel que interactúan directamente con el hardware (capa física). Para nombrar algunos ejemplos, podemos mencionar los sistemas operativos Windows, OSx y GNU/Linux, como así también aquellos que permiten el funcionamiento de teléfonos como iOS y Android.

De la misma forma ocurre con los sistemas de videovigilancia. Se componen de cámaras y de un sistema central que procesa y gestiona las grabaciones, llamado DVR (Digital Video Recorder) o NVR (Network Video Recorder) en función de la forma en que las cámaras se comunican: analógica o digital respectivamente. Dicho centro de procesamiento actúa como un ordenador especializado para esa tarea y, por tanto, posee un firmware o sistema operativo para su funcionamiento. Dentro de sus funciones están: configurar las cámaras, gestionar grabaciones y administrar el control de acceso.

Los sistemas de videovigilancia desactualizados pueden poseer vulnerabilidades, que ya son conocidas. A la vez, existe una gran cantidad de documentación pública sobre cómo explotar esas vulnerabilidades para acceder a los sistemas de videovigilancia, como por ejemplo el proyecto Shodan. Por lo tanto, si ya son conocidas las debilidades en sistemas desactualizados, es muy probable que empresas de seguridad ofensiva tengan herramientas para vulnerar la seguridad de estos dispositivos, tal como se afirma en el portal especializado Wired. De forma alternativa, existen una serie de proyectos de código abierto para administrar cámaras que cuentan con las ventajas ya mencionadas.

Por otra parte, otra característica de la capa lógica es que puede estar construida de forma cerrada o abierta. La forma cerrada (o software privativo) refiere a programas que desarrollan empresas para el manejo de equipos en el que la persona usuaria final no puede analizar, modificar o mejorar el código fuente. Generalmente, viene precargado en el dispositivo en forma de archivo ejecutable, el cual es ilegible. En la otra vereda, está la forma abierta (o software libre) vinculada a programas que, en muchos casos, son construidos de forma comunitaria, e incluso pueden contar con colaboración de empresas. Su característica es que es totalmente abierto, disponible para analizar, modificar y mejorar.

Ahora bien, volvamos al cuestionamiento de la dependencia tecnológica sobre qué hacer si un dispositivo viene diseñado, por ejemplo, con una puerta trasera. En el caso de que la capa lógica esté desarrollada sobre la concepción de software privativo, es muy difícil poder identificarla y actuar para modificar su comportamiento con el fin de suprimir dicha vulnerabilidad, pues no hay acceso al código. Por el contrario, en el caso del software libre sí tenemos la posibilidad de hacer auditorias independientes, así como suprimir funciones o alterar su comportamiento, lo que a simple vista otorga una gran ventaja.

Otra desventaja del software privativo es que necesita de pagos periódicos para su actualización. Por distintos motivos, las instituciones no mantienen las versiones más actualizadas lo que las deja con mayor propensión a ataques de vulnerabilidades conocidas, como es el caso de Guacamaya Leaks. En aquel episodio, un grupo de hackers intervino sistemas de varias instituciones militares en América Latina, aprovechando, principalmente, estas debilidades de sus desactualizados sistemas de software pago.

Software libre y seguridad nacional

Con la proliferación de los sistemas digitales de comunicación y, más aún, con el Internet de las cosas (IoT), donde muchos dispositivos cotidianos están conectados entre sí, es sumamente importante analizar qué rol puede jugar la dependencia tecnológica en escenarios de conflicto, ya sea armados o no.

La discusión no puede quedarse en si el software privativo es mejor o peor que el software libre: en ambos casos se encontrarán vulnerabilidades. El análisis debe centrarse en el control que se puede tener de los dispositivos y sistemas. En ese sentido, el software libre corre con ventaja al permitir el control de las funciones y, al mismo tiempo, el acceso libre a las actualizaciones. Además, al tratarse de código abierto, el software libre habilita una permanente auditoría, por lo que es menos probable que contenga funciones maliciosas por diseño.

En un mundo donde las potencias se disputan recursos estratégicos en otros territorios, es indispensable que los Estados latinoamericanos reconfiguren, a mediano y largo plazo, su seguridad digital y las medidas necesarias para enfrentar una amenaza externa.

Elecciones en un terreno sin reglas claras

Cuando hablamos de desinformación electoral no nos referimos únicamente a “noticias falsas”. Se trata de un conjunto de prácticas que buscan influir en la percepción del electorado, instalar dudas sobre los procesos democráticos o desacreditar candidaturas e instituciones. Incluye desde encuestas falsas y declaraciones inventadas hasta campañas coordinadas de hostigamiento, manipulación de contenido y uso estratégico de tecnologías emergentes como la IA o los deepfakes. Como ha advertido Derechos Digitales en distintos trabajos, el problema no es solo la existencia de contenidos engañosos, sino el ecosistema que permite su circulación y amplificación.

Las elecciones presidenciales recientes en la región, como las de Chile, Bolivia o Costa Rica, muestran que estas dinámicas no son marginales, sino estructurales. Y todo indica que serán centrales en los procesos electorales que se avecinan en 2026 en países como Brasil, Colombia y Perú.

De fenómeno marginal a herramienta política

En los últimos años, la desinformación dejó de ser un fenómeno esporádico para convertirse en parte integrada de las estrategias de campaña. Una investigación reciente de Bolivia Verifica y ProBox sobre las elecciones bolivianas de 2025 lo resume de forma clara: la desinformación digital ya no es algo marginal, sino una práctica que se despliega sistemáticamente en momentos críticos del proceso electoral. Durante esos comicios, se identificaron alrededor de 250 contenidos falsos o engañosos, marcando un precedente en el volumen de desinformación en Bolivia, incluyendo un uso inédito de herramientas de inteligencia artificial.

El estudio también identificó patrones que se repiten en distintos países de la región. El más frecuente fue la circulación de declaraciones falsas atribuidas a candidaturas u otros actores públicos, utilizadas estratégicamente para influir en la intención de voto. En segundo lugar, destacaron las encuestas falsas, utilizadas para instalar percepciones sobre quién va ganando o perdiendo en la contienda.

Este tipo de contenidos no circula de forma aislada. Las campañas desinformativas operan de manera coordinada y multiplataforma. Según la investigación de Derechos Digitales sobre elecciones y desinformación en Brasil, una narrativa puede surgir en espacios abiertos como TikTok o X, escalar rápidamente y luego trasladarse a aplicaciones de mensajería como WhatsApp o Telegram, donde su circulación se vuelve más difícil de rastrear o contrarrestar.

Narrativas de fraude y erosión de la confianza democrática

Entre las distintas formas que adopta la desinformación electoral, una de las más persistentes es la instalación de narrativas de fraude. Estas narrativas no necesariamente buscan demostrar irregularidades reales, sino instalar una sospecha permanente sobre la legitimidad del proceso electoral.

En el caso boliviano, este tipo de contenido ocupó un lugar central en la conversación digital durante las elecciones de 2025. Tal como documentaron Bolivia Verifica y ProBox, circularon de forma masiva declaraciones falsas atribuidas a candidaturas, encuestas manipuladas y contenidos diseñados para desacreditar a actores políticos, medios de comunicación y al propio Tribunal Supremo Electoral, con el objetivo de erosionar la confianza en el proceso.

Un fenómeno distinto, pero relacionado, se observó en Costa Rica. Allí, más que instalar una narrativa técnica de fraude, se han visto intentos sostenidos de deslegitimar al Tribunal Supremo de Elecciones a través de contenidos engañosos y campañas de desprestigio, incluyendo la difusión de información falsa desde cuentas institucionales que luego debió ser eliminada. Estos episodios muestran cómo la desinformación puede apuntar directamente a debilitar la credibilidad de las autoridades electorales, incluso en contextos donde estas aún mantienen altos niveles de confianza pública.

Al final, estas supuestas evidencias o ataques directos a las instituciones, terminan funcionando como estrategias para erosionar la confianza en las reglas del juego democrático, desplazando el debate desde las propuestas hacia la legitimidad misma de la elección. En ese terreno, la narrativa anti-sistema no es inocua, ya que abre espacio y favorece a candidaturas que construyen su estrategia precisamente en tensionar las instituciones democráticas.

Violencia política digital y sus efectos en la participación

Otro de los aspectos más críticos de la desinformación electoral en la región es su vínculo con la violencia política de género. Las campañas digitales no afectan a todas las personas por igual, dado que las candidatas mujeres y las personas LGBTIQA+ son, de manera sistemática, objeto de ataques que combinan desinformación, hostigamiento y discursos estigmatizantes.

En Chile, durante la última campaña presidencial, se evidenció cómo redes de cuentas, muchas de ellas automatizadas, amplificaban ataques contra candidatas mujeres, mezclando contenido falso con insultos y discursos de odio. Este tipo de violencia no solo afecta a las personas directamente atacadas, sino que también tiene un efecto más amplio: desincentiva la participación política y restringe quiénes pueden ocupar el espacio público. A su vez, genera un efecto circular: a menor diversidad entre quienes participan y acceden a espacios de poder, menor es también la capacidad de impulsar políticas que aborden estas violencias y sus impactos.

La expansión de herramientas de inteligencia artificial añade una nueva capa a este fenómeno. Como ha documentado la organización Situada sobre deepfakes, estas tecnologías facilitan la creación de contenido manipulado, muchas veces de carácter sexual, que afecta de manera desproporcionada a mujeres. En contextos electorales, esto se traduce en una herramienta particularmente efectiva para desacreditar o intimidar candidatas, reforzando desigualdades estructurales.

En la región, esta dinámica no es aislada. Como advierte IDEA Internacional, la violencia política digital contra mujeres se ha consolidado como una forma sistemática de limitar su participación en la vida pública, combinando acoso, amenazas y desinformación con sesgo de género. Estos ataques no solo buscan desacreditar, sino también reducir su visibilidad y capacidad de incidencia en espacios de decisión.

Inteligencia artificial, regulación y nuevas asimetrías

El uso de inteligencia artificial en campañas políticas es una realidad en América Latina, pero su impacto no es homogéneo. Si bien estas tecnologías permiten producir contenido falso de manera más rápida y a menor costo, su circulación sigue dependiendo de las mismas plataformas digitales que estructuran el ecosistema informativo.

Al mismo tiempo, empiezan a aparecer diferencias relevantes entre países. Mientras en algunos contextos el uso de estas tecnologías ocurre en marcos regulatorios difusos o inexistentes, otros han comenzado a establecer ciertos límites. Como advierte un informe conjunto de Derechos Digitales y otras organizaciones presentado ante Naciones Unidas sobre elecciones e integridad de la información, la falta de regulación clara puede facilitar la amplificación de desinformación y violencia digital en procesos electorales.

El caso brasileño permite observar algunos avances en esta materia. La autoridad electoral ha establecido límites específicos al uso de inteligencia artificial en campañas, incluyendo restricciones a sistemas automatizados para evitar que recomienden opciones de voto. Esto contrasta con otros contextos de la región. En Colombia, por ejemplo, se han documentado casos en que sistemas de inteligencia artificial como Grok han emitido respuestas con sesgo político en el contexto electoral, incluyendo recomendaciones o posicionamientos frente a candidaturas, evidenciando vacíos regulatorios y la falta de estándares claros para este tipo de herramientas.

Brasil, por su parte, muestra las tensiones propias de intentar regular un fenómeno que evoluciona rápidamente, donde las medidas institucionales conviven con limitaciones importantes en la circulación de contenidos en plataformas y aplicaciones de mensajería. La coordinación entre autoridades, empresas tecnológicas y sociedad civil ha sido relevante para responder a episodios de desinformación, pero no ha sido suficiente para contenerlos de manera estructural.

En muchos países de la región, estas condiciones ni siquiera están presentes. La cooperación con plataformas es limitada y los mecanismos de coordinación entre actores públicos y privados son débiles o inexistentes, lo que deja un terreno mucho más abierto para la circulación de desinformación en contextos electorales.

A esto se suma un problema más estructural: las plataformas no solo fallan en colaborar, sino que también han ido cerrando espacios de diálogo en otras esferas del debate público. Como se ha advertido en análisis previos de Derechos Digitales, sus decisiones de moderación, el funcionamiento opaco de sus algoritmos y modelos de negocio que priorizan contenidos polarizantes terminan moldeando el ecosistema informativo, amplificando ciertas narrativas y debilitando otras. En contextos electorales, estas dinámicas no desaparecen, sino que se intensifican.

Reglas que no alcanzan a la política digital

Uno de los principales problemas es que las reglas electorales siguen respondiendo a una realidad que ya cambió. Las normas fueron diseñadas para campañas en televisión, radio o espacios públicos, pero hoy la política se juega en plataformas digitales, con influencers, microsegmentación de mensajes y circulación en aplicaciones de mensajería.

Esta brecha se hace evidente en casos concretos de la región. En Colombia, por ejemplo, las campañas digitales operan en gran medida fuera de los marcos regulatorios existentes, donde contenidos difundidos desde cuentas personales o redes de apoyo no siempre son considerados propaganda electoral, dejando amplios espacios sin regulación.

Este cambio no es solo tecnológico, sino también político. Las campañas digitales permiten adaptar mensajes a audiencias específicas, operar con distintos niveles de visibilidad y, en muchos casos, evadir los marcos tradicionales de regulación electoral. Lo que antes era una franja televisiva, hoy puede tomar la forma de un video viral, una cadena de WhatsApp o una publicación aparentemente espontánea, cuya autoría y financiamiento resultan difíciles de rastrear.

En este escenario, gran parte de la actividad política digital, incluyendo la desinformación, ocurre en zonas grises regulatorias. A esto se suma la falta de colaboración de las plataformas digitales, que no han desarrollado herramientas adecuadas para enfrentar la circulación de contenidos engañosos en contextos electorales en la región, se rehúsan a transparentar cómo funcionan sus algoritmos y no hacen una rendición de cuentas adecuada a sus usuarios y a la ciudadanía en general.

La disputa por el ecosistema informativo

Las elecciones de 2026 no solo van a poner a prueba a las candidaturas, sino también a las condiciones en que se construye el debate público. En un escenario donde la desinformación forma parte de las campañas, la discusión ya no se trata  sobre programas o propuestas, ahora pasa a jugarse en cómo circula la información y quién logra instalar ciertas versiones de la realidad.

Ese terreno no es neutral. Está marcado por plataformas que toman decisiones sin demasiada transparencia, por Estados que llegan tarde -o definitivamente no llegan- a regular estos procesos, y por desigualdades en la forma en que las personas acceden y procesan la información. Estas desigualdades no son solo de acceso, sino también de condiciones: desde modelos como el zero rating que limitan la diversidad de contenidos disponibles, hasta las brechas en alfabetización digital inciden en cómo circula la información. A esto se suma el uso indebido de datos personales para segmentar y dirigir mensajes políticos, muchas veces sin supervisión efectiva, lo que profundiza aún más estas asimetrías.

En la práctica, esto termina definiendo quién puede participar en la conversación pública y en qué condiciones. No todos los actores compiten en igualdad de condiciones, y eso tiene efectos concretos en cómo se construyen las percepciones, las dudas y las decisiones electorales.

La pregunta, entonces, se centra en qué tipo de espacio público estamos construyendo. Y, en última instancia, qué tan capaces somos de sostener procesos democráticos en un entorno cada vez más mediado por plataformas, opaco y difícil de gobernar.

La militarización de la inteligencia artificial: violencia de género en contextos de guerra y conflicto armado

Esta columna fue publicada originalmente en Volcánicas

En un contexto marcado por una acelerada escalada de tensiones geopolíticas, el debilitamiento del sistema multilateral y un creciente desprecio por las normas internacionales, el mundo presencia la expansión de guerras, conflictos armados e intervenciones militares ilegales de enorme impacto para las poblaciones civiles. Al mismo tiempo, la IA se ha convertido en uno de los ejes centrales del discurso político y corporativo global.

La competencia por su desarrollo y control no solo enfrenta a gobiernos y grandes empresas tecnológicas, sino que también revela tensiones más profundas vinculadas al poder global, la seguridad y el futuro del ejercicio de los derechos humanos.

Entre las consecuencias más urgentes -y menos reguladas- del despliegue acelerado de estos sistemas se encuentra el aumento de formas de violencia de género facilitadas por tecnologías (VG FT). Observamos la aparición y expansión de prácticas como el acoso automatizado, la creación de imágenes íntimas falsas mediante modelos generativos, campañas de desinformación con sesgo de género, y formas cada vez más invasivas de vigilancia digital. A la vez, la gobernanza de estas tecnologías sigue estando profundamente fragmentada: mientras los marcos regulatorios sobre IA rara vez incorporan los riesgos específicos asociados a la violencia de género, las políticas dirigidas a abordar la VG FT todavía no integran plenamente los impactos de estos sistemas.

En este escenario, el desarrollo y despliegue de IA se entrelaza cada vez más con dinámicas de militarización y guerra. Este 8 de marzo nos obliga, por tanto, a mirar de frente una dimensión todavía insuficientemente abordada: la VG FT en contextos de guerra y conflictos armados.

Una aplicación incompatible con los derechos humanos

El despliegue de tecnologías basadas en IA en contextos de guerra y de conflicto armado no solo ya es un hecho, sino que continúa expandiéndose. Se utilizan, por ejemplo, para vigilancia masiva, análisis predictivo de amenazas, sistemas de armas autónomos y localización de “objetivos”.

Como han advertido numerosas expertas y organizaciones, los sistemas de IA no pueden evaluar adecuadamente principios fundamentales del derecho internacional humanitario, como la distinción entre combatientes y civiles o la proporcionalidad de un ataque. A esto se suman las implicancias para los mecanismos de responsabilidad y rendición de cuentas, ya de por sí difíciles de ejercer en estos contextos.

Como ocurre con muchas aplicaciones de IA, su incorporación suele justificarse en términos de eficacia. Pero: ¿qué significa “eficacia” en este contexto? ¿Puede hablarse de eficacia cuando se trata de sistemas utilizados para identificar, vigilar y atacar a personas? ¿Qué tipo de acción se considera eficaz en un escenario donde el resultado final es la expansión de la violencia? Si se parte de la premisa de que la eficacia depende del objetivo que se busca alcanzar, estudios señalan que estos sistemas están muy lejos de ser eficaces respecto a los objetivos que se les asignan.

Cuando sesgos y errores incorporados en el diseño de la IA se traducen en fallas al identificar objetivos, el costo recae literalmente sobre vidas humanas. La preocupación no se limita a fallos técnicos. En completa ausencia de reglas y límites, esos sistemas a veces son diseñados para identificar y atacar a personas que presenten determinados “marcadores”.

En cualquiera de estos escenarios, la noción misma de eficacia queda profundamente cuestionada. Si los sistemas fallan, el resultado es la muerte de personas que nunca debieron ser consideradas objetivos. Si funcionan como fueron diseñados, identifican y atacan a personas en función de su identidad. En ambos casos, lo que está en juego es la legitimidad misma de estos sistemas y su compatibilidad con el derecho internacional.

También se suele afirmar que estas tecnologías permitirían reducir las bajas civiles gracias a ataques supuestamente más “precisos”. El genocidio en Gaza ofrece un contraste brutal con ese argumento. A pocos meses del inicio del ataque militar por parte de Israel, expertas y expertos de Naciones Unidas advertían que se había destruido “un porcentaje mayor de viviendas e infraestructura civil que en cualquier otro conflicto que se recuerde”. En ese mismo contexto, señalaron el presunto uso de sistemas de IA para identificar objetivos y atacar viviendas familiares, con escasa consideración por la presencia de civiles en su interior o en sus alrededores.

Investigaciones periodísticas posteriores confirmaron el uso de IA por parte del ejército israelí en Gaza. Entre ellos destacan, por su carácter particularmente perverso, los sistemas conocidos como Lavender, Gospel y Where’s Daddy? (¿Dónde está papi?). Según reportes del Instituto de Estudios Palestinos, estos sistemas procesan enormes volúmenes de datos obtenidos a partir de años de vigilancia masiva sobre la población palestina que es utilizada para generar listas de personas y estructuras consideradas objetivos.

Mientras el sistema conocido como Gospel “recomienda” edificios e infraestructuras para ser bombardeadas, Lavender identifica personas como objetivos potenciales. Un sistema adicional, Where’s Daddy?, se utiliza específicamente para rastrear a las personas señaladas y ejecutar bombardeos cuando estas ingresan a su destino, el cual muchas veces es su vivienda familiar.

Según testimonios de agentes de inteligencia israelíes, la validación previa a autorizar un ataque podía durar alrededor de veinte segundos. Ese breve intervalo se utilizaba principalmente para comprobar si la persona señalada por el sistema era un hombre, usando al género como indicador de posible “combatiente”. No está claro si se trata de un procedimiento formalizado o de una práctica extendida dentro de las unidades involucradas.

Las consecuencias de este tipo de prácticas han sido devastadoras, siendo la mayoría de las personas asesinadas mujeres y niños. Lejos de proteger a la población civil, estos sistemas amplían la capacidad de identificar y atacar personas y aceleran el uso de la fuerza.

El uso de IA con fines militares se extiende a otros contextos y regiones del mundo. Según reportes periodísticos, Claude habría sido utilizado como apoyo en la invasión militar ilegal liderada por Estados Unidos en Venezuela en enero de este año, poniendo en evidencia que las implicaciones de estas tecnologías también alcanzan a América Latina.

La combinación de IA, vigilancia persistente y procesamiento masivo de datos en tiempo real configura nuevas formas de intervención basadas en la asimetría tecnológica y la superioridad informacional. Comprender esta lógica resulta crucial para América Latina y el Caribe, donde en los últimos años se han intensificado acuerdos militares, despliegues “temporarios” de tropas y sistemas de monitoreo vinculados a Estados Unidos en distintos países de la región.

La geopolítica detrás de la inteligencia artificial

El desarrollo y uso militar de la IA tiene como trasfondo una carrera tecnológica que asocia su desarrollo con la “dominación global” en una versión de la carrera armamentista en la Guerra Fría. Central a tal proceso es el desmantelamiento de legislaciones orientadas a generar protecciones. En el caso estadounidense, los documentos oficiales son explícitos al afirmar que quien controle el ecosistema de IA podrá fijar las reglas globales y obtener ventajas económicas y militares.

Los procesos multilaterales capaces de poner límites a tal lógica han fallado, como fue el caso del Pacto para el Futuro, adoptado en 2024 y presentado como una iniciativa para fortalecer el sistema internacional frente a los desafíos del siglo XXI. A pesar de que las bases normativas ya existen dentro del propio sistema internacional de derechos humanos, incluyendo la Resolución 48/4 del Consejo de Derechos Humanos y el informe del Alto Comisionado de las Naciones Unidas para los Derechos Humanos, que recomiendan establecer moratorias o incluso prohibiciones para sistemas de IA que no puedan utilizarse en conformidad con el derecho internacional.

No resulta sorprendente -aunque no por ello deja de ser indignante- que las iniciativas derivadas de este proceso se inscriban en esa misma falta de voluntad política para establecer límites efectivos. El Panel Científico Internacional Independiente sobre Inteligencia Artificial, creado a partir del Pacto para el Futuro para evaluar los impactos y riesgos de estas tecnologías, establece explícitamente que su mandato se limitará al ámbito no militar, asegurando así que una de las discusiones más urgentes sobre estas tecnologías quede deliberadamente fuera del análisis.

Las grandes empresas tecnológicas desempeñan un papel central en esta estructura. A través de crecientes alianzas público-privadas, contribuyen a consolidar dinámicas de poder cada vez más autoritarias y asociadas a prácticas abusivas de derechos humanos. Este poder se sustenta no solo en la enorme concentración económica e informacional que acumulan -facilitada en gran medida por la desregulación del sector-, sino también en la creciente convergencia entre intereses corporativos y estatales, que se proyecta de forma cada vez más evidente en la arena militar.

En un reciente informe, la Relatora Especial de Naciones Unidas sobre la situación de los derechos humanos en los territorios palestinos ocupados identificó 48 compañías globales que apoyarían directa o indirectamente el genocidio en Gaza. Según Albanese, la continuidad de esta violencia no puede comprenderse sin considerar también los incentivos económicos que la sostienen: el genocidio, advierte, también es rentable.

Perspectivas feministas frente a la militarización de la IA

La incorporación de IA en actividades militares está transformando las formas en que se produce y se ejerce la violencia de género en contextos de conflicto armado y crisis humanitarias. Sin embargo, el análisis de los conflictos y de los procesos de paz continúa estando dominado por perspectivas patriarcales que invisibilizan las afectaciones diferenciadas que enfrentan las mujeres, así como las contribuciones que los movimientos de mujeres han realizado en la construcción de la paz.

Abordar estas dinámicas desde una perspectiva de género implica reconocer dos dimensiones interrelacionadas. Por un lado, la militarización tecnológica profundiza violencias ya presentes en contextos de guerra, donde las desigualdades estructurales se intensifican y las violaciones de derechos humanos contra mujeres y niñas adquieren formas particularmente graves. Por otro, la incorporación de sistemas basados en IA está dando lugar a nuevas formas de violencia, lo que vuelve urgente ampliar los marcos desde los cuales se las analizan.

Para entender la violencia de género facilitada por tecnologías es recomendable incorporar factores contextuales desde una perspectiva interseccional que permita comprender estas violencias de manera situada. Las formas que adoptan tales violencias no son universales ni se experimentan de la misma manera en todos los territorios; están atravesadas por desigualdades sociales, culturales y políticas que configuran tanto las dinámicas de violencia como las posibilidades de respuesta.

Los ejemplos son múltiples. Entre ellos se encuentran campañas de desinformación generadas o amplificadas mediante IA, ataques dirigidos contra mujeres a través de contenidos como deepfakes -utilizados para desacreditar o silenciar a figuras públicas y activistas-, y el despliegue de tecnologías biométricas y de reconocimiento facial que permiten rastrear e identificar poblaciones enteras sin salvaguardias adecuadas. Estas herramientas, a menudo presentadas como neutrales o necesarias para la seguridad o la gestión humanitaria, pueden exponer especialmente a mujeres activistas y a otras comunidades en situación de vulnerabilidad.

Como evidencia el caso de Gaza, estos sistemas también interactúan con categorías simplificadas de género. Programas utilizados para identificar y rastrear objetivos han operado en gran medida a partir de marcadores binarios de género (hombre es igual a “combatiente”), aunque contribuyendo en la práctica a ataques que terminan afectando de manera desproporcionada a mujeres y niños. Este patrón se inserta, además, en un contexto más amplio de violencia basada en género documentado por organismos internacionales, incluyendo la destrucción de servicios de salud reproductiva y otras prácticas que diversas expertas han descrito como parte de un proceso de femigenocidio.

Organizaciones humanitarias han advertido que el uso de sistemas digitales en contextos militares puede acelerar el ritmo de la guerra, reduciendo los tiempos de deliberación y debilitando los mecanismos de control humano sobre el uso de la fuerza. En escenarios ya marcados por altos niveles de violencia y deshumanización, esta aceleración incrementa los daños para la población civil y amplifica patrones preexistentes de discriminación, exclusión y violencia de género.

Frente a este panorama, resulta urgente ampliar los marcos desde los cuales comprendemos la violencia de género facilitada por tecnologías, incorporando las dinámicas de militarización, colonialismo y desigualdad global que atraviesan el desarrollo y despliegue de estas tecnologías. Al mismo tiempo, la evidencia acumulada refuerza la necesidad de establecer límites claros al uso de IA con fines militares. Sistemas que no pueden operar en conformidad con el derecho internacional humanitario y el derecho internacional de los derechos humanos deberían ser prohibidos.

Este 8 de marzo nos recuerda que las luchas feministas han sido fundamentales para cuestionar las lógicas de violencia, militarización y dominación que atraviesan nuestras sociedades. Frente a la expansión de la militarización de la IA, incorporar perspectivas feministas no es opcional: es una condición fundamental para comprender sus impactos reales y para imaginar alternativas que pongan a la vida -y no a la violencia- en el centro.

Cumbre de Impacto de IA: ¿Nada nuevo a la vista?

La Cumbre de Impacto de la IA en India (India AI Impact Summit), realizada entre los días 16 y 20 de febrero, conllevaba la promesa de fortalecer una perspectiva del Sur Global a las discusiones sobre gobernanza de la inteligencia artificial (IA). El evento traía como principio la frase “bienestar para todas las personas, felicidad para todas las personas”, estampada en centenares de carteles de la Cumbre en Nueva Delhi, junto con la imagen del primer ministro Narendra Modi, quien evidentemente buscaba proyectar su propia figura con el encuentro.

Quienes pudimos acompañar las discusiones nos quedamos con la duda sobre qué se entiende por “bienestar” o “felicidad” y quiénes efectivamente se beneficiarán de ellas frente al avance de la IA. A pesar de la convocatoria alrededor de los principios (sutras) “personas”, “planeta” y “progreso”, el evento estuvo marcado por discursos tecnooptimistas y por la falta de diversidad –de género, sectores y perspectivas– en una agenda minuciosamente seleccionada por el gobierno local. Lo preocupante no es solamente el mantenimiento del tono, sino el tipo de resultado que lo acompaña: un modelo de cooperación internacional que promueve despliegue acelerado, pero que elude deliberadamente la pregunta por límites, responsabilidades y remedios.

Mientras se puso sobre la mesa un conjunto de principios para la cooperación internacional en materia de IA, la Cumbre habilitó a India inversiones de grandes empresas de tecnologías. Más importante, en un contexto geopolítico de securitización de la carrera tecnológica, abrió espacio para el establecimiento de acuerdos Sur-Sur en materia tecnológica, destacando la visita del presidente de Brasil y sus ministros al país.

A pesar de la importancia de tales movimientos en el actual escenario, los resultados se muestran limitados a compromisos voluntarios y declaraciones no vinculantes, siguiendo el modelo de cumbres anteriores. No hubo mención a los derechos humanos y se cerró cualquier espacio para discusiones regulatorias donde puedan tener mayor peso los movimientos de varios Estados que van en esta dirección. En su lugar, predominó un lenguaje de “innovación”, “confianza” y “capacidades”, que puede sonar neutral y positivo, pero que en la práctica invisibiliza el debate sobre obligaciones de transparencia, debida diligencia y reparación. Como de costumbre, la agenda de justicia y derechos quedó en manos de la sociedad civil, que tuvo poco espacio y escasa visibilidad en el evento oficial.

Una carrera sin frenos

La Cumbre fue la cuarta edición de una serie iniciada en Inglaterra en 2023, cuyo mandato se viene transformando a cada año. Pero, por si quedaban dudas, la Declaración Final del evento demuestra que, a pesar de las expectativas y la retórica nacionalista –que incluía referencias a elementos del hinduismo–, la primera Cumbre de IA realizada en el Sur Global no se diferenció en nada de sus antecesoras. Aunque cambió el lugar y la narrativa, se mantuvo la fórmula de un escenario de compromisos abstractos, en paralelo a un mercado de acuerdos e inversiones presentados como inevitables. Además de servir como palco para los empresarios de las grandes empresas de tecnología globales, que dominaron las noticias sobre el evento, su principal conclusión favorece a su agenda y negocios.

Según el texto, “las decisiones que tomemos ahora moldearán el futuro habilitado por la IA que heredarán las nuevas generaciones”. La afirmación deja poco espacio para la discusión sobre el rol que tanto las generaciones presentes como las futuras queremos que tenga la IA, pese a las crecientes evidencias de sus daños y los cuestionamientos a los efectos sociales a que ha estado sujeta.

No se trata aquí de ponernos en contra de la tecnología o de negar sus potenciales beneficios. Al contrario, fuimos desde América Latina hasta India con el propósito de fortalecer coaliciones y elaborar las bases para una IA justa, junto a docenas de organizaciones de todo el Sur Global. En distintos eventos paralelos, defendimos la importancia de los diálogos multilaterales sobre gobernanza de IA y planteamos la necesidad urgente de construir mecanismos globales que ayuden a garantizar que los sistemas de IA cumplan con estándares de derechos humanos. En otras palabras, que sirvan a las personas, al planeta y al progreso. Sin embargo, la distancia entre esos debates y la declaración final de la Cumbre, adoptada por 89 países, es patente y alarmante.

El texto, organizado según los grupos de trabajo temáticos que guiaron las discusiones, refuerza la noción de inevitabilidad de la IA y se dedica a promoverla tal cual es planteada por Silicon Valley, limitando con eso el espacio para cualquier discusión sobre los necesarios límites a su desarrollo y despliegue. Ejemplo de ello es la defensa de sistemas de IA eficientes a nivel energético, que borra completamente las preocupaciones por los impactos socioambientales de los centros de datos.

En lo que se refiere a la democratización de los recursos de IA, por su parte, se hace referencia a la Carta por la Difusión Democrática de la IA, también adoptada en la Cumbre, pero haciendo hincapié en su carácter no vinculante y voluntario. La Carta incluye guías importantes para la cooperación internacional en áreas como: la inclusión digital; la representatividad de idiomas y contextos subrepresentados en los modelos de IA; el estímulo a la apertura por medio de la adopción de estándares abiertos e interoperables; el desarrollo de habilidades en IA, entre otras. Sin embargo, refuerza como primer objetivo el aumento de las capacidades de IA sin ninguna consideración sobre sus impactos medioambientales, laborales y en derechos humanos.

El abordaje refleja contextos nacionales donde el discurso sobre soberanía tecnológica se presenta de manera contradictoria y ampliamente dependiente de desarrollos tecnológicos propietarios y extranjeros. Los anuncios de inversiones de las grandes empresas en India durante la Cumbre ilustran tal narrativa: alianzas con universidades para la oferta de modelos y asistentes de IA, y capacitación para el uso de herramientas comerciales e inversiones para la adopción de esta tecnología por los gobiernos son algunos ejemplos de alianzas establecidas en la ocasión. Paradójicamente, se invoca soberanía al mismo tiempo que se profundiza la adopción de modelos, asistentes y herramientas cuyo diseño, control y condiciones de uso permanecen fuera del alcance de los países que los incorporan.

La idea de soberanía tecnológica sin crítica al modelo establecido o perspectiva de derechos y sostenibilidad se reflejaba también en un espacio de exposiciones donde empresas locales se posicionaban junto a las Big Tech para promocionar sus negocios. Sistemas de IA para la vigilancia y uso militar se presentaban lado a lado de las versiones “educativas” de modelos comerciales de IA generativa. Afuera quedaron las voces que se oponen o defienden limitaciones al uso de este tipo de sistemas en tales entornos.

Hay camino por delante

A pesar de sus limitaciones, es necesario reconocer la importancia de la mención, en la Declaración Final, de los procesos multilaterales en curso y del respeto a la soberanía de los países. Ambos aspectos se muestran clave en un texto que logró unir a China y Estados Unidos como firmantes.

Por un lado, se valida un proceso en curso en el ámbito de Naciones Unidas que tiene como mandato dar un paso más en la definición de límites a usos de IA que no respetan derechos humanos. Cabe destacar que la agenda contó con distintos espacios de discusión con representantes del Panel Científico de IA y tuvo la presencia del Secretario General de Naciones Unidas y de su Oficina para las Tecnologías Digitales y Emergentes (ODED, por sus siglas en inglés). Por otro, se deja, correctamente, un margen para discusiones a nivel nacional que pueden reflejar mejor sus contextos y prioridades y donde otros sectores pueden actuar como contrapeso. Ese margen será decisivo allí donde existan instituciones capaces de resistir la presión combinada del discurso de securitización, de intereses nacionales de algunos países, y de los intereses comerciales que buscan presentar la adopción de IA como una obligación sin alternativas.

Hay que reconocer que tales conquistas se encuentran también limitadas por una arena internacional marcada por el ascenso del autoritarismo y el desmantelamiento de las instituciones multilaterales, en particular de derechos humanos. Sin embargo, representan una señal: el rol de la IA en el futuro de las nuevas generaciones sigue en disputa.

Igualmente relevante es el reconocimiento de la participación de múltiples partes interesadas en los debates sobre el tema. Es fundamental que eso no se traduzca en más espacio para mega empresarios de tecnología y se apunte a mecanismos de participación significativa de la sociedad civil, en línea con lo acordado en la Declaración de Sao Paulo.

La ocasión de la Cumbre, en ese sentido, habilitó la coordinación entre distintos actores académicos y de la sociedad civil del Sur Global con miras al debate que sigue. En un contexto en que las conversaciones siguen mayormente concentradas en pocos actores del Norte, tal coordinación es crítica para avanzar hacia estándares que permitan un futuro en que la IA efectivamente esté al servicio de la justicia, la equidad y el ejercicio de derechos.

Si la carrera de la IA sigue sin frenos, es urgente definir las reglas del tránsito antes de que el impacto sea contra una pared.

Chile y el complejo camino para regular las plataformas digitales

Los esfuerzos emprendidos por el Congreso chileno para la regulación de las plataformas no cesan. Desde 2020 hasta la fecha, se presentaron casi medio centenar de proyectos de ley que buscan, bien sea a través de la creación de una ley general o a través de la reforma de otros cuerpos normativos existentes, abordar un muy extenso conjunto de asuntos relacionados.

Entre los temas de interés de quienes regulan, se incluyeron proyectos de regulación de personas trabajadoras de plataformas, de aplicaciones de transporte ciudadano, también de plataformas de delivery de comidas y, por supuesto, iniciativas enfocadas en la regulación de fenómenos como la desinformación, el ejercicio de la libertad de expresión en internet, el uso de redes sociales y dispositivos digitales por niños, niñas y adolescentes, la difusión no consentida de imágenes con contenido sexual y el uso de deepfakes para dicho fin, entre otros.

Regular las plataformas digitales: una tarea inminente

Regular las plataformas digitales nunca fue tan urgente como ahora. Con su diseño, algunas de ellas generan nuevas y complejas dinámicas en el mundo del trabajo; otras, deciden con reglas poco claras o transparentes sobre la diversidad, amplitud de voces y temas que se discuten en la esfera pública digital. Algunas otras tienen el potencial, mediante su diseño opaco -que ahora se aceita con el uso de la IA- de exacerbar fenómenos complejos como la desinformación o la violencia en línea que se traslada al mundo analógico.

La mayoría, especialmente las más grandes plataformas digitales de gran escala desarrolladas por un grupo reducido de empresas, concentran una influencia considerable en la vida social y pública, con efectos potenciales en la salud mental y en procesos colectivos, como el ejercicio democrático.

Es importante destacar que, si bien regular emerge como una necesidad en este contexto, ello no es sinónimo de que no exista una regulación que no permita abordar su funcionamiento. En Chile, de hecho, existe un marco normativo que abarca materias como protección del consumo, protección a la competencia y la propiedad intelectual, protección de datos, de trabajo, de acceso a la información, entre otros, y ese debería ser el punto de partida.

Pero, en la práctica, regular de manera específica a las plataformas digitales se viene constituyendo como una prioridad, pues en su funcionamiento se involucran un entramado complejo de actores e intereses, así como se explotan y exacerban fenómenos (como la desinformación, la violencia de género en línea, el extractivismo severo de datos) que deben ser abordados de manera tal que la protección de las personas esté en el centro, y logre ser efectiva.

Problemas de los intentos de regulación

Regular las plataformas puede ser un fin loable, pero hacerlo de manera efectiva requiere más que la buena voluntad de las personas legisladoras. Por un lado, se precisa de técnica legislativa con un enfoque de derechos humanos para, por ejemplo, no sacrificarlos en aras de enfoques reactivos, casi siempre punitivistas o prohibicionistas que suelen, con frecuencia, ser la primera o única respuesta de quienes legislan.

Regular las plataformas desde un enfoque de derechos humanos significa, en términos generales, dos cosas. Por un lado, priorizar su protección, aún si eso significa, en ocasiones, poner límites a la manera en como se desarrolla un determinado modelo de negocio. Y, por otro lado, alinear las políticas y prácticas corporativas a tres verbos que deben ser accionables desde la política pública: prevenir, mitigar, y reparar los impactos ocasionados por sus operaciones.

Por ejemplo, el más reciente proyecto de ley sobre deepfakes, originado en la Cámara de Diputados para regular el uso no autorizado de atributos personales como la voz o la imagen a través de sistemas de IA, erosiona principios esenciales de la libertad de expresión, como el derecho de toda persona a formular críticas respecto a figuras y funcionarios públicos. Además, adopta figuras problemáticas como la “notificación y retiro” de contenidos en línea a cargo de las plataformas digitales, sin que medie orden judicial, entre otros. Omite, casi por completo, abordar las obligaciones de las empresas tecnológicas en la prevención, mitigación y reparación de los derechos de sus personas usuarias.

O el más ambicioso proyecto de ley discutido hasta ahora, en materia de regulación de plataformas, que fue debatido en el Congreso chileno en 2021. Se trata de una iniciativa que busca regular la totalidad de las plataformas digitales frente a un amplio y diverso conjunto de problemas: la desinformación, la protección de las infancias en línea, la protección de datos, la responsabilidad objetiva de las plataformas digitales -en dirección contraria a los consensos básicos sobre el efecto de esa medida en la libertad de expresión-, entre otros.

Este tipo de proyecto generalista no considera en su diseño que no todas las plataformas generan los mismos impactos para los distintos tipos de personas usuarias de sus servicios, ni tampoco considera que las plataformas crean dinámicas diferenciadas en el ejercicio de derechos (libertad de expresión, privacidad, trabajo, etc.) y por eso mismo, no pueden ser tratadas de la misma forma. A su vez, no tiene en cuenta que en un mercado digital altamente concentrado, la realidad de las plataformas (su tamaño y cobertura) y la localización de las empresas que las desarrollan, debe ser considerada en las dinámicas de futura exigibilidad de esa ley. Nuevamente, una iniciativa que no articula los deberes empresariales de prevenir, mitigar o reparar a sus usuarios como compromisos exigibles en derechos humanos.

Pero los problemas para regular las plataformas digitales en Chile no se limitan a cuestiones de técnica legislativa. En la región, hemos visto cómo el lobby de las plataformas digitales es tan feroz que, iniciativas regulatorias bien orientadas terminan frustrándose o diluyéndose hasta volverse ineficaces.

Tal es el caso de la reciente Ley de Salud Mental en Colombia, donde las plataformas digitales presionaron a quienes integraban el órgano legislativo para que, en lugar de que les fuera exigible su corresponsabilidad sobre lo que circula en línea e impacta en la salud de las niñeces, se afirmara una vez más el modelo de autorregulación. En la práctica, esto deja intacto su poder unilateral e inescrutable para definir los límites en la protección de sus personas usuarias.

O el caso de Brasil, donde el proyecto de regulación de la IA atenuó, por la presión de las grandes empresa tecnológicas, aspectos críticos como las evaluaciones de impacto en derechos, inicialmente obligatorias y ahora tan solo facultativas; matizó la protección de artistas y creadores, y omitió casi por completo los impactos ambientales de los Centros de Datos que oxigenan el funcionamiento de la IA.

Un lobby que se agudiza y saca dientes en el marco del gobierno de Donald Trump, que amenaza a las autoridades de los países que intenten regular a la Big Tech en el marco de la guerra arancelaria, tal y como pasó con Brasil en 2025 a quien EE. UU. aumentó los aranceles como reacción a la investigación judicial adelantada por jueces de ese país contra las plataformas digitales que tuvieron un rol preeminente en el golpe de Estado impulsado por J. Bolsonaro.

¿La salida viene de afuera? Chile en la esfera internacional

Aún cuando en Chile avanzan con rezago las regulaciones que abordan el impacto sociopolítico y sociotécnico de las plataformas digitales, la realidad es que la conversación sobre su regulación y gobernanza permanece más activa en la esfera internacional, en donde el país se posicionó como un actor visible en América Latina que acompaña, lidera o suscribe procesos de gobernanza de las plataformas digitales y la IA.

Por ejemplo, tomó un rol destacado en la negociación del Pacto Global Digital, y de la más reciente Cumbre Mundial de la Sociedad de la Información (WSIS, por sus siglas en inglés). Respaldó la Iniciativa Global de UNESCO para la Integridad de la Información Climática, así como adhirió a la Declaración sobre Integridad de la Información sobre Cambio Climático. También, su representación fue visible en 2024 en la Cumbre de IA en París, en la que afirmó la importancia de avanzar en una gobernanza global de la IA con un enfoque de derechos humanos.

Sin embargo, las iniciativas de gobernanza y regulación de las plataformas digitales se encuentran amenazadas por la situación geopolítica actual, en la que la desafiliación reciente de EE. UU. de prácticamente cualquier entorno multilateral y de múltiples partes interesadas, amenaza con dejar solos en la discusión a los países que buscan que el estado actual de la gobernanza de las Big Tech cambie.

De manera que, a nivel nacional o internacional, los esfuerzos de regulación (y gobernanza) enfrentan retos que no son menores. Retos que, a medida que retardan el diseño de marcos de protección de las personas en riesgo, dejan preguntas que urge responder: ¿qué salidas, más allá de la acción individual de los países, conviene imaginar para avanzar en la efectiva regulación de las plataformas que pongan en su centro a las personas?, ¿cómo restar poder de lobby a las empresas tecnológicas que amenazan la efectividad y alcance de los esfuerzos regulatorios, cualquiera que sea su diseño y contenido?, ¿cómo incidir para que su modelo de negocios se alinee a los derechos de sus personas usuarias? O bien, ¿cómo mejorar la técnica legislativa de los proyectos de ley que, con fines loables pero con enfoques desacertados, buscan regular a las plataformas digitales?

Sobre esto último, desde Derechos Digitales tenemos claro que en todo proceso de política pública, la participación significativa de personas usuarias, grupos de la sociedad civil, empresas y otros grupos de interés, es la precondición necesaria para balancear los intereses en la discusión. El panorama regulatorio en Chile ahora se enfrenta a un cambio de sensibilidad política que se inclina hacia la extrema derecha. Esperamos, incluso, en ese escenario poder tomar parte de las discusiones que, anticipamos, se darán sobre regulación de las plataformas en el nuevo gobierno.

La erosión de la libertad de expresión en Costa Rica

Durante décadas, Costa Rica se presentó como una excepción democrática en Centroamérica, un país donde los derechos humanos se consolidaron frente a escenarios de inestabilidad en la región. Sin embargo, en los últimos años ese relato se ha tensionado en torno a la libertad de expresión. El país no está viviendo una ruptura autoritaria abrupta, sino una erosión progresiva que combina hostilidad política, vacíos legales y normalización social del silenciamiento.

La Clasificación Mundial de Libertad de Expresión de Reporteros Sin Fronteras muestra una caída progresiva: del 8° lugar en 2022, al 23° en 2023, 26° en 2024 y 36° en 2025, lo que representa el mayor retroceso en su trayectoria reciente. Este descenso no ocurre en abstracto: diversas coberturas periodísticas y análisis indican que durante el gobierno del presidente saliente Rodrigo Chaves Robles se impulsó una línea de confrontación con medios y periodistas, manifestada en ataques verbales, estigmatización de la prensa, presiones económicas y restricciones al acceso a la información pública que alimentan un clima de hostilidad, poco común en la historia del país.

Señales persistentes de presión sobre el ecosistema informativo y digital

En los años recientes, se vienen dando episodios que configuran un patrón reconocible de presión a la prensa. Uno de ellos fue la subasta de frecuencias de radio y televisión que generó fuertes cuestionamientos por su posible impacto en el pluralismo informativo y el acceso equitativo al espectro radioeléctrico. A esto se suman incidentes donde periodistas de medios digitales, especializados en verificación de datos, fueron objeto de restricciones o tratos diferenciados durante conferencias de prensa del Ejecutivo. En estos casos, la Sala Constitucional reconoció que estas prácticas vulneraban el ejercicio libre del periodismo.

Otro suceso fue el retiro de pauta estatal a un medio de comunicación luego de la publicación de contenidos satíricos sobre el gobierno. Según el Informe Nacional sobre Prácticas de Derechos Humanos 2024 del Departamento de Estado de EE. UU., se indica que la acción configuró una forma indirecta de sanción económica.

Esta rotura está teniendo repercusiones concretas en la percepción social y en las prácticas comunicativas de la ciudadanía. Los datos de la III Encuesta sobre Libertad de Expresión (Proledi-UCR 2025) revelan que más de la mitad de la población percibe un deterioro en su libertad de expresión y declara haber evitado expresar opiniones en redes sociales por temor a represalias o consecuencias. La percepción de censura y autocensura está en los niveles máximos de los últimos tres años, marcando el pulso de un entorno en el que internet y las plataformas digitales se convierten tanto en espacios esenciales de discusión como en territorios de riesgo para quienes discrepamos o criticamos al poder.

Costa Rica atrapada en la ola autoritaria

Las recientes elecciones del 1 de febrero marcaron un punto de inflexión en la política costarricense. La candidata oficialista Laura Fernández (aliada política y exministra de Chaves) logró una victoria en primera vuelta con alrededor del 51% de los sufragios, superando al principal contendiente de la oposición y evitando la segunda ronda.

Más allá del resultado de la votación, lo que preocupa es la consolidación de un clima político que debilita los contrapesos democráticos. La normalización del ataque a la prensa, la deslegitimación sistemática de voces críticas y la construcción de enemigos internos son rasgos ampliamente documentados en procesos de autoritarismo en la región. Que estas prácticas encuentren respaldo electoral en Costa Rica marca un quiebre en el país.

Sin equipararse aún a los escenarios más extremos, el gobierno costarricense comienza a reproducir patrones conocidos en los países centroamericanos. Desde Derechos Digitales lo hemos alertado. En el caso de El Salvador, por ejemplo, se dieron exilios masivos de periodistas y organizaciones de la sociedad civil en 2025, una situación que resuena más allá de sus fronteras y evidencia la fragilidad de la libertad de expresión cuando se normalizan narrativas de control por encima del debate crítico. En Honduras o Nicaragua, los medios enfrentan no solo presiones económicas y legales sino amenazas directas, lo que pone en perspectiva la preocupación costarricense como parte de un denominador común más amplio en la región.

El informe de la Fundación Heinrich Böll sobre libertad de expresión en Centroamérica evidencia que Guatemala, Honduras, El Salvador y Nicaragua ocupan posiciones muy bajas en los índices internacionales, reflejando contextos donde censura, criminalización del periodismo y violencia contra comunicadores son fenómenos recurrentes, y donde muchas veces no queda medio independiente alguno.

El escenario electoral de 2026 consolidó prácticas y narrativas que proyectan sus efectos más allá del ciclo electoral.

Derechos reconocidos, protecciones insuficientes

En términos generales, la libertad de expresión y de prensa en Costa Rica cuenta con una protección normativa robusta. La Constitución Política reconoce el derecho a la libre comunicación del pensamiento sin censura previa y prohíbe cualquier forma de restricción indirecta. A ello se suma la adhesión del país a instrumentos internacionales como la Convención Americana sobre Derechos Humanos y la Declaración de Principios sobre Libertad de Expresión, que obligan al Estado no solo a abstenerse de censurar, sino a garantizar condiciones efectivas para su ejercicio libre y seguro.

Sin embargo, esta solidez no se traduce en un desarrollo legislativo integral que permita enfrentar los desafíos contemporáneos. Como se evidenció en los casos registrados anteriormente, el rol de la Sala Constitucional fue clave para contener algunas de las amenazas más evidentes. Estos fallos funcionaron como un contrapeso institucional frente a decisiones administrativas y prácticas gubernamentales que, de otro modo, habrían consolidado restricciones indirectas al ejercicio periodístico. Pero el rol de la Sala Constitucional como principal barrera de protección también evidencia que se depende cada vez más de la judicialización posterior, y no de políticas públicas preventivas.

A las alertas señaladas, se suma la evaluación de la Sociedad Interamericana de Prensa (SIP), que en 2025 señaló la existencia de un “ambiente de creciente deterioro de la libertad de expresión” en Costa Rica, marcado por el hostigamiento en redes sociales a personas críticas del gobierno y por el uso discrecional de recursos públicos como la pauta oficial. Estas prácticas, aun cuando no constituyen censura directa, generan un efecto inhibidor para la autoexpresión.

Diversas organizaciones de la sociedad civil vienen planteando una advertencia: el marco legal costarricense resulta insuficiente para abordar la violencia digital. Informes como Freedom on the Net 2024 subrayan que, las referencias a internet se resuelven caso por caso a partir de derechos tradicionales, sin una tipificación clara ni mecanismos procesales adecuados para enfrentar violencias en plataformas digitales, lo que deja amplios márgenes de impunidad y desprotección.

Esta brecha entre el reconocimiento normativo y la protección efectiva fue documentada también por otras organizaciones especializadas. El informe Libertad de Expresión en Costa Rica 2024 de la Universidad para la Paz advierte que las agresiones al ejercicio periodístico se reproducen y amplifican en entornos digitales, donde se organizan campañas de descrédito, se normaliza la intimidación y no se dan las condiciones para un debate público libre. En una línea complementaria, el Informe Alternativo del Examen Periódico Universal (EPU), elaborado por Sulá Batsú y CEJIL, señala un aumento sostenido de violencia digital de género y ataques de odio en línea dirigidos particularmente a mujeres periodistas y defensoras.

Sobre este tema, el trabajo de Derechos Digitales refuerza que estas dinámicas afectan de manera diferenciada a mujeres y personas LGBTIQA+, ya que restringe la participación pública y reproduce desigualdades estructurales en el entorno digital. Recientemente, junto al Fondo de Población de las Naciones Unidas (UNFPA), se propusieron principios orientadores para reformas legislativas y políticas públicas, que apuntan a transformar no solo el reconocimiento normativo, sino también las capacidades estatales y sociales necesarias para proteger y garantizar la libertad de expresión en espacios digitales de forma efectiva y con perspectiva de derechos humanos.

Fortalecer la libertad de expresión en medio de la erosión democrática

En América Latina, el debilitamiento de la libertad de expresión se convirtió en una de las primeras señales de tendencia autoritaria, la experiencia en nuestros territorios demuestra que su desgaste rara vez comienza con censura directa. Costa Rica todavía cuenta con instituciones, estándares y capacidades para revertirlo, pero esa ventana no es indefinida.

Asumir que la libertad de expresión está garantizada por inercia es uno de los riesgos más altos del momento actual. Para fortalecerla no basta con invocar la tradición democrática ni confiar exclusivamente en la fortaleza institucional heredada.

Implica asumir responsabilidades concretas: actualizar el marco legal para enfrentar violencias digitales sin criminalizar la expresión, establecer reglas claras y transparentes para la comunicación estatal, garantizar mecanismos efectivos de protección a periodistas y personas comunicadoras, y reconocer que las plataformas digitales son hoy infraestructuras políticas que requieren regulación con enfoque de derechos humanos.

WhatsApp y la Unión Europea: ¿Descentralización de las comunicaciones digitales?

A diario nos comunicamos a través de WhatsApp: compartimos conversaciones con ex compañeros de colegio, decidimos sobre asuntos familiares y profesionales, vivimos el romance; muchas alegrías y tristezas suceden en esta plataforma. Casi todas las personas con un teléfono inteligente en América Latina utilizamos WhatsApp y somos más de 3 mil millones personas en el mundo.

Es así como Meta, dueña de WhatsApp, es responsable de las comunicaciones de gran parte del planeta. Es decir, una caída técnica, una prohibición de funcionamiento o un conflicto empresarial pueden tener consecuencias globales. Algo que ya ocurrió en el pasado y sobre lo cual reflexionamos en su momento.

Desde un punto de vista tecnopolítico, existe un problema de concentración de poder. Nuestras conversaciones fluyen a través de una de las aplicaciones de Meta. Si bien se supone que WhatsApp usa cifrado extremo a extremo, ya solo usar la aplicación implica entregarle nuestros metadatos. Esto quiere decir que nuestros contactos, con qué frecuencia hablamos con ellos, desde dónde y a qué hora, además de gran cantidad de información adicional, es recolectada por Meta por el simple hecho de usar sus servicios.

La concentración de poder no solo tiene implicancias en materia de privacidad. Por ejemplo, una aplicación de la cual dependen buena parte de las comunicaciones de la población podría verse amenazada por un conflicto geopolítico. Es decir, esta dependencia convierte a una herramienta de comunicación en un arma para el conflicto entre Estados.

A raíz de las revelaciones de Snowden, desde 2013 sabemos que EE. UU. utiliza las plataformas digitales de empresas estadounidenses para espiar las comunicaciones globales. Los embargos económicos de EE. UU. también implican restricciones en la adquisición de software a países como Cuba, Irán y Siria. Con estos antecedentes, cabe preguntarse: ¿qué pasaría si EE. UU. entrara en guerra con Europa a causa de Groenlandia? ¿WhatsApp funcionaría sin problemas para las personas europeas?

Este tipo de escenarios plantean preocupaciones globales que no son nuevas: desde distintas regiones y Estados del mundo existen múltiples intentos para tensionar la concentración económica, de datos y de poder en el entorno digital. En el caso de la Unión Europea (UE), tomaron la decisión de regular las plataformas digitales buscando establecer criterios y límites claros por medio de la Ley de Mercados Digitales (DMA por sus siglas en inglés).

Descentralizar la mensajería por ley

Los aspectos de concentración de poder, soberanía digital y privacidad, motivaron a la UE a crear la Ley DMA. Esta normativa busca regular a las empresas que dominan el mercado digital, denominadas en la legislación como “guardianes de acceso” (gatekeepers en inglés), para evitar abusos de poder, prácticas anticompetitivas y garantizar la interoperabilidad con plataformas más pequeñas. WhatsApp (Meta) fue designada como “gatekeeper” en 2023, entre otros motivos por tener más de 45 millones de personas usuarias activas al mes dentro de la UE. Esta condición le obliga a cumplir con los requisitos de la DMA, incluyendo la obligación de poder interoperar con plataformas más pequeñas.

La expectativa de una legislación de estas características es ambiciosa: permitir a las personas conversaciones a través de distintos servicios conectados. La consecuencia debería ser que quienes utilizan aplicaciones como Signal, Telegram, o plataformas europeas como Threema o Wire, se puedan comunicar con aquellas que tienen WhatsApp.

Sin embargo, la implementación conlleva una paradoja. La forma en la que está redactada la ley obliga a la plataforma que se quiere regular a que defina las reglas técnicas mediante las cuáles interactuaría con otras aplicaciones. La legislación estableció que hasta marzo de 2024, WhatsApp debía definir e implementar un plan para interactuar con otras plataformas. A fines de 2025, WhatsApp comenzó a interoperar con otras aplicaciones, pero solo con dos: Haiket y BirdyChat, recientemente creadas, y de las cuales se sabe muy poco.

Aplicaciones como Signal o Threema se oponen a la interoperatividad planteada por la DMA. Las dos empresas sostienen que su enfoque en favor de la privacidad y seguridad podría verse vulnerado al interactuar con otros proveedores ya que, de esta manera, no pueden asegurar el cuidado de los datos cuando pasan a manos de proveedores como WhatsApp. Al ser aplicaciones con bases de usuarios más pequeñas que WhatsApp, no son vistas como “guardianes de acceso” y por lo tanto no tienen obligación de cumplir con la DMA.

La ley podría así lograr que WhatsApp se conecte con aplicaciones irrelevantes, mientras que sus competidores más sólidos se mantienen al margen, dejando su dominio prácticamente intacto.

Los estándares abiertos y la idea de federación

Lo que la UE quiere hacer con WhatsApp es muy parecido a lo que se conoce como federación: un sistema donde plataformas independientes pueden comunicarse entre sí usando estándares abiertos. Un ejemplo es el correo electrónico: las personas que usan Gmail pueden comunicarse con otras que utilizan casillas de Outlook, Protonmail u otro proveedor. Si bien Gmail, con 1800 millones de usuarios, es un actor dominante en el terreno del correo electrónico, no es quien pone las reglas sobre las cuales se comunican los otros proveedores. Esto es posible gracias a protocolos consensuados como el “Protocolo Simple de Transferencia de Correo” (SMTP en inglés), sin la necesidad de intervención estatal.

Hay una diferencia clave: el correo electrónico surgió de la colaboración voluntaria entre desarrolladores que construyeron internet, acordando reglas para un sistema de correspondencia digital asincrónico y federado que previamente no existía.

Siguiendo la tradición de estándares federados, a inicios de este siglo surgió el “Protocolo extensible de mensajería y comunicación de presencia” (XMPP en inglés), inspirado en el servicio de correo electrónico donde las cuentas son del tipo usuario@dominio.com. Se trata de un protocolo conocido y utilizado por comunidades como las del software libre. Hasta 2013, Google Talk, el chat de Gmail en ese momento, implementaba este mecanismo mediante el cual una cuenta de Gmail podía comunicarse con cuentas de chat alojadas en servidores más pequeños y diversos.

Curiosamente, WhatsApp utiliza una versión modificada de XMPP conocida como FunXMPPque está optimizada para las necesidades de la aplicación y que además desactiva las funcionalidades de federación.

De todas formas, XMPP no es la única opción para comunicaciones de chat federadas. En 2014 se empezó a construir el protocolo Matrix con características similares a XMPP, pero con el cifrado extremo a extremo desarrollado como parte fundamental del protocolo, con el fin de cuidar su seguridad. En la actualidad, en Derechos Digitales utilizamos este estándar como la base de nuestra oficina virtual en un servidor manejado por nuestro equipo técnico. Incluso nos podemos comunicar con otras organizaciones que también van por el mismo camino: la apropiación de nuestras comunicaciones.

XMPP y Matrix no son protocolos perfectos y tienen muchos aspectos por mejorar. El primero tuvo un desarrollo lento y el soporte de chat cifrado entre extremos no fue adoptado por todos los servidores y clientes. Matrix resuelve el problema de cifrado extremo a extremo, pero también podría mejorar para establecerse como un estándar oficial. Igualmente, estos aspectos no opacan su relevancia como protocolos abiertos que sostienen el espíritu de la comunicación descentralizada y abierta que caracteriza a internet.

Fortalecer protocolos y estándares para una soberanía tecnológica

El intento de la UE apunta a fortalecer una internet más descentralizada y con menos concentración de poder en pocas empresas. Más allá de una perspectiva política, la apuesta refleja preocupaciones técnicas profundas sobre la resiliencia de las comunicaciones digitales a través de la independencia tecnológica, el cifrado y la interoperabilidad. Si bien representa un avance significativo, aún quedan dudas sobre la estrategia de dar el control sobre la forma de federarse a las aplicaciones que se quieren regular.

Por otro lado, las soluciones basadas en estándares abiertos, como XMPP y Matrix, ayudan a poner las mismas reglas para todas las aplicaciones que implementan el estándar. Es decir, en lugar de que WhatsApp defina cómo se comunica con el resto, el estándar abierto define las reglas por las que todas las partes se comunican entre sí. De esta manera, no se le da un poder especial a la aplicación que se pretende regular, similar a lo que sucede con el correo electrónico y Gmail.

Moverse a un sistema federado tiene ventajas como la independencia de proveedor, eliminar un único punto de fallo y la posibilidad de tener infraestructura propia para nuestras comunicaciones. También nos presenta retos: los organismos de estandarización técnicos deben acordar las actualizaciones de los estándares a futuro.

En América Latina, nuestros gobiernos ni se asoman a este tipo de discusiones, y somos pocas las comunidades que estamos reflexionando sobre estos temas. Sin embargo, los estándares abiertos están disponibles, y si organizaciones como Derechos Digitales pueden tener su propio servidor de chat federado, seguramente muchas otras también puedan emprender el mismo camino hacia una soberanía tecnológica cada vez mayor.

Chile en WSIS+20: expectativas altas, resultados moderados

En la Cumbre Mundial de la Sociedad de la Información (WSIS por sus siglas en inglés), que concluyó en diciembre pasado, países de la región como Chile tuvieron un rol notable en el proceso de negociación. Recordemos que la Cumbre buscó revisar los acuerdos pactados en 2015 que giraron en torno a la gobernanza de las tecnologías digitales, centrada entonces en las personas y enfocada en el desarrollo sostenible, la lucha contra la desigualdad y el cierre de la brecha digital, entre otros.

La revisión de los 20 años de la primera WSIS finalizó en 2025 con una resolución aprobada por la Asamblea General de las Naciones Unidas. Un documento que, en pocas palabras, apenas si mantuvo aspectos mínimos de los acuerdos pasados, en lugar de avanzar hacia compromisos urgentes como, por ejemplo, reconocer y fortalecer la rendición de cuentas del sector privado, introducir mayores salvaguardas y garantías en relación con el despliegue y desarrollo de la inteligencia artificial e incluso considerar moratorias frente a los usos problemáticos.

Chile: expectativas y resultados del proceso de negociación

En ese proceso de negociación multilateral, que fue complejo y estuvo lleno de tensiones dadas por el escenario geopolítico actual, Chile participó a través del G77 + China y por su propia cuenta, movilizando cuatro prioridades: conservar compromisos en materia de desarrollo, la renovación del Foro de Gobernanza de Internet (IGF) y la continuidad del modelo de múltiples partes interesadas, conservar los acuerdos preexistentes en materia de derechos humanos, y explicitar esfuerzos enfocados en la equidad de género.

Estas prioridades están dadas por la agenda internacional desplegada por Chile en los últimos años. Desde 2024, el país lidera la agenda del desarrollo con la copresidencia del ODS 4, enfocado en la equidad en la educación. A nivel regional, ha sido vocal con el fortalecimiento del IGF así como con el robustecimiento del modelo de múltiples partes interesadas para mejorar la gobernanza de internet. Y de manera consistente, en la última revisión de la WSIS que tuvo lugar en 2015, defendió acuerdos de derechos humanos, en especial en libertad de expresión y privacidad. Más recientemente, las relaciones internacionales del país se han enfocado en defender la política externa de género en los espacios multilaterales, que ha resonado en foros como la Comisión de la Condición Jurídica y Social de la Mujer (CSW por sus siglas en inglés), o las negociaciones del Pacto Digital Mundial.

En materia de desarrollo

En las negociaciones sobre desarrollo, Chile apoyó por su cuenta y en el marco del G77 + China, que se mantuvieran referencias a la Agenda 2030 de Desarrollo Sostenible que, para países como Estados Unidos, debían ser eliminadas junto a las referencias sobre derechos humanos, en aras de la brevedad y concisión de la resolución final. Dicha vinculación es crucial porque la Cumbre apunta a la realización de la Agenda a través de la gobernanza de las tecnologías digitales. La eliminación de dicha referencia hubiera dejado sin sus bases fundacionales a la Cumbre.

La resolución, en efecto, mantuvo algunas referencias a la Agenda 2030. Por ejemplo, al señalar que el cierre de la brecha digital debe enfocarse en la realización de los Objetivos de Desarrollo Sostenible ODS (párrafo 25), se debe garantizar coherencia en la aplicación de los resultados de la Cumbre con los ODS (párrafo 106), y se debe buscar alinear estrechamente la realización de las Líneas de Acción (ejes críticos de la Cumbre) con la Agenda 2030 (párrafo 111). También, encarga a los organismos de las Naciones Unidas a cargo de operacionalizar su implementación de cara a los ODS (párrafo 122), entre otros.

El IGF y el modelo de múltiples partes interesadas

En materia de renovación del IGF, el G77 + China abogó por la permanencia de su mandato. Aunque perfectible, es un foro crítico cuyo mandato, según el G77 + China, debía ser fortalecido a través de una mejor estructura, financiamiento para su realización, y por sobre todo, a través de una más amplia participación de países del Sur Global.

Sobre el modelo de múltiples partes interesadas, el G77 + China apuntó en el mismo sentido, a integrar en los procesos de negociación referencias enfocadas en estructurar, transparentar y mejorar la participación de partes interesadas, en especial de los países en vía de desarrollo.

La resolución final de la Cumbre, hizo permanente el mandato del IGF y enmarcó su funcionamiento futuro dentro de los procedimientos presupuestarios de la ONU, llamando a garantizar una financiación estable y sostenible (párrafo 96-103). También, hizo referencia a otros foros de múltiples partes interesadas (como los lineamientos de NETMundial+10) como una referencia útil y aspiracional en la realización de dicho modelo que, según la resolución, debe continuar en el centro de la gobernanza de internet (párrafo 91 a 94).

Que la resolución final de la Cumbre mencionara nuevamente la centralidad del modelo de múltiples partes en la gobernanza de las tecnologías digitales no es menor. En esta reciente negociación, hubo Estados -como China o Rusia- que presionaron, de hecho, por dar mayor centralidad a otros modelos de gobernanza basados en un rol más intenso del multilateralismo, que se centra en los Estados como los actores más importantes. Que se conservara y afirmara la importancia del modelo de múltiples partes es un logro que no es menor, aunque su inclusión se hizo sin reconocer las limitaciones que enfrenta en el marco del escenario geopolítico actual donde las relaciones estatales enfrentan serias tensiones y donde la participación de la sociedad civil en la esfera internacional enfrenta serias amenazas y riesgos.

Derechos humanos

Desde la primera Cumbre, la agenda de derechos humanos fue insertada de manera transversal en la idea misma de la gobernanza de internet. En la Agenda de Túnez y el Plan de Acción de Ginebra, constan referencias a los derechos humanos, y derechos como la libertad de expresión y la privacidad. En la negociación de la Cumbre, Chile enfocó por su cuenta esfuerzos dedicados a la conservación de los acuerdos ya pactados, que países como Estados Unidos buscaron erosionar bajo argumentos de concisión del texto final de la conversación.

Al final, sí se hizo mención explícita a los derechos humanos que figuran en la resolución aprobada en diciembre de 2025 (párrafos 8-78), pero hay omisiones que brillaron por su ausencia, como el impacto de la plataformización en el mundo del trabajo y los derechos de los trabajadores, o el tono debilitado que recibieron los compromisos y responsabilidades del sector privado que, con sus tecnologías y modelos de negocio, impactan profundamente en el ejercicio de derechos.

Equidad de género

Chile, por su cuenta, movilizó el reconocimiento expreso de la violencia de género facilitada por las tecnologías digitales, en concreto, en el párrafo 11 de la futura resolución.. La resolución final reconoció en dicho párrafo la transversalización de la perspectiva de género, la brecha digital de género, y contempló el fenómeno de la violencia sexual y de género, aunque su lenguaje se enfocó exclusivamente en la protección de mujeres y niñas, excluyendo a colectivos LGBTIQA+ del texto.

El giro de Chile a la ultraderecha: ¿tendrá eco la Cumbre en la agenda local?

En diciembre de 2025 Chile eligió su primer gobierno de ultraderecha desde el retorno de la democracia. Analistas locales señalan que la política exterior del gobierno electo permanece aún en la incógnita pues fue un tema excluido de manera deliberada de los temas centrales de la campaña electoral. A la fecha, según distintos expertos, la política exterior chilena ha estado marcada por “líneas históricas” antes que por intereses ideológicos que mudan con cada nuevo gobierno. Es decir, se ha caracterizado por su continuidad, respeto al derecho internacional, y una “diplomacia profesional, sobria y previsible”, por lo que se espera que esto permanezca así durante la futura toma de posesión del nuevo presidente, José Antonio Kast.

Bajo esa perspectiva, se podría esperar que Chile mantenga su respaldo a los compromisos gruesos pactados en la WSIS que concluyó en 2025. Sin embargo, emergen dudas serias sobre el apoyo específico a objetivos como los que fueron trazados en el párrafo 11 de la resolución final, enfocada en materia de género, pues el presidente electo ha afirmado en diversas ocasiones que se debe desterrar la ideología de género de las políticas de protección de la mujer. En el pasado, de hecho, se opuso a la Ley de Identidad de Género, y hasta promovió acciones judiciales en contra de políticas afirmativas en materia de salud sexual y reproductiva.

Por ahora, es incierta la resonancia que tendrán los objetivos y metas de la WSIS en las políticas locales enfocadas en la gobernanza de internet y otras tecnologías digitales, en especial, las metas enfocadas en la erradicación de la violencia de género basada en las tecnologías. Tampoco existe claridad sobre cómo se dará en la práctica la participación de la ciudadanía y sociedad civil interesada en incidir en dichas políticas públicas.

Por ahora, y hasta que se posicione el presidente electo en el mes de marzo de 2026, hay que observar con atención el perfil y enfoques de las personas que estarán a cargo del Ministerio de la Igualdad, del Ministerio de Transporte y Telecomunicaciones, y del Ministerio de Relaciones Exteriores, centrales en la articulación de la política digital y económica internacional, y la política digital local.

Protección de datos en América Latina: avances, tensiones y desafíos pendientes

El 28 de enero es reconocido a nivel mundial como el Día de la Protección de Datos. La fecha fue establecida en 2006 por el Consejo de Europa y remite al día en que se firmó, en 1981, la Convención 108: el primer tratado internacional jurídicamente vinculante para Europa sobre la protección de datos personales y el tratamiento automatizado de información. La efeméride conmemorativa se inscribe, por lo tanto, en una tradición europea de regulación de la privacidad y la protección de datos, que ha influido en múltiples marcos normativos en todo el mundo y busca destacar la importancia de garantizar esos derechos fundamentales en un contexto de uso creciente de tecnologías digitales.

Aunque las nociones de privacidad y de protección de datos están estrechamente relacionadas, no son sinónimos. La primera se refiere a un derecho amplio a la intimidad y a la autonomía personal, clásicamente definido como el “derecho a no ser molestado”; mientras que la segunda articula un conjunto de normas y prácticas sobre cómo se recolectan, procesan y protegen los datos que identifican o tienen el potencial de identificar a una persona. En ese sentido, el 28 de enero no solo celebra un derecho individual abstracto, sino una tradición normativa que busca colectivizar ese derecho y traducirlo en obligaciones y mecanismos concretos, cuya efectividad depende de instituciones específicas.

En América Latina, esta fecha implica reflexionar no solo sobre los avances legales, sino también sobre las tensiones entre teoría y práctica en contextos sociales, institucionales y políticos específicos que difieren, en muchos sentidos, de los europeos.

Los avances legales

La privacidad es un derecho reconocido en las constituciones y leyes de la gran mayoría de los países. En consonancia con este reconocimiento, durante la última década América Latina avanzó en la aprobación de leyes de protección de datos personales, en procesos legislativos fuertemente influidos por la experiencia europea, en particular por el Reglamento General de Protección de Datos (GDPR).

Estas normas surgen en un contexto marcado por el uso -cada vez más intensivo- de datos por parte de las empresas privadas, cuya presencia en la vida cotidiana de las personas es cada vez mayor y más profunda. A este escenario se suma la creciente digitalización de los Estados, que dependen principalmente de la recolección y el tratamiento de datos personales para diseñar e implementar políticas públicas. En este punto, además, emerge una tensión fundamental: si bien el uso de datos puede ser una herramienta legítima para la acción estatal, su utilización sin salvaguardas adecuadas por parte de las instituciones públicas puede abrir la puerta a prácticas de vigilancia y a vulneraciones de derechos. En ausencia de reglas claras y límites efectivos, las personas quedan en una situación de especial vulnerabilidad.

Es precisamente desde este escenario que deben leerse los avances legislativos recientes en la región, que avanzan con ritmos distintos. Mientras todavía hay países como Honduras, Bolivia y Guatemala, que aún no cuentan con marcos legales de protección de datos, otros van camino a sus primeros marcos normativos o a la actualización de los ya existentes. Así, a fines de 2025, Paraguay aprobó su ley de protección de datos personales tras un prolongado debate legislativo y una activa participación de la sociedad civil. En Chile, en cambio, se prevé para 2026 la entrada en vigencia de una nueva ley, aprobada en 2024.

Estos avances confirman un progreso sostenido en el plano legal y merecen ser celebrados. Sin embargo, es clave no perder de vista lo esencial: la mera existencia de leyes no garantiza derechos si éstas no son proporcionales ni estén alineadas con estándares internacionales de protección de derechos humanos. La experiencia reciente muestra que algunas regulaciones pueden incluso profundizar riesgos, como ocurre en El Salvador, cuya legislación fue objeto de denuncias por sus impactos negativos sobre la libertad de expresión y de prensa. Algo similar se observa en Paraguay, donde la nueva ley -aún siendo resultado de un proceso con activa participación de la sociedad civil- también fue objeto de críticas por incorporar mecanismos que pueden convertirse en obstáculos sistemáticos a la transparencia, limitando el acceso a información de interés público, particularmente en lo que respecta a la contratación pública, los funcionarios públicos y el gasto de fondos públicos.

Asimismo, una pregunta central continúa abierta: ¿hasta qué punto estos marcos normativos, muchas veces importados de modelos regulatorios externos, logran traducirse en transformaciones efectivas que respondan a los contextos y realidades de los países de América Latina?

El mercado ilegal de datos como síntoma

Una investigación de Derechos Digitales que será publicada próximamente documenta el funcionamiento de grupos y canales de Telegram que operan en distintos países de América Latina dedicados a la compra y venta ilegal de datos personales. Direcciones, números de teléfono, filiación, información de salud y otros datos sensibles circulan en estos espacios.

La existencia de esta economía ilegal de manera organizada, activa y transnacional resulta profundamente preocupante, pero también reveladora. Más que un fenómeno aislado, pone en evidencia las brechas entre los marcos de protección de datos y su aplicación práctica. La persistencia de estos mercados demuestra que los datos personales se recolectan, circulan y se monetizan mucho antes de que las personas puedan ejercer sus derechos, presentar reclamos o incluso tomar conocimiento de la situación.

Es decir, más que una falla puntual, estos mercados ilegales revelan un problema estructural. La protección de datos aún no logra operar como un límite efectivo frente a dinámicas económicas y sociales que convierten la información personal en una mercancía. Comprender esta brecha entre norma y práctica resulta clave no solo para evaluar el alcance real de estos marcos, sino también para pensar cómo fortalecerlos y hacerlos avanzar en la práctica.

Una protección construida sobre bases desiguales

Como ya se mencionó, muchas de las leyes de protección de datos en América Latina están fuertemente inspiradas en el modelo europeo, concebido a partir de trayectorias históricas, institucionales y socioeconómicas distintas a las de nuestra región. Esta traslación normativa suele darse sin una adecuación suficiente a los contextos locales, marcados por profundas desigualdades sociales, inestabilidades políticas y democráticas, y bajos niveles de capacidad institucional. Si bien la protección de datos por definición ya parte de una asimetría estructural entre quienes tratan datos personales y las personas titulares de los mismos, esta brecha se intensifica en una región donde amplios sectores de la población no tienen acceso a la alfabetización digital y de datos.

Esta situación plantea interrogantes especialmente relevantes en torno al consentimiento, una base legal central en muchas legislaciones de protección de datos. Para que el consentimiento sea verdaderamente libre e informado, las personas deben poder comprender y evaluar de manera efectiva todas las implicancias del tratamiento de sus datos. Sin embargo, es importante destacar que se trata de un concepto estructuralmente frágil en contextos atravesados por relaciones de poder, incluso más allá de la protección de datos, como ocurre en casos de violencia de género y culturas de normalización del abuso.

A estos desafíos se suman debilidades institucionales persistentes. La existencia de leyes no garantiza, por sí sola, su aplicación efectiva. En algunos países de América Latina ni siquiera se constituyeron autoridades específicas para la supervisión y aplicación de normas de protección de datos -clave para garantizar la efectividad del derecho, fiscalizar a actores públicos y privados y ofrecer mecanismos de tutela a las personas titulares de los datos-, mientras que en otros se produjeron retrocesos significativos, como la reciente disolución del INAI en México. Incluso cuando estas autoridades existen, suelen enfrentar limitaciones sustantivas en términos de independencia, que afecta su capacidad de actuar frente a vulneraciones cometidas por el propio Estado, así como restricciones de recursos humanos y presupuestarias que comprometen su funcionamiento.

Por último, otra dimensión de esta fragilidad estructural se relaciona con la seguridad de la información. Organismos públicos, y otras entidades que concentran grandes volúmenes de datos personales, suelen enfrentar dificultades recurrentes para implementar políticas integrales de seguridad, prevenir accesos indebidos y responder adecuadamente a incidentes. Las filtraciones y exposiciones masivas de datos no son episodios aislados en América Latina, sino señales de una cultura institucional que aún no incorpora la protección de datos como un eje central de su funcionamiento.

Más allá de la conmemoración

En este contexto, el 28 de enero no puede reducirse a una fecha conmemorativa ni a una celebración acrítica de avances normativos. En América Latina, una región atravesada por profundas desigualdades pero también por una larga trayectoria de resistencia, organización social, disputa política y construcción de derechos, el Día Internacional de la Protección de Datos invita a una reflexión situada sobre la distancia persistente entre los marcos legales y las condiciones reales en las que los datos personales son recolectados, tratados y expuestos.

En este sentido, recordar el origen de esta fecha que nace anclada en una tradición europea de institucionalización de derechos, resulta relevante, no para reproducir modelos, sino para dialogar críticamente con ellos y construir respuestas propias desde nuestros contextos locales. La protección de datos adquiere pleno significado cuando logra traducirse en límites efectivos al poder estatal y privado, y en garantías concretas para las personas. Por ello, debe entenderse como parte de un proyecto más amplio de justicia digital y afirmación de derechos.