Infraestructura tecnológica en las organizaciones: una decisión por los derechos y la autonomía 

Desde hace años, la idea de soberanía tecnológica ocupa un lugar importante en las discusiones sobre gestión de datos, infraestructura y formas de compartir información. Para las organizaciones de la sociedad civil que trabajan en la defensa de los derechos humanos en un entorno digital cada vez más hostil, resulta un asunto de gran relevancia. Tener control sobre sus operaciones tecnológicas se vuelve urgente en un contexto digital atravesado por la vigilancia, la extracción masiva de datos y la concentración del poder en pocas empresas. No se trata solamente de eficiencia organizacional: es, ante todo, una cuestión política a atender.

Autonomía tecnológica como construcción organizacional

Hablar de soberanía tecnológica implica mirar con atención todo el recorrido que hacen los datos, incluso una acción aparentemente simple, como la carga de un archivo local hacia una nube propia, involucra múltiples capas de decisiones técnicas. Por eso, antes de afirmar que se tiene control o agencia sobre información, es necesario preguntarse por los distintos componentes que intervienen este proceso. Entre ellos están las herramientas que se utilizan, la infraestructura donde se alojan los datos (data centers) o las redes de telecomunicaciones que se usan. Analizar estas dimensiones no es un ejercicio teórico, sino una forma concreta de ejercer el poder institucional.

Conocer y saber cómo se guarda la información, quién puede acceder a ella, bajo qué condiciones legales y técnicas, y qué capacidades tiene quien la gestiona, son preguntas fundamentales. Para las organizaciones que trabajan con datos sensibles, por ejemplo información relacionada a víctimas, defensoras de derechos humanos y activistas, este control de la información puede marcar la diferencia entre la protección y el riesgo a la exposición.

En este sentido, adoptar prácticas como el cifrado de extremo a extremo, recomendado constantemente desde Derechos Digitales y promovido por organizaciones como la Electronic Frontier Foundation (EFF) y Access Now, contribuye a reducir riesgos en el acceso y la transferencia de información. Lo mismo ocurre con el uso de redes de anonimización como Tor, desarrollada y mantenida por The Tor Project, que permiten dificultar el rastreo del origen de las comunicaciones.

Si bien el cifrado de extremo a extremo no garantiza comunicaciones completamente seguras, su correcta gestión impide que personas no autorizadas puedan leer archivos o cadenas de datos sin las llaves necesarias. Estas medidas pueden aplicarse en diferentes momentos: desde la creación de los archivos hasta su almacenamiento. Si a esta práctica se le suman redes como Tor -que envían las cadenas de datos cifradas y de diferentes países-, se logra evitar aún más la posibilidad de seguimiento o identificación.

Empresas proveedoras, ética y políticas

Para responder a la demanda de servicios tecnológicos, las grandes compañías suelen ofrecer soluciones simples, escalables y de rápida implementación. Empresas como Amazon, Google o Microsoft concentran buena parte del mercado global de servicios de correo electrónico, almacenamiento o alojamiento en la nube, gestionando la mayoría del tráfico y de los datos del mundo.

Según el informe de la Cloud Infrastructure Services Providers in Europe (CISPE) y reportes de la industria del mercado global de la nube, esta concentración limita las posibilidades reales de gestionar infraestructuras de forma autónoma y, a su vez, mantiene el desarrollo de aquellos modelos centralizados que no se corresponden a las necesidades o a los valores de las organizaciones de derechos humanos. Sin embargo, este no es el único camino posible. Existen proveedores comerciales alternativos como cooperativas tecnológicas, o empresas con valor ético incluso, los cuales ofrecen servicios de alojamiento con políticas de privacidad más exigentes y compromisos para reducir el impacto sobre el medio ambiente, resguardando principios de sostenibilidad y responsabilidad social.

Pensar la infraestructura desde una perspectiva de derechos también implica considerar su huella ecológica. Algunos proveedores de infraestructuras destacan por su ética y su capacidad de ser sostenibles. Tal es el caso de OVHcloud, por citar uno de los más reconocidos, que ofrece el llamado hosting verde: data centers diseñados para minimizar el consumo de energía, utilizando fuentes renovables y mecanismos de eficiencia que contribuyen a disminuir la huella de carbono que genera el alojamiento web. Otro muy utilizado por su red de distribución de contenidos y su nivel de protección ante ataques es Cloudflare, que también se encuentra entre los servicios hosts eco-friendly con menor huella de energía del mundo.

Además, existen alternativas más especializadas y orientadas a la privacidad y sostenibilidad, como por ejemplo Greenhost y OrangeWebsite. Se caracterizan por sus niveles de compromiso con la protección de datos y el uso de energías renovables: algunos incluso permiten opciones de pago mediante criptomonedas, así como compatibilidad con servicios de redes de anonimato como Tor.

A ellas se suman proveedores de hosting ecológico como GreenGeeks, SiteGround o HostPapa, que utilizan energía renovable junto a -o bien a través de- estrategias de compensación de carbono, combinando rendimiento, sostenibilidad y valores. Este tipo de herramientas, además, permiten a las organizaciones desarrollar infraestructuras que no solamente protegen los datos, sino que, a la vez, van en concordancia con el compromiso de una internet más justa y sostenible.

Dificultades y casos de éxito

Optar por infraestructura propia o autogestionada presenta sus dificultades. La gestión de servidores, nombres de dominio, certificados de seguridad y sistemas de respaldo conlleva una carga de inversión económica y, sobre todo, técnica. Por un lado, es necesario contar con los equipamientos, y por otro, construir  alianzas estables que permitan garantizar mantenimiento, actualizaciones y respuesta ante incidentes. Sin embargo, esta inversión permite, en un mismo momento, desplegar un número importante de aplicaciones en un entorno controlado, dividir servicios mediante máquinas virtuales o contenedores, y gestionar pruebas de distintos niveles de usuario mediante un mismo servidor. Son prácticas comunes ya en comunidades de software libre y en experiencias de administración de sistemas que demuestran que la autogestión es posible.

Ante esta situación, algunas organizaciones de la sociedad civil ya vienen explorando estos caminos. Derechos Digitales, por ejemplo, viene impulsando análisis críticos y observatorios sobre el uso de tecnologías en políticas públicas, promoviendo mayor transparencia y trabajando en red con otras organizaciones de la región. Fundación Karisma, por su parte, incentiva la adopción de tecnologías de código abierto y defensivas en redes internacionales, y fomenta capacidades internas para identificar y responder a amenazas digitales.

Otras organizaciones como SocialTIC, combinan la capacitación y el acompañamiento estratégico en tecnologías seguras para agentes de cambio social, amplificando el uso de herramientas libres y métodos de protección digital entre colectivos y organizaciones de México y la región. Por otra parte, las iniciativas que provienen de las comunidades como Nodo50 en Europa, o los trabajos promovidos por la Open Knowledge Foundation fueron clave en el impulso de infraestructuras éticas y abiertas, con un fuerte compromiso en la autodeterminación tecnológica.

Un temor recurrente entre las organizaciones es que contar con infraestructura propia aumente su vulnerabilidad frente a ataques. Sin embargo, la experiencia de agrupaciones de seguridad informática y defensoras de derechos humanos señala que el nivel de vulnerabilidad no depende del lugar donde se aloja la información, sino de la matriz de riesgo de cada organización: su visibilidad pública, el marco político donde actúa, el tipo de información que trata, así como las medidas de protección que tiene adoptadas. Las infraestructuras organizacionales bien construidas, con protocolos claros de cuidado de los datos, actualizaciones constantes de los elementos, políticas de acceso restringido, entre otras características, podrían ser mucho más difíciles de vulnerar que aquellas soluciones externas mal construidas o utilizadas sin los criterios de seguridad necesarios.

Desde este punto de vista, la soberanía tecnológica no es una solución única ni un ideal abstracto. Es un proceso gradual, situado y profundamente político. Significa reconocer los límites, evaluar capacidades reales y tomar  decisiones poniendo en el centro a las personas y a la información que sostienen las luchas por los derechos humanos en línea. En un ecosistema digital sumamente desigual, avanzar hacia mayores niveles de control y autonomía tecnológica es también una forma de coherencia institucional y de defensa activa de los derechos que se buscan proteger.

Diversidad cultural bajo asedio algorítmico: folklorización, silenciamiento y colonización de nuestros patrimonios culturales

El diseño, entrenamiento y despliegue de tecnologías está transformando nuestras sociedades en los ámbitos económico, social y político. Sin embargo, este debate suele dejar en un segundo plano cómo la IA está reconfigurando los modos en que la cultura se crea, promueve, accede y experimenta, con implicaciones profundas para el ejercicio de los derechos culturales.

Estos derechos son fundamentales en tanto protegen el desarrollo y la manifestación de las identidades culturales, y garantizan que personas y comunidades puedan expresar sus cosmovisiones y los significados que atribuyen a su existencia. Esta expresión se materializa a través de formas diversas de la experiencia humana que incluyen las artes, el patrimonio cultural, las lenguas, los sistemas de conocimiento, las convicciones, las creencias religiosas, e incluso prácticas cotidianas como la alimentación y la vestimenta.

En otras publicaciones hemos analizado las implicancias de la IA para el campo de los derechos culturales, puntualmente para la creación artística y la creatividad. En esta columna, problematizaremos a la IA como producto de hegemonías culturales y, a la vez, como infraestructura tecnológica que condiciona los marcos en los que la cultura se produce, circula y valora socialmente. Partimos de la premisa de que cuando los sistemas de IA se entrenan con información cultural del Norte Global, así como bajo lógicas coloniales y extractivistas, los resultados sesgados y discriminatorios no son accidentales, sino que reflejan las dinámicas de inclusión y exclusión presentes en los datos de entrenamiento y en los procesos de diseño. Como consecuencia, las culturas, las lenguas, los conocimientos y las formas de expresión del Sur Global están constantemente ausentes o mal representadas en los contenidos asistidos o generados por esta tecnología.

Resaltaremos la importancia de proteger, hoy más que nunca, la soberanía y la autodeterminación de las comunidades de nuestra región sobre sus datos culturales. Algo imprescindible frente a la creciente expansión de sistemas de IA que tienden a producir una visión de la cultura homogénea, estandarizada y colonial. Los argumentos presentados a continuación están basados en una contribución conjunta presentada por Derechos Digitales y Asociación para el Progreso de las Comunicaciones (APC) ante el Mecanismo de expertos sobre el Derecho al Desarrollo de Naciones Unidas.

¿Cómo nos ven los grandes modelos de IA?

Diferentes investigaciones vienen señalando que los modelos de IA de las principales compañías tecnológicas no están diseñados para narrar con precisión aspectos culturales de los países del Sur Global. En algunos casos, esto se traduce en imprecisiones que reflejan desconocimiento y, en otros, en la reproducción de estereotipos e imaginarios simplificados que desdibujan la especificidad de identidades y expresiones culturales diversas.

Un claro ejemplo se observa en un estudio de la Universidad Diego Portales, en el que se generaron más de dos mil imágenes utilizando la herramienta Dall-E para analizar la percepción de los outputs de la IA sobre Chile y América Latina. Los resultados fueron desalentadores: la IA reproducía sesgos culturales, desigualdades, prejuicios, estereotipos de género y raciales. Así, al pedirle a la IA que generara imágenes a partir del prompt de «una mujer mapuche», los resultados mostraban a mujeres de cabello castaño, nariz respingada, ojos grandes y piel clara. Además, su vestimenta mezclaba elementos de diversos pueblos originarios de Latinoamérica y, en algunos casos, incluía plumas en la cabeza, algo característico de culturas indígenas norteamericanas.

Lo anterior refleja una problemática clara de la IA frente a la diversidad cultural: la mitificación, ficción y folklorización de las formas de expresión y las comunidades de regiones del Sur Global. A saber, las principales herramientas de IA amplifican ciertas estéticas y narrativas, mientras silencian y tergiversan otras, influyendo en cómo se representan las culturas en los entornos digitales y fuera de ellos. En esa medida, aquellas narrativas culturales alineadas con las normas dominantes -a menudo del Norte Global- son priorizadas, mientras que las expresiones e identidades de regiones pertenecientes al Sur Global están infrarrepresentadas o, peor aún, mal representadas.

Las implicaciones sociales y políticas de este escenario resultan preocupantes en el contexto tecno-político que vivimos. Estos sistemas -por su diseño y escala- no solo pueden profundizar jerarquías dominantes sino también generar nuevas formas de exclusión al promover la homogeneidad cultural y estética, con impactos directos en la diversidad cultural. Esto deteriora las condiciones del acceso y la transmisión de la cultura, a la vez que obstaculiza los esfuerzos de independencia, soberanía y autorrepresentación de comunidades históricamente marginalizadas, quienes continúan excluidas de las expresiones culturales dominantes.

Colonialismo digital extractivista

Otra problemática vinculada al diseño y entrenamiento de los grandes modelos de IA son las prácticas extractivistas y coloniales sobre los datos culturales de comunidades del Sur Global. En efecto, organismos internacionales de derechos humanos ya lo están advirtiendo: las empresas tecnológicas tratan los datos derivados de los patrimonios culturales como simples insumos para sus sistemas, despojándolos de los significados que les atribuyen las comunidades y sin beneficios reales para ellas.

Desde luego, los inventarios de datos que alimentan dichos sistemas rara vez se crean de forma participativa y transparente, o se rigen por marcos de derechos humanos con el fin de promover la diversidad cultural, comprenderla y protegerla. En contraste, lo que prevalece son prácticas de recopilación de datos culturales que priorizan el beneficio económico, normalmente sin consultar a las comunidades ni solicitar su consentimiento, y sin informarles sobre los objetivos de la recopilación.

Algunos estudios nombran esta postura extractivista como colonialismo digital. Se caracteriza por la construcción de un imperio algorítmico en el que los patrimonios culturales se convierten en materia prima de los sistemas de IA dominantes, extraídos de forma selectiva, descontextualizada, y sin favorecer realmente a las comunidades. Bajo esta lógica, al igual que las potencias coloniales extraen los recursos naturales de nuestras tierras, los grandes modelos de IA extraen idiomas, historias y conocimientos de las comunidades, los separan de su contexto y significado originales, y los vuelven a ofrecer de forma tergiversada para su consumo global.

Lo anterior no solo perpetúa la ya mencionada malrepresentación de las culturas y formas de expresión del Sur Global, sino que erosiona la autodeterminación cultural de las comunidades. El derecho a determinar libremente el desarrollo y destino de sus culturas fue señalado por organismos regionales de derechos humanos como un pilar fundamental para preservar las tradiciones y los sistemas de significado y conocimiento. Por tanto, la omisión y negativa de las empresas que controlan la infraestructura global de la IA frente a la capacidad de decisión de las comunidades sobre sus formas de expresión cultural, cómo, hasta qué punto y bajo qué términos se les incluye en los conjuntos de datos de entrenamiento, influye determinantemente en el ejercicio pleno de derechos fundamentales, como los culturales.

Soberanía sobre los datos culturales y el derecho a la autodeterminación cultural

Frente a este escenario, ya emergieron múltiples iniciativas de IA impulsadas por comunidades, academia y sociedad civil del Sur Global. A través de enfoques situados, disputan las lógicas dominantes del desarrollo de la IA, priorizando la programación y el diseño participativo, así como criterios de pluralidad y liderazgo de las comunidades.

Un ejemplo destacado es “AIkuaa”, una herramienta que permite transcribir a texto grabaciones de audio en guaraní, uno de los idiomas oficiales de Paraguay y una de las lenguas indígenas más habladas en América Latina. Según sus creadores, los modelos de lenguaje de gran tamaño (LLM) ampliaron la brecha digital, ya que lenguas como el guaraní se encuentran infrarrepresentadas debido a la falta de datos en su entrenamiento. Frente a esto, el objetivo es crear un repositorio de conocimiento abierto que permita que las organizaciones, la comunidad y los medios de comunicación puedan responder mejor a las audiencias que hablan guaraní. Como metodología, desarrollan “mingas de voces abiertas” -inspiradas en los espacios tradicionales de trabajo comunitario- para seleccionar y validar las frases en guaraní que enriquecen los conjuntos de datos públicos de voz.

Otro caso relevante es “AfroféminasGPT”, una herramienta diseñada para fortalecer el pensamiento afrofeminista y decolonial, con especial foco en las mujeres negras y personas racializadas. AfroféminasGPT no tiene acceso a Internet de forma deliberada, lo que implica que no incorpora información en tiempo real desde la web sino que opera a partir de una serie de textos y materiales que fueron cuidadosamente curados. Este elemento, lejos de ser una limitación técnica, constituye una elección ético-política que busca evitar la incorporación automática de narrativas dominantes y coloniales sobre las experiencias, saberes y luchas de comunidades negras y racializadas. En ese sentido, la herramienta se nutre de fuentes originales producidas desde perspectivas afrofeministas y decoloniales, con el objetivo de contrarrestar la producción de narrativas blanqueadas, tergiversadas o desinformadas.

En un escenario mundial en el que un número reducido de actores, como OpenAI, ChatGPT, Google Gemini, Meta AI y Microsoft Copilot, concentra el desarrollo de sistemas de IA que jerarquizan y visibilizan contenidos culturales, iniciativas como las anteriormente descritas adquieren una relevancia particular y permiten el acceso a contenidos culturales guiados por principios como la participación y la diversidad.

A lo largo de esta columna, hemos problematizado algunas implicaciones de la IA para la cultura, argumentando cómo las comunidades menos representadas en los sistemas de datos suelen ser también las más perjudicadas por sus decisiones y resultados estereotipados y sesgados. Este panorama pone de relieve la importancia de la soberanía sobre los datos culturales y el derecho a la autodeterminación cultural, dos principios fundamentales de herramientas contrahegemónicas de IA que fueron impulsadas por comunidades históricamente marginalizadas. Estas alternativas desafían el dominio de los gigantes tecnológicos y demuestran la urgencia de repensar y rediseñar la tecnología desde la riqueza cultural del Sur Global, asegurando que las iniciativas se construyan desde, y en respuesta a, los conocimientos y las necesidades culturales locales.

Retrospectiva 2025: Un año entre cierres y fracturas en la agenda de derechos humanos

Sobrevivir al 2025 significa haber sido testigo de importantes cierres de procesos en relación con lo digital para América Latina. A los escasos avances, y significativos retrocesos, en la agenda de protección de derechos, se sumaron tanto debates globales como sucesos en países del norte que trajeron más incertidumbre que esperanza a las sociedades latinoamericanas. El resurgimiento de una administración antiderechos en los EE. UU. y el ascenso al poder de sus aliados en el mundo, el genocidio perpetrado por Israel en Palestina y tragedias afines en la República Democrática del Congo y en Sudán, la continuidad de tensiones en el Caribe, en Camboya y en Ucrania, y la persistencia de una actitud apática a la crisis climática, dejan al 2025 como un año con escasas luces.

En ese contexto, la defensa de derechos en lo digital encuentra desafíos significativos. Pese al encomiable trabajo de incontables organizaciones y activistas en el mundo, seguimos contemplando el avance de tecnologías riesgosas, con fuerte apoyo de gobiernos, y la consolidación del poder de grandes empresas tecnológicas, poco o nada comprometidas con ejercer su responsabilidad de proteger y promover derechos humanos. Peor que eso, profundamente involucradas en los más graves crímenes contra la humanidad. Procesos legislativos y judiciales, negociaciones internacionales de dudoso propósito y disputas sobre aspectos fundamentales de la vida en sociedades digitalizadas, han sido campos de batalla para un trabajo arduo y necesario. Para Derechos Digitales no ha sido distinto.

Gobernanza digital global: más acuerdos, menos avances

Después de arduas negociaciones, el proceso de revisión por los 20 años de la Cumbre Mundial de la Sociedad de la Información concluyó con un informe recientemente aprobado, que reafirma el compromiso con un modelo de múltiples partes interesadas y establece que el Foro de Gobernanza de Internet (IGF) será permanente. Además, exhorta a cerrar brechas de acceso y prevenir los impactos adversos de la tecnología, incluida la violencia de género.

Aun cuando el resultado mantiene compromisos importantes, está lejos de ser un éxito rotundo para la sociedad civil y para la mayoría global en general. Muchas de las propuestas más ambiciosas quedaron fuera del texto, y la implementación del Pacto Digital Mundial (GDC) firmado en 2024 sigue sin herramientas vinculantes para los Estados.

Desde Derechos Digitales mantuvimos una presencia activa: facilitamos debates sobre soberanía digital y advertimos sobre los riesgos de suavizar compromisos con los derechos humanos, como parte de la Coalición Global de Derechos Digitales para la CMSI (GDRC-WSIS), dando cuenta -en detalle- de los riesgos y oportunidades perdidas de un proceso histórico desarrollado bajo condiciones adversas. Pero el resultado está a la vista y ya hay nuevos instrumentos para impulsar la gobernanza de internet. El desafío pendiente es convertir las declaraciones en políticas con participación real de la sociedad civil y con salvaguardas eficaces de derechos humanos.

Inteligencia artificial: regulación en disputa

Con la aplicación de la Ley de IA de la Unión Europea en febrero de 2025, las categorías de riesgo y las prohibiciones de “riesgo inaceptable” dejaron de ser teoría y se convirtieron en obligaciones para actores globales. Inspirado en este modelo, avanza lentamente en el Senado brasileño el proyecto de ley que introduce derechos para las personas afectadas por sistemas de IA, pero con aportes recientes poco transparentes al público y provenientes en buena parte del sector privado y no de la sociedad civil. El proyecto de IA en Chile también está en camino, pero no con la misma suerte: pasó de una cámara a otra perdiendo aspectos clave de su articulado original. Colombia avanza con una regulación integral después de muchísimos proyectos aislados, mientras que Perú publicó el reglamento de su pionera ley de IA. La región continúa con limitados avances en un contexto internacional que parece cambiar la dirección en los marcos de regulación de la IA a nivel global.

Mientras tanto, la geopolítica mostró pequeñas fisuras en la forma de enfrentar los desafíos de la IA sin dejar de privilegiar intereses estratégicos. Estados Unidos y el Reino Unido se rehusaron a firmar la declaración del AI Action Summit de París, y el gobierno estadounidense pidió abrazar la IA sin restricciones, derogando su encuadre normativo.

Desde Derechos Digitales insistimos en la defensa de tecnologías de IA que estén ancladas en un marco de derechos y equidad: sostuvimos una agenda de incidencia, producción de conocimiento y articulación regional que incluyó la participación activa en debates internacionales, incluyendo el AI Action Summit. Profundizamos la discusión sobre impactos concretos y exigencias normativas con materiales sobre riesgos y salvaguardas, por ejemplo en privacidad, y con investigación aplicada a instrumentos regulatorios emergentes como los sandboxes de IA. En el plano multilateral, actualmente presidimos la Red de Organizaciones de Sociedad Civil y Académicas sobre Ética y Políticas de IA de Unesco, tras años de acompañamiento y presión por mayor participación en los procesos derivados de la aprobación de su Recomendación sobre la Ética de la IA.

Seguimos produciendo evidencia sobre el uso de la IA en la región a partir de nuestra iniciativa “IA & Inclusión en América Latina” y de contribuciones calificadas a procesos de consulta, buscando fortalecer debates informados sobre el tema a nivel nacional, regional y global, mientras nos preparamos para el lanzamiento de la segunda edición del curso de formación sobre IA y derechos humanos para personas funcionarias del Estado. Además, realizamos conversaciones con actores clave a nivel regional sobre como implementar políticas transformadoraspara la IA que apunten a la equidad de género.

Libertad de expresión en la encrucijada regulatoria

El año estuvo marcado por proyectos legislativos que buscan regular el comportamiento de las plataformas digitales y asegurar garantías procesales para sus usuarios. En abril, el Ejecutivo dominicano ingresó al Senado un proyecto de ley de regulación de medios que reconoce la libertad de expresión sin censura previa en cualquier medio, consagra la neutralidad de la red, exige que plataformas con más del 10% de usuarios nacionales tengan representación legal en el país y garantiza el debido proceso para la moderación de contenidos, pero con artículos cuestionados como formas indirectas de facilitar la censura. Por su parte, el Congreso peruano discutió en noviembre un proyecto de ley que propone licencias y certificación obligatoria para creadores de contenido digital y sanciones administrativas por difundir información considerada falsa. Organizaciones como Hiperderecho sostienen que estas exigencias equivalen a una autorización previa prohibida por la Constitución, discriminan a comunicadores digitales y generan un clima de autocensura. Los avances de estas y otras iniciativas en la región serán objeto de especial atención el próximo año, en vista de la prioridad que se da a las comunicaciones digitales en estos intentos regulatorios y al trámite aún en curso de otros proyectos en la región.

En tanto, a pesar del acecho sobre la expresión en línea de las últimas décadas, algunos desarrollos jurisprudenciales parecen ir en el sentido correcto respecto al rol de las plataformas. La Corte Constitucional colombiana dictó en junio un fallo que protegió los derechos de una influencer, ordenando a Meta restablecer su cuenta y garantizar mecanismos de notificación y apelación. En Chile, la Corte Suprema rechazó en octubre una solicitud de “derecho al olvido” y afirmó que borrar o desindexar artículos periodísticos veraces de interés público sería censura, consolidando la idea de que la libertad de expresión prevalece por sobre la reputación de quienes protagonizan noticias de interés público.

Pero algunas de las peores muestras de autoritarismo también tuvieron lugar este año. En Panamá, el gobierno suspendió los servicios de comunicaciones en la provincia de Bocas del Toro durante protestas contra una reforma previsional en junio. Organizaciones como IPANDETEC criticaron la medida por violar de forma desproporcionada la libertad de expresión, reunión y acceso a la información, además de sentar un muy mal precedente en la región para la forma de enfrentar las protestas. Panamá no fue un caso aislado, organizaciones de Ecuador denunciaron restricciones a la conexión en regiones de fuerte protesta social atravesada por una actuación abusiva de las fuerzas de seguridad, según denunciaron autoridades internacionales de derechos humanos.

Ciberseguridad: más criminalización, menos protección

La geopolítica de la seguridad digital en 2025 estuvo marcada por debates internacionales y regionales sobre cómo enfrentar los delitos informáticos sin sacrificar derechos. Tras su decepcionante aprobación en 2024, la principal novedad del año fue la apertura a firma de la Convención de Naciones Unidas contra la ciberdelincuencia en Hanoi en octubre, con la mitad de los países latinoamericanos adhiriendo rápidamente. Como hemos denunciado ampliamente, se trata de un tratado global que obliga a los Estados a crear amplias facultades de vigilancia y facilitar la cooperación transfronteriza. La controversia evidenció cómo las iniciativas globales contra el cibercrimen generan consecuencias directas en América Latina: sin mecanismos de debido proceso, los gobiernos podrían compartir datos sensibles y perseguir a defensores de derechos humanos bajo cargos vagos de “ciberdelitos”.

A la vez, en el plano interno, varios países avanzaron con políticas sobre ciberseguridad. Chile comenzó la aplicación plena de la Ley Marco de Ciberseguridad; en tanto que Argentina aprobó el Plan Federal de Prevención de Ciberdelitos y Gestión Estratégica de la Ciberseguridad (2025‑2027), que busca fortalecer la respuesta ante amenazas cibernéticas y promover una cultura de ciberseguridad, y convoca a provincias y a la ciudad de Buenos Aires a adherir. Brasil promulgó la estrategia nacional E‑Ciber, con una ambiciosa agenda de gobernanza y promoción de la ciberseguridad en todo el país; mientras Perú, por su parte, sometió a consulta pública la Estrategia Nacional de Ciberseguridad 2026‑2028 (ESNACIB), orientada a un enfoque holístico y proactivo frente a los riesgos digitales. Por cierto, una apropiada implementación de tan loables iniciativas siempre requerirá de una participación significativa de las expertas no gubernamentales y de las comunidades más afectadas por los riesgos del ciberespacio.

Frente a estas tendencias, Derechos Digitales ha protagonizado intensas actividades en defensa de la seguridad para todas y todos. Actuamos instando a no suscribir la Convención de la ONU contra la ciberdelincuencia por carecer de salvaguardas. Participamos en audiencias públicas a nivel nacional -junto a expertas internacionales- para las políticas de ciberseguridad y cibercrimen, buscando protegerlos derechos fundamentales y alertando sobre los peligros de normas que amplían la vigilancia sin controles democráticos. Y nos preparamos para seguir de cerca la implementación de nuevas reglas que deberían apuntar, no a la criminalización, sino a la prevención y la protección.

Privacidad y vigilancia, entre expansión y resistencia

Pese a algunos avances normativos, la vigilancia se expandió en 2025. La videovigilancia alcanzó niveles récord: Ciudad de México pasó de 8.000 cámaras de videovigilancia en 2009 a más de 83.000 en 2025 y se propone llegar a 150.000, convirtiéndola en una metrópoli intensamente vigilada. Si a eso le sumamos el avance de tecnologías de reconocimiento facial automatizado en toda la región, vemos con preocupación un futuro marcado por sistemas de vigilancia permanente que permitirán facilitar el seguimiento y la represión a una ciudadanía supuestamente libre.

En junio, en medio de una serie de crisis, Ecuador promulgó la Ley Orgánica de Inteligencia, que creó un sistema nacional de inteligencia con potestad para acceder a registros telefónicos, datos de ubicación y tráfico digital sin autorización judicial, obligando a todas las personas y entidades a entregar información requerida y autorizando la infiltración encubierta en organizaciones y movimientos sociales. Este proceso se dio justo después del desembarco en el país de la empresa de vigilancia Palantir, la cual presta servicios a la Corporación Nacional de Telecomunicaciones ecuatoriana para suministrar su plataforma Foundry a la Aduana con el fin de integrar y analizar grandes volúmenes de datos para “administración del riesgo aduanero”. La publicación de la ley, que contó con escasa posibilidad de debate, generó reacción inmediata en la sociedad civil. En conjunto con organizaciones ecuatorianas, desde Derechos Digitales cuestionamos el contenido de la ley y presentamos nuestros argumentos a la Corte Constitucional que actualmente analiza su inconstitucionalidad.

A su vez, en México, un paquete legal aprobado en julio creó la Clave Única de Registro de Población (CURP) biométrica obligatoria, ordenó la interconexión de bases de datos y otorgó a la Secretaría de la Defensa Nacional (SEDENA) facultades para recolectar y procesar datos con fines de inteligencia, así como otras medidas para facilitar la vigilancia masiva y la entrega de datos por privados al Estado sin salvaguardas, formando un nuevo panóptico digital. Estos proyectos evidencian una tendencia regional a fortalecer la vigilancia estatal mediante bases de datos centralizadas y herramientas de inteligencia comercial, sin suficientes garantías de derechos.

Este contexto contrasta con un avance significativo del año anterior, cuando la Corte Interamericana de Derechos Humanos condenó a Colombia por décadas de vigilancia contra defensoras de derechos humanos y reconoció el derecho de las personas a acceder, corregir o eliminar su información de archivos de inteligencia. Hemos defendido la importancia de ese fallo en el cuestionamiento a la nueva ley ecuatoriana, y seguiremos haciéndolo. La influencia del desarrollo de estándares regionales para contener el impulso vigilante de nuestros Estados con la excusa de la seguridad será un elemento crucial de lo que ocurra en 2026.

Violencia de género: visibilización y respuesta a un problema exacerbado por las tecnologías

El año 2025 estuvo marcado por una mayor visibilización de la violencia de género facilitada por la tecnología (VGFT) en América Latina y a nivel global. Instituciones como ONU Mujeres dedicaron especial atención a la temática, llamando a fortalecer las leyes, acabar con la impunidad y exigir responsabilidades a las plataformas, promoviendo inversiones en prevención, alfabetización digital y apoyo a las sobrevivientes. También hacia fin de año, el Mecanismo de Seguimiento de la Convención de Belém do Pará (MESECVI) de la OEA presentó la Ley Modelo Interamericana para Prevenir, Sancionar y Erradicar la Violencia Digital contra las Mujeres. El instrumento fue concebido como estándar legal para que los países adapten sus normativas y reconoce la gravedad de la VGFT, con rutas de acción que priorizan la protección integral, la remoción oportuna de contenidos y la reparación del daño. Derechos Digitales contribuyó a la consulta junto a aliadas y comentó la propuesta de articulado, defendiendo una perspectiva más amplia de protección contra la violencia en razón de género.

Junto a estas iniciativas, diversos países y organizaciones lanzaron espacios para debatir y fortalecer marcos normativos. Derechos Digitales protagonizó un activismo robusto en 2025 centrado en el combate a la violencia de género digital, tanto a través de campañas públicas como manteniendo la presencia en instancias como la Comisión de la Condición Jurídica y Social de la Mujer (CSW) de la ONU en marzo, y el diálogo global “Luchas conectadas” en Nairobi en noviembre. Junto a UNFPA, preparamos la guía “Principios orientadores para una reforma legislativa y de políticas públicas frente a la violencia de género facilitada por la tecnología”, un documento que propone un marco integral con seis principios esenciales para transformar la normativa y garantizar los derechos de las sobrevivientes.

Sin embargo, la agenda antiderechos que se fortalece a nivel global ha afectado profundamente los espacios de discusión y construcción de políticas en materia de género, con el intento de limitar su interpretación a mujeres y niñas de modo a excluir cuerpos que cuestionan la norma. La agenda de grupos y gobiernos extremistas, y su búsqueda por eliminar las posibilidades de existencia de las personas LGBTIQA+, ha llegado a la arena internacional arriesgando retrocesos importantes en materia de garantía y promoción de derechos humanos. Desde Derechos Digitales, nuestro compromiso continúa siendo el de impulsar reformas legales y políticas integrales efectivas para combatir la VGFT, que incorporen la perspectiva de derechos humanos e interseccional, dando cuenta de todas las expresiones de género.

La salida de la crisis es colectiva

El balance de 2025 muestra una aparente paradoja: la adopción de normas pioneras y acuerdos internacionales convive con la expansión de prácticas de control y con una geopolítica fragmentada. La regulación de la IA, la permanencia del IGF y las nuevas leyes de ciberseguridad demuestran que la comunidad internacional reconoce la necesidad de reglas, pero las grandes potencias divergen en su enfoque, y el Sur Global enfrenta influencias corporativas y estatistas. La violencia de género y la desinformación exhiben que la tecnología reproduce desigualdades preexistentes y que las respuestas deben ser sistémicas y no meramente punitivas. La vigilancia masiva avanza bajo la bandera de la seguridad a nivel nacional e internacional, ignorando estándares de derechos humanos que los Estados están obligados a respetar.

Pero es esa misma realidad la que confirma la misión que sostenemos desde hace 20 años. Y en nuestro ejercicio de observar nuestro pasado y pensar en nuestro futuro, la constatación del presente nos confirma que la defensa de los derechos humanos en el entorno digital exige articular distintos planos de acción: la regulación y la gobernanza global, el combate y la prevención de la violencia, y la defensa de la libertad de expresión, la seguridad y la privacidad. De cara al 2026, nos preguntamos sobre cómo evitar que la regulación de la IA consolide monopolios, cómo traducir los compromisos multilaterales en políticas con participación y enfoque de género, cómo combatir la violencia y la desinformación sin coartar la expresión, y cómo resistir la normalización de la vigilancia.

El futuro del ecosistema digital sigue abierto, pero no depende solamente de lo que ocurre en línea. Nuestra responsabilidad colectiva es disputar la dirección de ese ecosistema hacia la justicia y la democracia. Allí estaremos en 2026.

A veinte años de WSIS: defender lo mínimo, disputar lo posible

Veinte años después de la Cumbre Mundial sobre la Sociedad de la Información (WSIS), la revisión WSIS+20 se desarrolla en un contexto marcado por profundas transformaciones tecnológicas y políticas. La visión de una sociedad de la información centrada en las personas, establecida en WSIS, sigue vigente, pero hoy se ve atravesada por tensiones crecientes: desigualdades persistentes, concentración de poder, retrocesos democráticos y tensiones geopolíticas que estructuran la agenda digital global. Desde la sociedad civil, participamos en este proceso con una posición clara: que el balance de estas dos décadas no se limite a un ejercicio diplomático, sino que permita responder a las urgencias del presente y sentar bases para un futuro respetuoso de los derechos humanos, la igualdad de género y la justicia ambiental.

Veinte años después de WSIS: qué se está discutiendo y por qué importa

Cuando se convocó la Cumbre Mundial sobre la Sociedad de la Información (CMSI, WSIS por sus siglas en inglés), en 2003 y 2005, no existía un marco general que orientara el desarrollo de políticas digitales ni un entendimiento común de la gobernanza de internet como campo de política pública. WSIS surgió ante el reconocimiento de que había una “necesidad urgente de aprovechar el potencial del conocimiento y la tecnología” para cumplir los objetivos de la Declaración del Milenio, con la meta de construir una sociedad de la información centrada en las personas, inclusiva y orientada al desarrollo.

Los resultados de ambas cumbres sentaron las bases de ese marco. La Declaración de Principios de Ginebra presentó una visión compartida basada en derechos; el Plan de Acción de Ginebra propuso Líneas de Acción para llevar esa visión a la práctica; y la Agenda de Túnez abordó la gobernanza de Internet, y creó el Foro de Gobernanza de Internet (IGF), esencial para el diálogo multisectorial. En ese recorrido, WSIS encaminó a la gobernanza de internet “hacia un rumbo de múltiples partes interesadas” (multistakeholder): si bien la idea de cooperación entre distintos actores no era nueva, fue durante WSIS que pasó a entenderse como un elemento indispensable para alcanzar el objetivo de una sociedad de la información verdaderamente centrada en las personas.

A veinte años de ese momento fundacional, el escenario es distinto. Las tecnologías digitales se desarrollan e implementan en sociedades atravesadas por desigualdades estructurales, y las brechas –entre países, dentro de ellos y entre grupos sociales– no solo persisten, sino que se profundizan. El desarrollo acelerado de tecnologías emergentes como la inteligencia artificial, la expansión de tecnologías y prácticas de la vigilancia, la concentración de poder corporativo y los conflictos regulatorios plantean desafíos que WSIS no había anticipado. A esto se suman dinámicas geopolíticas cambiantes que vienen generando retrocesos en materia de democracia y derechos humanos, con impactos particularmente graves en la igualdad de género.

En ese contexto, la revisión WSIS+20, que concluirá en diciembre de 2025, plantea la necesidad urgente de avanzar hacia una noción de justicia digital que responda al contexto actual y sitúe la visión fundacional de WSIS en las experiencias de comunidades históricamente excluidas, profundamente afectadas por formas de autoritarismo estatal y corporativo.

Desde Derechos Digitales participamos activamente en este proceso junto a otras organizaciones, a través de coaliciones que trabajan de manera coordinada. Somos parte de la Global Digital Rights Coalition for WSIS (GDRC-WSIS) y colaboramos con el Global Digital Justice Forum (GDJF) y la Coalición de género. Estas alianzas nos permitieron impulsar una posición común:  cumplir la visión de una sociedad de la información centrada en las personas exige situar los derechos humanos en el centro de la gobernanza digital y de la implementación de las Líneas de Acción, y garantizar que la igualdad de género ocupe un lugar central e irrenunciable. Apostamos por un marco orientado al futuro que permita un entorno digital abierto, libre y seguro y que avance hacia políticas digitales que promuevan equidad, desarrollo sostenible y una gobernanza efectivamente democrática.

El proceso: oportunidades y limitaciones

El proceso WSIS+20 avanzó mediante consultas, llamados a contribuciones y sucesivas versiones del borrador. Pero, a diferencia de la revisión WSIS+10, no contó con un proceso preparatorio como la Plataforma Preparatoria Multisectorial (MPP) impulsada por la UIT en 2015. La ausencia de un mecanismo equivalente, junto con un calendario más corto, limitó las oportunidades de participación.

En paralelo, distintas agencias del sistema de Naciones Unidas realizaron sus propios procesos de revisión: la UIT, la UNESCO y el PNUD avanzaron en evaluaciones sectoriales, mientras que la CSTD -encargada del seguimiento sistémico de WSIS- presentó su informe. Estos insumos alimentaron, en distintos momentos, la negociación intergubernamental.

Para hacer frente a esas limitaciones, desde sociedad civil impulsamos propuestas orientadas a asegurar una participación significativa. Una de ellas fue el Plan de cinco puntos para una revisión inclusiva de WSIS, que planteó medidas concretas para reforzar la transparencia y la inclusión: un calendario claro y público; registros accesibles de aportes y discusiones; oportunidades recurrentes para comentarios; criterios de acreditación más inclusivos y apoyo a grupos subrepresentados; y mecanismos que facilitaran la participación de actores no gubernamentales durante las negociaciones. El objetivo fue operacionalizar las modalidades del proceso y evitar los obstáculos de participación que enfrentamos en el Pacto Digital Mundial.

A lo largo de las distintas etapas -del documento del Elements Paper al Borrador Cero y posteriormente las versiones Rev1 y Rev2- se reflejaron las posiciones estatales en negociación, permitiendo identificar qué temas concentraban mayores consensos y dónde persistían desacuerdos. En este recorrido, el rol de los co-facilitadores fue clave para sostener referencias centrales de WSIS, equilibrar prioridades contrapuestas y mantener un proceso constructivo en un contexto político complejo.

Para complementar este esfuerzo, los cofacilitadores crearon el Consejo Multisectorial Informal de Consulta (IMSB), integrado por personas del Grupo Asesor Multisectorial (MAG) y del Panel de Liderazgo del Foro de Gobernanza de Internet (IGF). Su función fue canalizar perspectivas de actores no gubernamentales, sintetizar aportes y promover una participación más diversa.

Un hito central del proceso fue el  Evento de Alto Nivel WSIS+20, organizado por la UIT junto con la UNESCO, el PNUD y la UNCTAD. En ese marco, desde Derechos Digitales tuvimos a nuestro cargo una sesión oficial sobre la participación del Sur Global en la gobernanza digital, lo que implicó formar parte de la construcción de la agenda del foro. A partir de ese espacio de intercambio, elaboramos un documento de insumo que recogió los aportes y discusiones surgidas durante la sesión. Además, participamos activamente mediante intervenciones en otras sesiones, reuniones con delegaciones y la presentación de recomendaciones centradas en derechos humanos, igualdad de género y participación significativa.

El balance procedimental es mixto. Hubo esfuerzos por abrir espacios de participación, pero estos no alcanzaron el estándar de procesos anteriores. Al mismo tiempo, el desarrollo de las negociaciones volvió a evidenciar límites estructurales del modelo multilateral. Por un lado, las desigualdades entre Estados se traducen en distintos niveles de presencia, capacidad de incidencia y margen de influencia en los espacios de negociación, afectando especialmente a regiones como América Latina, que suelen tener una representación más acotada. Por otro, el carácter cerrado de las negociaciones intergubernamentales -que no pueden ser observadas por otros actores- reduce la transparencia del proceso y profundiza la distancia entre las decisiones que se toman y las realidades que buscan regular. A esto se suma la centralidad de Nueva York como sede de las negociaciones finales, lo que limita considerablemente las posibilidades de participación presencial, en particular para organizaciones y personas de la región, dadas las restricciones de recursos y las políticas migratorias vigentes. En este contexto, el protagonismo de los Estados vuelve a poner de relieve una tensión persistente: las posiciones gubernamentales no siempre reflejan las realidades ni las demandas de las personas y comunidades que habitan sus países, una brecha que resulta especialmente preocupante en el caso de poblaciones en situación de vulnerabilidad.

Avances y límites en un contexto político complejo

El desarrollo de la revisión WSIS+20 debe leerse a la luz de un contexto político más tenso, y quizás más inestable que en procesos anteriores. La 28° sesión de la Comisión de Ciencia y Tecnología para el Desarrollo (CSTD) funcionó como un primer termómetro de ese clima: allí se evidenciaron tanto áreas de coincidencia como desacuerdos profundos, así como cambios relevantes en las posturas estatales. En particular, la decisión de Estados Unidos de forzar una votación -vinculada a su oposición a referencias a los Objetivos de Desarrollo Sostenible y a menciones sobre género- rompió con una práctica histórica de consensos y anticipó un escenario de negociación más confrontativo.

Ese clima quedó reflejado en las contribuciones estatales al Elements Paper, que operó como un mapa inicial de prioridades. Allí se hicieron visibles profundas diferencias en cuestiones clave: el futuro de las Líneas de Acción, el alcance del modelo de múltiples partes interesadas, la cooperación reforzada, la rendición de cuentas del sector privado y el lugar que debían ocupar la inteligencia artificial y la gobernanza de datos dentro del marco de WSIS. Al mismo tiempo, se notaron ciertas coincidencias más amplias en torno al acceso, la inclusión y la importancia del ecosistema de gobernanza de internet. En varios de estos ejes, las posiciones oscilaron entre propuestas de ajustes incrementales y planteos de cambios más estructurales, incluida la creación de nuevas Líneas de Acción, entre ellas una dedicada a la igualdad de género.

El Borrador Cero (Zero Draft) representó un avance relevante respecto del Elements Paper, particularmente a la luz de las críticas formuladas en las primeras etapas del proceso. En materia de derechos humanos, el borrador incorporó referencias explícitas a tratados internacionales clave y a la obligación de adoptar mecanismos de debida diligencia, supervisión y mecanismos de reparación, fortaleciendo el anclaje del texto en el derecho internacional. En relación con la igualdad de género, el cambio fue especialmente significativo: mientras el Elements Paper se limitaba a referencias a mujeres y niñas, el Zero Draft incorporó explícitamente el concepto de género y estableció la transversalización de género como un elemento aplicable a lo largo del marco. Este avance resultó particularmente relevante en un contexto político que parecía anticipar la continuidad de un enfoque más restrictivo. El texto también reafirmó de manera clara la cooperación multisectorial como principio orientador del proceso. Una victoria particularmente significativa para la sociedad civil fue la decisión de reafirmar la permanencia del Foro de Gobernanza de Internet.

Al mismo tiempo, el texto evidenció límites importantes. Su abordaje tendió a ser excesivamente optimista y careció de un análisis estructural de las formas contemporáneas de injusticia digital. Muchas de sus promesas -en materia de financiamiento, fortalecimiento de capacidades, integración efectiva de derechos humanos o enfoque de género- no se acompañaron de estrategias claras ni recursos definidos, lo que planteó interrogantes sobre su viabilidad.

Frente a este borrador, desde la sociedad civil señalamos la importancia de preservar los avances alcanzados y de evitar que se diluyeran en las etapas siguientes de negociación. Entre varias cuestiones, propusimos incorporar un reconocimiento explícito de la obligación de los Estados de aplicar un enfoque precautorio y de abstenerse de utilizar tecnologías digitales incompatibles con el derecho internacional de los derechos humanos, así como de revisar sus marcos de vigilancia e interceptación de datos conforme a los principios de legalidad, necesidad y proporcionalidad.

También solicitamos incluir referencias claras a la responsabilidad de los Estados de exigir a las empresas la realización de procesos de debida diligencia y evaluaciones de impacto en derechos humanos, y de integrar estos estándares a lo largo de todo el ciclo de vida de las tecnologías digitales, incluidas la inteligencia artificial y la infraestructura pública digital.

Este marco, delineado entre el Elements Paper y el Zero Draft, fijó los principales ejes que atravesarían las versiones posteriores del texto, donde la disputa ya no pasaría tanto por incorporar nuevos compromisos como por sostener -o no debilitar- los ya alcanzados en un contexto político cada vez más restrictivo.

Revisiones 1 y 2: retrocesos, mejoras y tensiones abiertas

La Revisión 1 evidenció un retroceso concreto respecto del Borrador Cero en aspectos clave vinculados a derechos humanos, equidad y justicia digital global. Este retroceso se materializó en la eliminación de disposiciones específicas. Preocupantemente, se suprimió el párrafo que explicitaba la obligación de los Estados de promover un entorno tecnológico digital abierto, seguro, estable, libre, interoperable, inclusivo, accesible y pacífico, conforme al derecho internacional. También se eliminó lenguaje clave que establecía salvaguardas frente a la vigilancia masiva y exigía que la vigilancia selectiva respetara los principios de legalidad, necesidad y proporcionalidad, debilitando estándares ampliamente reconocidos.

En materia de género, se eliminó el párrafo dedicado a la violencia facilitada por la tecnología, incluida la violencia sexual y de género, lo que supuso la pérdida de referencias explícitas a la necesidad de abordar estos daños de manera integral. En conjunto, estos cambios reforzaron un tono tecno-optimista que dejó fuera las asimetrías estructurales del ecosistema digital y sus efectos desiguales, particularmente en los países y comunidades del Sur Global.

La Revisión 2 introdujo mejoras parciales frente a la versión anterior. Se preservaron principios centrales como la cooperación multisectorial y el reconocimiento de las directrices de NetMundial+10, y se restauraron referencias a la violencia facilitada por la tecnología, incluida la violencia sexual y de género, así como al manejo de residuos electrónicos. El texto también avanzó al llamar explícitamente a las plataformas de redes sociales y a las empresas de tecnologías de vigilancia a cumplir con los Principios Rectores de Naciones Unidas sobre Empresas y Derechos Humanos. Asimismo, reforzó la permanencia del Foro de Gobernanza de Internet al establecer una base estable y sostenible, con recursos y personal adecuados conforme a los procedimientos presupuestarios de la ONU, e incorporó orientaciones más claras sobre seguimiento e implementación mediante una hoja de ruta conjunta a nivel del sistema de Naciones Unidas, en articulación con el Pacto Digital Mundial.

El tramo final: riesgos y prioridades

En la etapa final del proceso, con la resolución encaminándose a la Asamblea General de Naciones Unidas, el desafío inmediato es sostener lo ya acordado. A lo largo de la revisión, gran parte del esfuerzo de la sociedad civil no se orientó a ampliar compromisos, sino a evitar retrocesos en materia de derechos humanos. Esta dinámica -defender mínimos en lugar de avanzar- refleja tanto el momento político actual como los límites del multilateralismo frente a los desafíos de la gobernanza digital.

Persisten, además, omisiones preocupantes. La inteligencia artificial es un ejemplo claro: el texto sigue evitando compromisos explícitos para que los Estados se abstengan de usar o cesen el uso de sistemas que no pueden operar en conformidad con el derecho internacional de los derechos humanos o que implican riesgos indebidos para su ejercicio, pese a la evidencia acumulada de daños reales y desproporcionados sobre comunidades marginadas y países del Sur Global. Esta falta de voluntad política ya se había evidenciado en el Pacto Digital Mundial y vuelve a repetirse aquí.

También en materia de rendición de cuentas del sector privado y de igualdad de género el texto resulta insuficiente. Las empresas tecnológicas concentran un poder significativo sobre las dinámicas de internet, pero los compromisos para exigir responsabilidades, garantizar remedios efectivos y establecer obligaciones claras de debida diligencia siguen siendo débiles. En paralelo, el enfoque de género continúa siendo frágil y disputado, lo que refuerza la necesidad de afirmar sin ambigüedades su integración transversal en todas las Líneas de Acción.

En este tramo final, la negociación avanza exclusivamente entre Estados, sin instancias formales de consulta ni posibilidad de observación por parte de otros actores. En este contexto, la expectativa está puesta en que aquellos Estados que se presentan como defensores de los derechos humanos -y, en particular, de políticas exteriores feministas- actúen en coherencia con esos compromisos y eviten nuevos retrocesos. El resultado de WSIS+20 mostrará hasta qué punto esas posiciones se traducen en decisiones concretas.

Gigantes tecnológicos en la cadena agroalimentaria: concentración corporativa y más dependencia del campesinado

Los precios de los alimentos en el mundo se incrementan día a día. Más allá de contextos específicos, como pueden ser guerras o desastres naturales, la responsabilidad de la inflación alimentaria se suele identificar fácilmente: el control monopólico de las corporaciones agroalimentarias. 

En el contexto de penetración de las Big Tech en casi todos los ámbitos de la vida, la cadena productiva de alimentos no se queda afuera, y hasta puede empeorar ese escenario. Alianzas entre gigantes del agro (Bayer, Syngenta, Cargill, por ejemplo) con gigantes del sector de tecnologías (Google, Meta, Microsoft, Amazon, entre otras) encienden alarmas y preocupaciones, especialmente entre comunidades campesinas e indígenas. Investigaciones recientes alertan sobre la profundización de su dependencia, la conversión de saberes colectivos ancestrales en mercancía y una posible exacerbación en la contaminación. En las próximas líneas, analizaremos los impactos de esta digitalización de la agricultura en los derechos campesinos.

Gigantes del agronegocio digitalizado

La concentración corporativa en el agro no es una novedad: los oligopolios ya dominan la cadena alimentaria mundial. Estas empresas controlan desde las semillas, genéticamente modificadas, hasta los llamados insumos agrícolas: agrotóxicos y fertilizantes para monocultivos, insostenibles por su impacto ambiental y deterioro de la tierra. Un sistema que genera consecuencias directas en los modos de producción campesinos, quienes sostienen la “columna vertebral” de la alimentación en nuestra región.

Esta industria ha entrado ahora en una nueva etapa. Según el nuevo reporte del Relator de la ONU sobre Derecho a la Alimentación, las empresas agroalimentarias están recurriendo cada vez más, mediante la digitalización, a las nuevas tecnologías digitales y al procesamiento de grandes cantidades de datos para desarrollar sus negocios. El documento plantea que estas innovaciones crean “nuevos desafíos en materia de derechos humanos en los sistemas alimentarios”. El último informe del Grupo ETC sobre el tema, describe al fenómeno como un “Caballo de Troya en los campos”: bajo la promesa de tecnología e innovación, esconde más control corporativo y menos autonomía para las comunidades agricultoras.

Acelerada por la pandemia del Covid-19, la digitalización del agro es promocionada por las transnacionales del sector como solución a ciertos problemas del cambio climático, y una transformación inevitable para lograr un modelo productivo más eficiente, como lo viene planteando hace años también el Banco Mundial. Con ese bombo publicitario y marketinero, florecen las startups de agricultura digitalizada (“AgriTech” en sus términos) en la región, donde Argentina y Brasil albergan casi 3/4 partes de las empresas de esta índole.

La semilla del bot en los campos

Ya no resulta extraña la presencia de drones en los cielos, sensores en los suelos, tractores guiados por GPS o productores trabajando con tablets y dispositivos donde utilizan aplicaciones y sistemas específicos para sus tareas. La digitalización en la agricultura implica el uso generalizado de herramientas como la IA, la ciencia de datos y la biotecnología para mapear tierras, almacenar información y crear nuevos sistemas digitales para gestionar los modos de producción rural.

La alianza entre Big Tech y corporaciones monopólicas de la agroindustria está promoviendo una datificación del conocimiento vinculado a agricultura y del comportamiento de los ecosistemas y bienes naturales comunes, como nunca antes. Se trata de un extractivismo masivo de datos que, además, en muchos casos están vinculados con historias y tradiciones comunitarias y colectivas. Quienes tengan mayor capacidad de recolectarlos y controlarlos, serán quienes puedan modelar los sistemas alimentarios y las políticas agrícolas para su propio beneficio, un mercado de negocios que no considera a la alimentación como un derecho humano y menos reconoce la existencia de derechos campesinos. No se trata de cuestionar la introducción de nuevas tecnologías en abstracto, sino más bien de preguntarse al servicio de quién están, quiénes las controlan, qué modelos productivos profundizan y qué tratamiento de datos hacen.

Repasemos algunos de los principales riesgos de este proceso. Suscribirse a un modo de producción gestionado a través de una plataforma digital implica para las y los agricultores una dependencia aún mayor: se vuelve un circuito en el cual desde la toma de decisión de qué semilla plantar hasta el sistema de pagos y cobros, todo debe pasar por servicios virtuales. El Relator de la ONU lo plantea con claridad: “En estas nuevas explotaciones digitales, los agricultores dejan de actuar según su libre determinación y en su lugar pasan a ser objetos de cosecha”. Como en la mayoría de los trabajos regulados por plataformas, no hay reglas claras y transparentes sobre el uso de datos ni políticas de privacidad sólidas, lo cual no sólo da lugar a la explotación de esos datos en términos mercantiles, sino que también habilita nuevas prácticas de control, que algunos grupos denominan como “agricultura de la vigilancia”. Considerando que América Latina es una de las regiones más hostiles para defensores y defensoras ambientales, esta forma de espionaje resulta preocupante.

Además, en una región con una gran brecha digital, donde muchos de nuestros países enfrentan las tarifas más elevadas de internet móvil del mundo, el acceso a la red ocasiona nuevos gastos a las comunidades, lo cual empeora sus condiciones de vida en los territorios. Más aún si consideramos los altos costos de la maquinaria inteligente. Sumado a esto, y siguiendo las conclusiones del informe de ETC, se estima que millones de puestos de trabajo en el campo serán sustituídos por drones y robots, sin planificar nuevas fuentes laborales para el sector. En algunos países, incluso se les prohíbe reparar su maquinaria porque contiene software patentado. Por último, como ya venimos planteando en Derechos Digitales, la enorme demanda de recursos naturales, como agua y energía, para alimentar toda la infraestructura digital necesaria para estos emprendimientos, es posible que traiga mayores niveles de contaminación y profundización de la crisis climática.

El big data en la agricultura se convierte así en una herramienta de dependencia, vigilancia y control que pone en riesgo la autonomía campesina y la biodiversidad agrícola.

¡A desalambrar las tecnologías!

“El mundo no necesita ni más datos ni más alimentos, sino que las personas tengan más autoridad y control sobre los datos en los sistemas alimentarios”, advierte la ONU. Como se dijo unos párrafos más arriba, no estamos poniendo en discusión la incorporación de las tecnologías digitales, sino más bien qué uso se les da y los modelos que sustentan. Las comunidades campesinas pueden hacer una utilización favorable de las herramientas tecnológicas, que aporten al bien común y no a las ganancias concentradas en unas pocas manos. ¡Y muchas ya lo vienen experimentando!

Las organizaciones que planifican integralmente modelos agroalimentarios alternativos desde los territorios, piensan en cada etapa del circuito: desde que el alimento se siembra (sus insumos, la fuerza de trabajo, etc) hasta que llega al plato de comida de las personas en sus casas (el comercio, traslados, etc). Existe una idea-frase bastante utilizada, que sintetiza muy bien esta propuesta: “Del campo a la mesa”. Por ello, las experiencias de colectivos vinculados al trabajo rural, a la defensa del ambiente, a comunidades indígenas, y a los derechos digitales, pueden abarcar distintos eslabones de este modo de producción, basado en la nociones de Agroecología y Soberanía Alimentaria.

El proyecto Territorios Libres, Tecnologías Libres, impulsado por Intervozes junto a comunidades quilombolas y rurales de Brasil, fue una iniciativa que marcó un interesante precedente en lo que respecta a analizar los usos y concepciones de las Tecnologías de la Información y las Comunicaciones (TIC) en territorios campesinos. A la vez, existe la Red de Evaluación Social de Tecnologías en América Latina (Red TECLA) que abarca algunos proyectos dedicados a la agricultura. La Herramienta de monitoreo de los pueblos para el derecho a la alimentación, proyecto de la Red Mundial por el Derecho a la Alimentación y a la Nutrición, sirve de guía a las comunidades, los movimientos, la sociedad civil, el mundo académico e incluso el funcionariado público en el monitoreo del derecho humano a una alimentación y nutrición adecuadas. Además, la Asamblea de Innovaciones de Base para la Agroecología (GIAA en inglés) es una articulación global que está fortaleciendo experiencias de tecnologías de base aplicadas a la agroecología.

Si pensamos en la cadena productiva, hay desarrollos vinculados directamente con los momentos de la siembra y los cultivos, como por ejemplo la aplicación Lunagro (FIAN Colombia), un calendario agropecuario basado en la interpretación del ciclo lunar. Además, La Mierda de Vaca brinda cursos presenciales y a distancia sobre cómo llevar adelante una agricultura orgánica.

Tanto el aislamiento y distanciamiento preventivo que impuso la pandemia del Covid-19, así como también los debates que introdujo respecto a la alimentación saludable, llevaron a un incremento exponencial en la demanda de bolsones de verduras orgánicas o agroecológicas por parte de la ciudadanía. En Argentina, Más Cerca es Más Justo, y en Brasil, Alimento de Origem, son ejemplos de las decenas de plataformas pertenecientes a redes de comercio justo existentes en América Latina, las cuales buscan nuevas formas de intercambio, evitando intermediarios y sobreprecios, y conectando más estrechamente a productores con consumidores.

Para poder aprovechar las imágenes satelitales en beneficio de la producción local y la conservación de bienes comunes naturales, muchas organizaciones trabajan con Organic Maps, una aplicación GPS y de mapas sin conexión centrada en la privacidad, desarrollada por la comunidad de código abierto. También, existen numerosos proyectos que unen activismo, sector académico y comunidades, como por ejemplo “Gobernanza Hídrica con el pueblo originario Yaqui en México”, analizado en nuestro Glimpse 2024, ideado para desarrollar estrategias efectivas de gestión comunitaria del agua.

Por último, vale destacar la importancia de sitios de información y debate que impulsan la agenda de estos movimientos y favorecen la divulgación de ideas vinculadas con modelos alimentarios alternativos. Entre ellos, podemos mencionar a Agro é Fogo, quienes difunden  “el rastro del fuego del agronegocio global”; BiodiversidadLA, desarrollado por la  Coordinadora Latinoamericana de Organizaciones del Campo – Vía Campesina; y Agencia Tierra Viva, impulsada por la Mesa Agroalimentaria Argentina, entre muchas otras iniciativas regionales.

Soberanía alimentaria y digital para vivir mejor

Los desafíos que viene planteando la digitalización en el campo son variados y complejos. Mientras se impulsan tecnologías digitales desde la sociedad civil y el Estado para el beneficio de las comunidades y los territorios, es fundamental generar marcos normativos nacionales, regionales y globales, que puedan proteger la privacidad y los datos en manos de las corporaciones que están desarrollando la datificación en el sector rural. El Estado de Brasil diseñó hace algunos años el Cadastro Ambiental Rural (CAR), como una herramienta que podría ser útil para monitorear el ambiente y los territorios, lo que dio lugar a un debate más que pertinente desde Data Privacy en relación a los datos personales de integrantes de comunidades. Incluso, algunos sectores vienen planteando como alternativa tratar los datos del sistema alimentario como un bien público para abordar esta problemática. Necesitamos que se reconozcan y protejan los saberes tradicionales del campesinado, como así también sus derechos colectivos, para potenciar herramientas tecnologías que respeten estas particularidades.

La complejidad del tema y los gigantes involucrados nos obliga a afinar los diagnósticos y, sobre todo, propiciar articulaciones entre el movimiento de los derechos digitales y las organizaciones campesinas e indígenas para dar respuestas integrales. Por ejemplo, unos años atrás, IT for Change publicó el reporte “Las oportunidades del ecosistema digital para la agricultura india” como resultado de un ciclo de encuentros de debate e intercambio entre diversos actores implicados en estos asuntos.

Podemos discutir la digitalización, la datificación, cómo se obtienen los datos, dónde se alojan y quiénes tienen control sobre ellos, pero si no abordamos las preguntas radicales sobre nuestros modos de vida y de alimentación, es probable que nos perdamos en el camino. ¿Para qué necesitamos tecnologías digitales en los sistemas agroalimentarios? ¿Qué papel tienen las comunidades campesinas e indígenas en la definición de estas nuevas herramientas a incorporar en los modos de producción? ¿Qué modelos priorizan la soberanía alimentaria y digital, y los derechos campesinos y de comunidades indígenas en su autodeterminación?

Lo que está en juego no es solo el acceso a nuevas tecnologías, y el resguardo de los datos, sino, principalmente, la soberanía alimentaria de los pueblos y el derecho humano a decidir cómo producir y consumir nuestros alimentos, de manera justa y sustentable.

Entre cuerpos y códigos: nuevos medios, viejas violencias

La violencia de género, que afecta principalmente a mujeres y personas LGBTIQA+, forma parte de la estructura del capitalismo. Se manifiesta a partir de diversas conductas y atraviesa distintos formatos que van mucho más allá de la violencia física. Históricamente, el control sobre los cuerpos ha sido una de sus expresiones más persistentes. Desde la reproducción forzada de mujeres esclavizadas para aumentar la mano de obra en las colonias, pasando por las altísimas tasas de violencia sexual -entre 2018 y 2022, se registraron más de 800 mil casos de mujeres víctimas de delitos sexuales en nuestra región, la mitad de ellas niñas con menos de 18 años-, hasta llegar a las leyes restrictivas en materia de aborto. De forma constante y sistemática, los cuerpos que no se amoldan a la lógica y la moral patriarcal, ven su autonomía limitada.

No solo el “cómo”, sino también el medio por el cual ocurre esa violación a la autonomía es reinventado constantemente. En las últimas décadas, ante el avance de la digitalización y la penetración de internet en América Latina y en todo el mundo, las tecnologías de información y comunicación pasaron también a ser soporte para esta vieja expresión de desigualdades y violencia de género.

Cuando las tecnologías reproducen el control

En 2016, la organización Coding Rights ya denunciaba fallas de seguridad en las aplicaciones de control del ciclo menstrual (las llamadas “menstruapps”), así como el uso indebido y opaco de los datos registrados por las usuarias para dirigir publicidad de acuerdo con los patrones de sus ciclos, como anuncios de toallitas, copas menstruales o termómetros. En 2020, Brasil presenció además el trágico episodio de una niña de 10 años que, al tener que ser trasladada a otro estado para ejercer su derecho al aborto legal por un embarazo producto de la violación de su tío, fue blanco de manifestaciones de grupos conservadores luego de la filtración de sus datos en redes sociales.

También forma parte de este conjunto de ejemplos lo sucedido en la provincia argentina de Salta, donde salió a la luz un proyecto del gobierno que utilizaba datos personales sensibles para “predecir” embarazos adolescentes. La iniciativa, cuestionada por organizaciones feministas y de derechos digitales debido a los sesgos del algoritmo, evidenció cómo las tecnologías pueden reforzar patrones de vigilancia y control sobre los cuerpos de niñas y adolescentes, especialmente aquellas provenientes de comunidades indígenas o de bajos recursos.

A ello se suman los constantes ataques digitales contra activistas feministas y defensoras de los derechos sexuales y reproductivos en distintos países de la región. En El Salvador, por ejemplo, organizaciones que acompañan a mujeres criminalizadas por emergencias obstétricas fueron objeto de campañas coordinadas de desinformación, acoso y discurso de odio en redes sociales, en un intento por desacreditar su labor y silenciar la denuncia sobre la penalización de la interrupción voluntaria del embarazo.

La desinformación, además, opera como un mecanismo de pánico moral: no solo ataca a quienes defienden derechos reproductivos, sino que instrumentaliza la propia agenda del aborto para generar confusión, miedo y resistencia social. En Paraguay, sectores conservadores difundieron narrativas falsas que vinculaban el Acuerdo de Escazú (un convenio sobre transparencia ambiental) con la supuesta imposición de agendas sobre aborto o “ideología de género”, en un uso estratégico de la desinformación que desvió el debate público y funcionó como cortina de humo, dificultando la discusión de un tratado clave para la protección de defensoras ambientales.

Junto a otras conductas como la difusión no consentida de imágenes íntimas y el stalkerware, estas prácticas son expresión de lo que llamamos violencia de género facilitada por las tecnologías (VG FT).

Del control a la resistencia digital

Pero si la tecnología es parte del problema, también puede -y debe- ser parte de la respuesta. En los últimos años, especialmente los colectivos feministas y LGBTIQA+ se han movilizado para hacer del entorno digital un espacio de resistencia y cuidado. Además de ofrecer servicios como líneas de ayuda para personas víctimas de violencia de género facilitada por las tecnologías, organizan campañas cuya pauta central es la autonomía sobre el propio cuerpo. Dos ejemplos importantes son: el movimiento Ni Una Menos, en Argentina, que desde 2015 articula protestas masivas tanto en las calles como en redes sociales contra los femicidios y las violencias machistas; y el movimiento colombiano Causa Justa, que utilizó estratégicamente plataformas digitales en la articulación del debate público que llevó a la despenalización del aborto por decisión de la Corte Constitucional en 2022.

El avance de la telemedicina para acceder a cuidados reproductivos seguros, como la interrupción voluntaria del embarazo, es otro ejemplo relevante de cómo las tecnologías pueden reforzar el ejercicio de la autonomía. En Brasil, dispositivos pioneros fueron clave para mitigar desigualdades territoriales en el acceso a servicios legales. De manera similar, en México, proyectos piloto demostraron que el aborto con medicamentos acompañado por telemedicina es seguro, eficaz y garantiza privacidad y autonomía para las usuarias. En países con sistemas de salud fragmentados o con profundas brechas territoriales -una característica común a toda América Latina-, estas iniciativas permitieron que más personas accedan a información confiable, acompañamiento profesional y atención oportuna, incluso en zonas donde los servicios presenciales son inexistentes o insuficientes.

La protección frente a las violencias de género facilitadas por las tecnologías

El 25 de noviembre es el Día Internacional para la Eliminación de la Violencia contra las Mujeres. El hito, instituido por la ONU en 1999, surge de la lucha feminista latinoamericana, en memoria del día del asesinato de las hermanas Mirabal en 1960, quienes se oponían a la dictadura en República Dominicana. En esta efeméride, es esencial recordar que eliminar la violencia de género implica también erradicar las violencias facilitadas por las tecnologías. Además, debe servir como un llamado urgente a fortalecer los marcos legales y las políticas públicas destinadas a enfrentar esta problemática.

Estos marcos deben partir de una perspectiva interseccional y basada en derechos humanos, e ir más allá de la criminalización y la punición de los agresores. Deben integrarse a otros encuadres preexistentes de prevención y protección frente a la violencia basada en género. También deben centrarse en las sobrevivientes y asegurar la capacitación de actores e instituciones para que puedan ofrecer respuestas sensibles y no revictimizantes a todas las personas que hayan sufrido violencias, tal como desarrolla el reporte Combating Technology-facilitated Gender-based Violence under the Lenses of International Human Rights Law, recientemente publicado por Derechos Digitales en alianza con el Fondo de Población de las Naciones Unidas (UNFPA). En el documento, analizamos marcos del derecho internacional de derechos humanos y legislaciones de ocho países sobre violencia de género facilitada por las tecnologías, para proponer directrices y caminos para enfrentar este fenómeno.

La lucha por la autonomía sobre el cuerpo y la lucha por la autonomía frente a las tecnologías de la información y comunicación están profundamente interconectadas. Ambas reivindican el derecho a decidir y experimentar entornos libres de acuerdo con esa decisión -ya sea respecto del propio cuerpo, de los datos personales o de la vida digital-. En una sociedad marcada por desigualdades de género persistentes, reconocer esta conexión es esencial para imaginar políticas que realmente protejan y amplíen las libertades y cuidados. Entre cuerpos y códigos, es necesario recordar que las tecnologías no crean las violencias de género, pero sí pueden reproducirlas o transformarlas. Que sigan siendo, entonces, cada vez más, herramientas de emancipación.

Deepfakes: cuando las tecnologías promueven la violencia de género digital

Cada vez son más las noticias sobre casos de deepfakes en América Latina. Estas tecnologías, basadas en inteligencia artificial (IA), permiten crear imágenes falsas insertando el rostro de una persona en el cuerpo de otra, simulando situaciones que nunca ocurrieron, muchas veces de carácter sexual. En varios países de la región, se registraron casos particularmente alarmantes en colegios, donde niñas fueron víctimas de sus propios compañeros. Suelen utilizar estas herramientas para generar, compartir e incluso comercializar contenido sexual de sus compañeras. En los últimos años, los medios reportaron este tipo de hechos, principalmente en colegios privados de Perú, Ecuador, Brasil, Chile, Argentina y Guatemala, entre otros. Niños y adolescentes aprenden a explotar la tecnología para vulnerar a sus compañeras, mientras ellas quedan expuestas a una violencia para la que nadie tiene respuestas concretas.

Por su parte, la cobertura mediática sigue un patrón: los casos con mayor visibilidad provienen de colegios privados en zonas urbanas, pero eso no significa que sean los únicos. En un colegio de la Región del Maule, Chile, en una comuna fuera de los grandes centros urbanos, ocurrió un caso similar, por ejemplo. A diferencia de los anteriores, esta noticia no se encuentra fácilmente en internet y fueron las propias adolescentes quienes se vieron obligadas a denunciarlo en redes sociales.

En Latinoamérica, donde la mayoría de los colegios no pertenecen a élites, lo que llega a los medios representa solo una fracción de la realidad. Mientras algunos casos generan indignación, muchos otros quedan en el olvido, y en los contextos invisibilizados, las víctimas no reciben atención ni respuesta institucional.

En esta columna nos proponemos analizar qué rol están cumpliendo las aplicaciones de deepfake en América Latina en la proliferación de nuevas formas de violencia de género digital. A partir de estudios e investigaciones especializadas, indagamos las condiciones que las habilitan y las responsabilidades técnicas, políticas y económicas detrás de su funcionamiento, sin dejar de lado los desafíos urgentes que enfrenta la región para abordarlas.

Investigar el uso de apps de deepfake en América Latina

Los casos en colegios latinoamericanos mencionados evidencian un problema que trasciende lo técnico. La irrupción de este tipo de actos responde a un ecosistema digital que facilita su expansión sin considerar sus consecuencias. Según el informe State of Deepfakes 2023, el 98% del contenido deepfake disponible en línea tiene fines sexuales y el 99% de las personas representadas son mujeres. A esto se suma que el 48% de los hombres encuestados vio este tipo de contenido al menos una vez, y que el 74% no siente culpa por hacerlo.

Frente a esta realidad, grupos de investigación están tomando nota para poder reflejar conclusiones científicas y precisas. Junto a Situada, realicé una investigación para analizar el alcance de estas aplicaciones en la región, las condiciones que lo permiten y cómo su diseño facilita la violencia de género digital.

Para ello, se estudiaron 105 aplicaciones de deepfake publicadas en Google Play (Android), identificadas mediante una herramienta especialmente desarrollada para tal fin, la cual se conectaba a la tienda a través de una API. Gracias a esta conexión automatizada, pudimos recopilar información técnica y descriptiva de cada app, permitiendo observar patrones en su diseño y funcionalidad. El análisis de software suele centrarse en la usabilidad, pero es fundamental evaluar este tipo de tecnología más allá de lo técnico-comercial, desde una perspectiva ética, crítica y feminista.

Red flag: los hallazgos más preocupantes

La investigación de Situada detectó que el 89.5% de las aplicaciones de deepfake representan un riesgo para las mujeres, al facilitar la creación de contenido sexual no consensuado. El análisis reveló una combinación preocupante de factores sociotécnicos, lo cual se refleja en los principales hallazgos del estudio.

Uno de los primeros patrones identificados fue la falta de transparencia en el desarrollo de las apps: el 42.8% no indicaban su procedencia ni en Google Play ni en sus sitios web, dificultando la rendición de cuentas y sus motivaciones. Entre quienes sí reportaban autoría, se encontraron imágenes promocionales sexualizadas que refuerzan la objetivación de las mujeres. Además, se constató una clara brecha de género en los equipos que desarrollan estas apps, que refuerza la persistente falta de diversidad en el sector tecnológico.

Los hombres -especialmente del Norte Global- históricamente dominaron la innovación tecnológica, excluyendo las experiencias y necesidades de las mujeres. Esta dinámica fue ampliamente estudiada por autoras feministas que analizan cómo el diseño y la producción tecnológica reproducen desigualdades estructurales. Entre ellas, Judy Wajcman aportó conceptos clave en su libro “Tecnofeminismo”, donde explora cómo el desarrollo técnico está atravesado por relaciones de poder. Informes recientes de la UNESCO y Randstad confirman que menos del 30% de las personas que trabajan en IA son mujeres. Esta exclusión no responde solo a la falta de acceso o a las habilidades, sino a una cultura técnica masculinizada que condiciona lo que se diseña, para quién y con qué propósito.

Otro aspecto crítico identificado fue la clasificación que Google Play otorga a las aplicaciones. Esta tienda exige que todas las apps cuenten con una etiqueta de edad, asignada a través de un sistema gestionado por la Coalición Internacional de Clasificación por Edad (IARC por sus siglas en inglés). Para ello, los desarrolladores deben completar un formulario autodeclarativo y, en función de sus respuestas, se determina la categoría correspondiente (por ejemplo, “Mayores de 17 años”). Sin embargo, este mecanismo depende exclusivamente de la honestidad de quienes publican las apps. No hay verificación activa del contenido real de las aplicaciones. El análisis mostró que el 65.7% fueron clasificadas como “Apto para todo público”, pese a que se usan para la creación de contenido sexual no consentido. Clasificaciones que deberían proteger a las personas usuarias, terminan validando tecnologías dañinas bajo rótulos engañosos.

También se evidenció cómo estas herramientas operan bajo un modelo de negocio centrado en la rentabilidad. El 67.6% requiere un pago para desbloquear funciones principales y, aunque algunas ofrecen pruebas gratuitas, restringen la descarga hasta que se pague, incentivando la compra. Este modelo prioriza la rentabilidad por encima de cualquier principio ético, facilitando la explotación digital de los cuerpos de las mujeres. A esto se suma su facilidad de uso: el 96.2% fueron calificadas como intuitivas, incluso accesibles para personas sin experiencia técnica o dominio del idioma, lo que amplía su adopción.

Por otro lado, el análisis demostró que estos servicios en línea incorporan funciones que simulan besos o abrazos, normalizando la idea de que las mujeres pueden ser expuestas en situaciones íntimas sin su consentimiento. En los anuncios de estas aplicaciones, es común ver representaciones forzadas, casi siempre protagonizadas por un hombre, que utiliza una foto propia junto con la imagen de una mujer, reforzando dinámicas de control. Además, el uso de plantillas predefinidas contribuye a su hipersexualización: las opciones femeninas abundan en categorías como “Hot Bikini”, “Latex”, “Sexy Girl” o “Body Latino” (reforzando estereotipos fetichistas sobre las mujeres latinas), mientras que las plantillas masculinas son escasas y neutras.

Por último, las empresas detrás de estas aplicaciones eluden su responsabilidad legal a través de avisos en los que prohíben el uso de material no autorizado, pero dejan la ejecución en manos de la persona usuaria. Este hallazgo refleja que la estrategia legal no impide el daño, pero sí protege a las compañías que se benefician económicamente con estas prácticas. Al trasladar la carga moral exclusivamente a quien las utiliza, las empresas evaden su responsabilidad ética como diseñadoras de tecnología con impactos previsibles.

Una tendencia global reflejada en América Latina

Las conclusiones de esta investigación se inscriben en una tendencia global, de la cual América Latina no es ajena. Diversas organizaciones de la sociedad civil vienen advirtiendo que tecnologías como la deepfake forman parte de una creciente ola de violencia de género digital. En un informe reciente presentado a la ONU, desde Derechos Digitales, junto a otros grupos, señalamos que estas prácticas silencian voces y limitan la participación pública.

En la misma línea, Coding Rights documentó cómo ciertos servicios basados en IA imponen visiones patriarcales y coloniales sobre los cuerpos y decisiones de niñas y adolescentes en nuestra región. De forma similar, el Banco Interamericano de Desarrollo (BID) viene alertando sobre el uso de deepfake con fines de extorsión y humillación sexual, advirtiendo la ausencia de políticas regionales para enfrentar esta problemática.

En el plano legal, luego de recopilar casos de deepfake porn, activistas como Olimpia Coral insisten en que “la ley es insuficiente” y que es urgente capacitar a policías y fiscales para comprender estas tecnologías y atender adecuadamente a las víctimas. La evidencia también se manifiesta en el ámbito político. Un estudio de Fundación Karisma, en colaboración con ONU Mujeres, centrado en las elecciones legislativas de 2022, concluyó que la manipulación de información -incluyendo imágenes trucadas (deepfake) y suplantaciones- se convirtió en una forma de violencia digital contra candidatas mujeres. 

En conjunto, estos informes coinciden en lo que la investigación de Situada evidencia a nivel regional: las tecnologías de IA, cuando se desarrollan sin responsabilidad ética ni supervisión pública, reproducen violencias históricas hacia las mujeres

Neutralidad falsa: tecnologías que perpetúan la violencia de género 

Los resultados de estos análisis son alarmantes, pero no se comparan con el impacto en las mujeres afectadas. Mientras estas aplicaciones generan ganancias, las mujeres y niñas ven sus imágenes manipuladas y difundidas sin su consentimiento. Algunas temen salir de sus casas, otras sufren ansiedad y depresión, o son extorsionadas y revictimizadas por quienes minimizan el daño bajo la excusa de que “es solo IA” o “no es real”, ignorando que lo online tiene consecuencias en la vida offline.

Esta masificación no puede desvincularse de una economía de la conectividad que premia lo viral y convierte la exposición en capital. El número de descargas legitima estas prácticas como aceptables, invisibilizando sus impactos dañinos. Lo que ocurre en este mercado digital constituye una prolongación de la lógica patriarcal que trata los cuerpos de las mujeres como bienes disponibles para el deseo ajeno. Es una forma estructural de violencia donde la cosificación reduce a la mujer a objeto sexual y anula su agencia al servicio del placer masculino.

Plataformas como Google Play legitiman este ecosistema al permitir la circulación masiva de tecnologías que posibilitan agresiones simbólicas y sexuales sin consentimiento, bajo esquemas comerciales lucrativos. Responsabilizar únicamente a las personas usuarias es insuficiente. Se requiere cuestionar el sistema técnico, económico y normativo que habilita estas violencias.

El desafío no es solo denunciar, sino repensar la tecnología desde su raíz: reconocer que toda herramienta implica decisiones morales y políticas. Afrontar esta problemática requiere respuestas coordinadas: regulaciones con enfoque de género que obliguen a las plataformas a retirar contenidos no consentidos, y compromisos empresariales de transparencia que incorporen evaluaciones de impacto ético antes de publicar herramientas que puedan ser usadas para dañar. También es necesario avanzar en medidas de reparación integral para las víctimas, incluyendo apoyo psicosocial, acompañamiento jurídico y garantías de no repetición. Finalmente, promover una alfabetización digital crítica -especialmente entre jóvenes- puede prevenir estos usos violentos y construir una cultura digital basada en el respeto y el consentimiento. Avanzar hacia políticas públicas con perspectiva interseccional feminista y prácticas de desarrollo ético es una urgencia para garantizar que la innovación no se construya a costa de la dignidad de las personas.

Bots y elecciones: los nuevos influencers automatizados

A fines de julio, tras varias semanas cayendo en las encuestas, Evelyn Matthei, candidata de la derecha tradicional chilena agrupada en la coalición Chile Vamos, acusó al candidato de la derecha más extrema José Kast, del Partido Republicano, por la puesta en marcha de una campaña de desinformación en su contra a través de redes sociales. La información que se hizo circular ponía en duda la salud mental de la candidata de Chile Vamos y, por ende, su capacidad para gobernar. El hecho generó un gran revuelo, pues la coalición de Matthei y el partido de Kast se encontraban en plenas negociaciones para conformar una lista parlamentaria única.

En ese contexto, un equipo periodístico del canal Chilevisión realizó un reportaje donde investigó algunas cuentas de redes sociales que reiteradamente atacaban a las candidaturas tanto de Matthei como de Jeannette Jara, candidata única de la centro izquierda que representa al oficialismo. El informe periodístico se centró en el comportamiento de cuentas anónimas que, desde hace algunos años, vienen publicando noticias falsas en contra del actual gobierno y de las candidatas. La investigación logró dar con el nombre de dos personas que estarían detrás de las cuentas investigadas, ambas ligadas al Partido Republicano.

Otro reportaje, del medio digital Reportea junto a Vergara 240, reveló más nexos: la Asociación de Administradoras de Fondos de Pensiones (AAFP) financió secretamente a la fundación “Ciudadanos en Acción”, la cual es dirigida por Bernardo Fontaine, actual integrante del comando de Kast. La investigación develó que la AAFP costea a la fundación desde 2019, a través de la agencia Artool, con el fin de articular campañas en contra de proyectos de reformas previsionales y de determinadas candidaturas presidenciales. La estrategia consistía en generar contenido digital en base a las directrices de la AAFP y con pagos en distintas direcciones para aumentar la viralización. Por un lado, a través de publicidad paga en Meta (para Facebook e Intagram) con un monto que supera los 200 millones de pesos -USD 215.000-. Además, dinero entregado a influencers para producir mensajes en contra de las reformas. Y, por otro lado, notas pagas en medios digitales, y masificación de contenidos del medio a través de una extensa red de bots, como parte del trato. Un elemento que resulta llamativo es que las personas financiadas para defender los intereses de la Asociación, tanto a través de cuentas públicas como anónimas, son las mimas denunciadas en el reportaje de Chilevisión de atacar a las candidatas presidenciales.

Estas revelaciones resultan preocupantes para los valores democráticos, no sólo en función de poder garantizar elecciones libres y transparentes, sino también desde una perspectiva de género. De las ocho candidaturas para esta votación, las únicas que sufrieron ataques cibernéticos son “casualmente” Matthei y Jara, las dos candidatas mujeres, reflejando un claro ejemplo de violencia política de género.

En el transcurso de estos meses, se estuvo hablando del uso de “bots” para describir el comportamiento mediante el cual cuentas anónimas se coordinaban para generar campañas de desinformación. Pasado un tiempo -y junto al abordaje de más medios-, se comenzó a diversificar el vocabulario, incluyendo los términos “troll” y “hater” para explicar lo que las investigaciones han develado. El objetivo de esta columna es aproximarnos a entender el funcionamiento de los bots, pero para ello primero haremos la distinción entre estos términos.

¿Qué son los trolls y los bots?

Estos conceptos ya forman parte del lenguaje propio de internet, por ello originalmente aparecen en inglés. Se aplican a redes sociales, foros y, más en general, a cualquier tipo de plataforma digital que permita la interacción entre personas usuarias, en especial si esa interacción puede dirigirse también a figuras públicas.

El término “Trolls”, originario de la mitología escandinava, se utiliza para referirse a cuentas anónimas que generalmente publican mensajes provocadores, desinformaciones o discursos de odio con la intención de perjudicar a ciertas personas o grupos, generando daños en su imagen pública. Su comportamiento es deliberado: son conscientes de que lo publicado es falso o abusivo.

Por su parte, “Bot” es un término coloquial que resulta de la abreviación de la palabra “robot”. Los bots son cuentas que funcionan de forma automatizada, mediante programación. Su accionar buscar producir mensajes o reacciones, incluso generar mayor volumen en la difusión de un mensaje, mediante interacciones que simulan ser humanas.

Los bots y su relación con internet, un poco de historia

Los bots con parte de la historia y de la arquitectura de internet: los primeros de los que se tiene registro datan de 1988. Ese año se creó el protocolo de mensajería de texto “Internet Relay Chat” (IRC), el cual fue muy popular durante sus primeras décadas y aún sigue vigente en nuestros días. Los bots que funcionaban bajo IRC consistían en programas computacionales que automatizaban algunas tareas dentro del sistema de mensajería.

A medida que internet crecía y diversificaba sus servicios, los bots se fueron adaptando a cada uno de ellos. Uno de los usos más relevantes que han tenido consiste en formar parte de los algoritmos de búsqueda a través de bots que indexan sitios web. Es así como, en 1994, se crea el primer indexador de sitios web que, un año más tarde, sería usado por AOL. Ya en 1996, una incipiente startup que hoy conocemos como Google lanzaba su bot BackRub para indexar el contenido de internet. Si bien los bots tienen un sinfín de utilidades legítimas, también se usaron para otros fines menos amables. A lo largo de la historia de internet, se han registrado numerosos ataques, de distinta índole y envergadura, a través de mecanismos como pueden ser la “denegación de servicio” o el “ransomware”.

En el mundo de las redes sociales, los bots son programas informáticos diseñados para simular interacciones humanas de forma automática. En la actualidad, es muy recurrente que las empresas generen canales de comunicación vía mensajería para responder a preguntas frecuentes -con mayor o menor éxito- mediante el uso de estos dispositivos.

En contextos donde proliferan las narrativas basadas en discursos de odio y desinformación, los bots son la herramienta predilecta para amplificar el alcance de esos mensajes. A través de la republicación de posteos o la interacción de los “me gusta”, pueden lograr la viralización de contenidos falsos o engañosos. Un ejemplo paradigmático en nuestra región fue la campaña de desinformación masiva que llevaron adelante los opositores de Evo Morales en 2019 para lavar la imagen del golpe de Estado y sumar simpatizantes. Hay evidencias que indicaron la existencia de una maniobra coordinada en redes sociales -decenas de miles de cuentas en Twitter creadas en pocas horas- para influir en la agenda pública global. El objetivo era imponer la idea de que el golpe no había sido tal y que el expresidente Morales estaba vinculado al narcotráfico y había propiciado un fraude electoral.    

Pescando bots: ¿cómo se pueden identificar interacciones artificiales?

Si bien las interacciones de estas cuentas automatizadas pueden parecer reales, existen algunos detalles que nos pueden ayudar a identificar que son artificiales. Vamos a repasar estos elementos.

  • Cuentas falsas: sus fotos de perfil no corresponden a una persona, los nombres de usuario parecen serializados con números largos luego de algún nombre o palabra.
  • Antigüedad de las cuentas: en muchos casos son cuentas que no poseen muchos años, o bien fueron creadas en un período acotado de tiempo.
  • Tendencias no orgánicas: cuando un contenido se viraliza y se convierte en tendencia de forma natural, sucede porque muchas personas lo comparten mediante una interacción distribuida entre numerosas cuentas, de forma no jerárquica. En el caso de tendencias generadas por bots, se puede notar que existe una, o un par de cuentas centrales, desde las que se cuelgan muchas otras para compartir, lo que demuestra un comportamiento mucho más jerárquico. En general identificarlo requiere de un análisis técnico pues es complejo notarlo a simple vista.
  • Comportamiento anormal: otro factor común es que muchas de estas cuentas solo comparten contenido de ciertos “usuarios” de forma reiterada. También es posible notar que al publicar comentarios, estos suelen ser inentendibles o confusos.

Los algoritmos generativos y los nuevos desafíos

Con la irrupción del uso masivo de algoritmos generativos, también llamados “Inteligencia Artificial Generativa” (GenAI), tales como ChatGPT, Gemini o DeepSeek, surgen nuevos desafíos a la hora de determinar cuándo es un programa el que está interactuando.

En marzo de este año, un estudio realizado por la Universidad de California evidenció que el modelo GPT-4.5 logró aprobar con 73% de efectividad la prueba de Turing. Esta prueba consiste esencialmente en que personas interactúan, a través de mensajería, con otras personas y con máquinas con el objetivo de determinar cuál es cual. Si la persona no logra distinguir entre la máquina y la persona, entonces se considera que el programa o la máquina pasó la evaluación.

El avance de los modelos nos propone nuevos retos al momento de reconocer cuándo un bot es el que está interactuando en las redes sociales, por lo que la tarea de generar análisis certeros se vuelve aún más compleja. Es importante considerar que el estado de desarrollo de los algoritmos generativos, no solo permite producir textos sino que también ya genera o manipula imágenes, audios y videos. Dicha gama de recursos agrega otro grado más de complejidad en la detección.

Desde el caso Cambridge Analytica, muchas organizaciones pusieron el foco en el efecto de las redes sociales sobre procesos eleccionarios. De la misma forma, podemos pensar en la influencia que tienen sobre temas sensibles de las agendas nacionales y regionales, y cómo a través de los bots determinados grupospueden lograr invisibilizarlos o atacarlos para obtener réditos en sus posturas.

Las redes sociales son un entorno complejo, por lo que encontrar una solución real al problema de los bots y la desinformación también puede resultar dificultoso. Aún así, deben existir medidas que puedan ayudar a mitigar su impacto: regulaciones efectivas que, sin la necesidad de una censura y acorde a los estándares de derechos humanos, puedan generar transparencia sobre las acciones que se deben ejercer ante las plataformas. Asimismo, es imprescindible que las corporaciones dueñas de las redes sociales tengan la voluntad de abrir canales para la colaboración con los entes encargados de velar por el cumplimiento de esas regulaciones. Desde Derechos Digitales, esperamos que “las plataformas digitales se preparen, teniendo una amplia colaboración con las autoridades, pero también con una serie de acciones proactivas que promuevan la transparencia de sus actos ante la desinformación”, tal como lo mencionamos en una columna, en virtud de las elecciones mexicanas de 2024.

Es de suma importancia que todos los actores interesados -legisladores, empresas tecnológicas, sociedad civil y academia- puedan trabajar para la construcción de ambientes eleccionarios democráticos, justos y participativos. Procesos electorales con mecanismos claros para combatir la desinformación, que no solo consideren el marco regulatorio, sino que también apunten a otras políticas como el fomento de campañas educativas que brinden a la población habilidades y herramientas para la detección de noticias falsas.

20 años defendiendo derechos digitales: aprendizajes desde el LACIGF y una mirada hacia adelante

Este año cumplimos veinte años de trabajo en la defensa, promoción y desarrollo de los derechos humanos en los entornos digitales de América Latina. Han sido dos décadas de cambios profundos, donde pasamos de una internet más descentralizada y colaborativa a un ecosistema mediado por plataformas globales, dominado por la extracción de datos y las dinámicas de vigilancia tanto estatal como corporativa. Aún así, la región sigue siendo un territorio fértil para la innovación social, la cooperación y las resistencias digitales.

En ese espíritu, decidimos aprovechar el LACIGF18, el principal espacio de encuentro multiactor de la región latinoamericana sobre gobernanza de internet, para celebrar nuestro aniversario número 20 junto a organizaciones aliadas, colegas y amistades que han acompañado este recorrido. La ciudad de Córdoba en Argentina se transformó así en un punto de encuentro entre el pasado y el futuro: un espacio para reconocer los aprendizajes que nos han traído hasta aquí y proyectar colectivamente los próximos desafíos.

Nuestra participación en el LACIGF18

El LACIGF siempre ha sido un foro donde se cruzan perspectivas diversas: sociedad civil, gobiernos, academia, sector privado y comunidad técnica, y para nosotras su valor radica en que permite debatir la política tecnológica desde el Sur Global, discutir las desigualdades que atraviesan la conectividad y construir estrategias comunes frente a los desafíos emergentes. En esta edición participamos en distintas sesiones que abordaron temas clave para la región, desde la ciberseguridad comunitaria hasta los desafíos ambientales y la protección de datos.

Una de nuestras principales actividades en el marco del foro fue estar presentes en el evento previo convocado por la comunidad juvenil de la región, el YouthLACIGF, donde formamos parte del taller “Ciberseguridad Comunitaria: Protección colectiva de nuestros entornos digitales”.

El espacio reunió a juventudes, defensoras ambientales, periodistas y personas vinculadas a organizaciones de base de distintos países. Las experiencias compartidas fueron diversas, pero coincidieron en algo esencial: la inseguridad digital se vive de manera concreta y diferenciada. Afecta a mujeres y a personas de la comunidad LGBTIQA+, a activistas, infancias, adolescencias y personas mayores, cada grupo con vulnerabilidades y formas de exposición diferentes. Se expresa en el acoso y la violencia en línea, en la difusión no consentida de datos personales, en las campañas de odio o en la vigilancia dirigida hacia quienes denuncian abusos de poder, corrupción o daño ambiental. En todos los casos, la tecnología no solo refleja las desigualdades estructurales de nuestras sociedades, sino que puede reproducirlas y profundizarlas.

A partir del intercambio surgió una afirmación clave: la seguridad digital es colectiva. No se trata únicamente de saber configurar contraseñas o instalar herramientas de cifrado, sino de construir redes de confianza, sostener conversaciones difíciles y acompañarse en los momentos de mayor exposición o riesgo. Esta perspectiva comunitaria nos invita a repensar las prácticas institucionales, los programas de formación y las políticas públicas, para situar la seguridad en un enfoque de bienestar y cuidado.

También participamos del taller llamado “Medio ambiente, tecnología y resistencias: desafíos digitales de la defensa ambiental en América Latina”, dedicado a explorar el vínculo entre crisis socioambiental y tecnología, con un enfoque situado en las personas que defienden el medio ambiente en América Latina. Nos propusimos visibilizar el rol fundamental de la tecnología frente a la emergencia climática y la crisis ecológica, y evidenciar las barreras que enfrentan las activistas para un acceso significativo a internet y a la información. La falta de conectividad en territorios rurales, la concentración de infraestructura tecnológica y las amenazas digitales, como las campañas de desinformación, el hostigamiento en línea o la violencia de género facilitada por las tecnologías, son obstáculos que inciden directamente en su capacidad de ejercer derechos y proteger el entorno.

El panel reunió a personas defensoras del medio ambiente de diferentes países, junto a representantes de la sociedad civil, la comunidad técnica, gobiernos locales y organismos de derechos humanos. Fue un espacio de diálogo multisectorial donde se compartieron experiencias concretas de resistencia, como las movilizaciones frente a la instalación de data centers o proyectos extractivos que profundizan desigualdades ambientales y digitales.

La conversación también permitió reconocer los marcos regionales que pueden fortalecer esta protección, como el Acuerdo de Escazú y los debates hacia la COP30 sobre cambio climático. Estos instrumentos abren oportunidades para incorporar la dimensión digital en la agenda ambiental y garantizar que la defensa de la naturaleza y de los derechos humanos vaya de la mano con la defensa de una tecnología justa, segura y accesible.

Finalmente, en el taller “Datos en fuga: cómo se exponen y explotan nuestros datos en internet”, presentamos avances de nuestra investigación en curso sobre explotación ilegal y comercialización de bases de datos estatales en Argentina, Brasil y Perú. En la instancia destacamos que estas filtraciones de información personal no son meras fallas de seguridad ni accidentes administrativos. Son parte de un circuito de extracción y monetización que alimenta economías ilegales, facilita extorsiones y expone a las personas a riesgos profundos, especialmente aquellas que ya enfrentan desigualdades estructurales por razones de género, clase, raza o territorio.

Frente a este escenario, la protección de datos personales debe abordarse como un componente esencial de los derechos humanos. No se trata solo de un aspecto técnico o administrativo, sino de una condición para garantizar autonomía, privacidad y seguridad. Cuando los datos personales son filtrados, vendidos o manipulados, las consecuencias pueden ser irreversibles, desde daños económicos hasta violencia física. Por eso, insistimos en la necesidad de políticas públicas sólidas, autoridades independientes, más transparencia y rendición de cuentas de las plataformas, y mecanismos efectivos de investigación y sanción.

Celebrar, recordar y proyectar: una nueva edición de Latin America in a Glimpse

En el marco del LACIGF celebramos nuestros 20 años de trabajo y presentamos la nueva edición de Latin America in a Glimpse, una publicación que reúne los hitos, aprendizajes y tensiones que han marcado dos décadas de defensa de los derechos digitales en América Latina. Más que un recuento histórico, el documento busca ser una invitación a mirar el pasado con sentido crítico y el futuro con imaginación política: una herramienta para activar memoria, conversación y acción colectiva.

La publicación está acompañada por un juego de cartas que permite reconstruir esta historia de manera participativa, conectando experiencias, hitos y desafíos. En el mazo hay también veinte cartas en blanco: no son un adorno, sino una declaración. Representan todo lo que falta contar, lo que está ocurriendo hoy y lo que aún no existe. Nos recuerdan que la historia de los derechos digitales no está cerrada, y que escribirla es una tarea compartida. Nuestro momento de celebración nos permitió reflexionar sobre algunos de esos hitos a partir de la experiencia de amigas y expertas de toda la región.

Llegar a este aniversario nos encuentra en un momento complejo. La expansión de sistemas de vigilancia automatizada, la opacidad de las infraestructuras y la concentración del poder tecnológico amenazan las bases mismas del espacio público digital. Pero también sabemos que en la región hay comunidades, movimientos y organizaciones que no han dejado de imaginar alternativas, tejer alianzas y crear tecnología con sentido de justicia social.

El futuro de los derechos digitales dependerá de nuestra capacidad de mantenernos unidas, fortalecer la cooperación regional y seguir disputando el sentido político de la tecnología. Veinte años después, seguimos convencidas de lo mismo que nos movilizó al inicio: que la tecnología puede ser una herramienta para ampliar libertades, fortalecer la democracia y proteger la dignidad de las personas.

Miente, miente, que algo(ritmo) quedará

Se acerca una nueva elección presidencial y parlamentaria altamente polarizada en la región, esta vez en Chile. En respuesta a temores sobre rumores y noticias falsas, el gobierno y el Servicio Electoral lanzaron la campaña «Chile Vota Informado 2025», pidiendo evitar «que la desinformación se propague» y reiterando, a la vez, el lema «aguanta, chequea y comparte» que el gobierno chileno ha promocionado por más de un año y difundido hasta en forma de cumbia.

Como hemos declarado, la mentira política dista de ser una anomalía reciente, siendo más bien una táctica arraigada en la historia de la propaganda. Pero la preocupación tiene sentido. Como advierte el informe de la Relatoría Especial de la ONU sobre Libertad de Expresión, «cuando la libertad de expresión es suprimida, los procesos electorales están en peligro». Esta advertencia llega en un momento crítico para la región, donde múltiples países se enfrentan a ciclos electorales en medio de una creciente polarización y desconfianza institucional, y donde la capacidad de identificar la falta de autenticidad es necesaria para interactuar en el debate público. Sin embargo, el enfoque en la conducta individual desplaza parte de la responsabilidad hacia la ciudadanía, mientras las condiciones estructurales que producen desinformación permanecen intactas.

Innovando para mentir

Las narrativas de desinformación muestran notables continuidades a lo largo del tiempo. La acusación de fraude electoral aparece cíclicamente, como quedó demostrado tras las elecciones legislativas de 2022 en Colombia, donde las narrativas de fraude se difundieron ampliamente sin pruebas. Paralelamente, en las presidenciales de 2023 de Argentina circularon frases inventadas atribuidas a candidatos, mientras en los comicios de Perú del 2021 Convoca verificó imágenes falsas de supuestos conteos rápidos. Bolivia experimentó durante sus elecciones de 2025 una campaña sucia que tomó las redes sociales, con plataformas que parecían relajar sus políticas de moderación de contenidos en el contexto boliviano.

Esta persistencia de métodos más tradicionales contrasta con la innovación en herramientas. Una realidad presente hace más de una década: el crecimiento de la sofisticación en el uso de datos para la microsegmentación de destinatarias. El fin es llegar con más precisión a votantes a través de mensajes dirigidos a sus puntos de sensibilidad más probables, amparados en vacíos regulatorios o institucionales frente al uso de datos personales. Los antecedentes en herramientas de análisis de datos han sido ofrecidos mostrando que sería posible mapear preferencias políticas mediante minería de datos. Así, la datificación de la sociedad abre camino para formas más avanzadas de influencia electoral.

A eso se suma el uso de herramientas más complejas, como destacamos, junto a otras organizaciones, en nuestra contribución al informe de la Relatora Especial de las Naciones Unidas sobre la Libertad de Expresión y Opinión, Irene Khan. Las campañas políticas ahora enfrentan el desafío de contener mensajes sintéticos que pueden difamar candidaturas o atribuirles declaraciones nunca realizadas. Brasil vivió en 2024 una campaña municipal marcada por deepfakes, lo que llevó al Tribunal Superior Electoral a aprobar una resolución que prohíbe estos contenidos sintéticos y exige etiquetar el uso de inteligencia artificial en la propaganda. Mientras tanto, en Chile es parte de la propaganda diaria de una candidatura y sin mayores consecuencias.

La industria de la desinformación ha perfeccionado sus métodos, evolucionando desde la microsegmentación de audiencias hacia la producción de deepfakes. Esta sofisticación genera ahora una asimetría aún mayor entre quienes pueden producir desinformación convincente y quienes intentan verificarla, además de poner un manto de duda sobre el debate público.

Respuestas regulatorias: entre la prevención y la censura

Reconociendo -y hasta exagerando- los riesgos de la desinformación y fenómenos asociados a ella, en la región latinoamericana tanto los Estados como las plataformas digitales han ensayado diversas respuestas, con resultados dispares. En Chile se firmó en 2025 un compromiso de integridad electoral entre la autoridad electoral y actores privados y de la sociedad civil, que establece principios de defensa de la libertad de expresión y prevención del contenido falso. En Brasil, como fue comentado más arriba, el máximo tribunal con competencia electoral aprobó sanciones contra quienes elaboren o difundan contenido manipulado con IA. El panorama regulatorio se complejiza rápidamente y nuevas iniciativas normativas aparecen, aún si no llegan a convertirse en reglas.

Sin embargo, estas propuestas enfrentan dilemas fundamentales, como los riesgos de censura al utilizar nuevas herramientas supuestamente contrarias a la mentira. En contextos con una frágil independencia judicial, las leyes ambiguas contra «fake news» podrían usarse para silenciar voces disidentes, un riesgo que se extiende con la moderación automatizada. La Electronic Frontier Foundation (EFF) advirtió que las noticias falsas ofrecen a los poderes consolidados una oportunidad para censurar oponentes.

Ante estos desafíos, las respuestas puramente tecnológicas o punitivas muestran limitaciones conocidas: peligro de censura a nivel de regulación o de implementación u observancia, transferencia de responsabilidad hacia las plataformas digitales que las obligue a moderar más, y la eventual mala definición de lo que se intenta proteger o sancionar. La Comisión contra la Desinformación chilena entregó 72 recomendaciones que reconocen la naturaleza multifacética del problema, proponiendo soluciones que van desde la educación mediática hasta la transparencia algorítmica y el fortalecimiento del ecosistema informativo, bajo un mandato que se restringía a redes digitales. Las soluciones adecuadas pasan por fortalecer las instituciones democráticas, garantizar la independencia de órganos electorales, apoyar los medios comunitarios y promover la alfabetización mediática e informativa, lo que supera por mucho lo que ocurre en internet. Es decir, la realidad obliga a observar el problema más ampliamente.

Hacia una resiliencia democrática

La desinformación en contextos electorales manifiesta problemas más grandes de la sociedad, como falta de transparencia, concentración mediática, desigualdad económica y debilidad institucional. Esto merece cuestionar el relato que atribuye el problema principalmente a las redes sociales, y que culpa a la ciudadanía por compartir noticias falsas como quien culpa a las personas enfermas por su fiebre. No se trata de una batalla técnica por la verdad, sino de un desafío político y social por el espacio cívico que requiere respuestas integrales. Las campañas de sensibilización serán insuficientes si no se enmarcan en procesos más amplios de fortalecimiento democrático.

De cara a las elecciones más próximas en Chile y las del próximo año en la región (que incluyen, entre otras, presidenciales en Costa Rica, Perú, Colombia y Brasil), es urgente integrar una estrategia de resiliencia democrática. Esto requiere tomar con seriedad recomendaciones comunes: transparencia en propaganda política y en el uso de algoritmos; educación mediática e informativa desde las escuelas hasta espacios comunitarios; pluralismo informativo que incluya apoyo financiero a medios independientes; regulación proporcional que proteja la libertad de expresión; y participación ciudadana que promueva colaboración entre autoridades, academia, sociedad civil y plataformas en la formulación, implementación y evaluación de reglas. También, reforzar la protección efectiva de los datos personales frente a la recolección masiva, el uso en algoritmos de recomendación y la capacidad creciente de crear y distribuir contenidos dirigidos a percibidas vulnerabilidades en la sociedad.

La resiliencia democrática se construye también desde abajo. Las instituciones pueden fallar, pero las redes ciudadanas de verificación, la desatención a medios, programas e influencers dedicados a narrativas antiderechos, permite construir y reforzar las defensas de la sociedad. Campañas como «Chile Vota Informado» serán útiles si se enmarcan en procesos más amplios de fortalecimiento democrático. De lo contrario, se quedará en un eslogan bien intencionado que no aborda las razones profundas por las que la ciudadanía participa en la circulación de falsedades.