Contribución a la consulta de la RELE/OEA sobre el impacto de la inteligencia artificial en los derechos humanos

En esta contribución presentamos, ante la Relatoría Especial para la Libertad de Expresión (RELE), información centralizada sobre los impactos del uso de Inteligencia Artificial por parte de los Estados en América Latina en la privacidad, la libertad de expresión y asociación y el acceso a la información pública. Desglosamos recomendaciones orientadas a fortalecer los mecanismos de transparencia activa, la participación social, las auditorías independientes y las evaluaciones de impacto en derechos humanos de los sistemas de IA diseñados y desplegados en la gestión pública.

Protección de datos en América Latina: avances, tensiones y desafíos pendientes

El 28 de enero es reconocido a nivel mundial como el Día de la Protección de Datos. La fecha fue establecida en 2006 por el Consejo de Europa y remite al día en que se firmó, en 1981, la Convención 108: el primer tratado internacional jurídicamente vinculante para Europa sobre la protección de datos personales y el tratamiento automatizado de información. La efeméride conmemorativa se inscribe, por lo tanto, en una tradición europea de regulación de la privacidad y la protección de datos, que ha influido en múltiples marcos normativos en todo el mundo y busca destacar la importancia de garantizar esos derechos fundamentales en un contexto de uso creciente de tecnologías digitales.

Aunque las nociones de privacidad y de protección de datos están estrechamente relacionadas, no son sinónimos. La primera se refiere a un derecho amplio a la intimidad y a la autonomía personal, clásicamente definido como el “derecho a no ser molestado”; mientras que la segunda articula un conjunto de normas y prácticas sobre cómo se recolectan, procesan y protegen los datos que identifican o tienen el potencial de identificar a una persona. En ese sentido, el 28 de enero no solo celebra un derecho individual abstracto, sino una tradición normativa que busca colectivizar ese derecho y traducirlo en obligaciones y mecanismos concretos, cuya efectividad depende de instituciones específicas.

En América Latina, esta fecha implica reflexionar no solo sobre los avances legales, sino también sobre las tensiones entre teoría y práctica en contextos sociales, institucionales y políticos específicos que difieren, en muchos sentidos, de los europeos.

Los avances legales

La privacidad es un derecho reconocido en las constituciones y leyes de la gran mayoría de los países. En consonancia con este reconocimiento, durante la última década América Latina avanzó en la aprobación de leyes de protección de datos personales, en procesos legislativos fuertemente influidos por la experiencia europea, en particular por el Reglamento General de Protección de Datos (GDPR).

Estas normas surgen en un contexto marcado por el uso -cada vez más intensivo- de datos por parte de las empresas privadas, cuya presencia en la vida cotidiana de las personas es cada vez mayor y más profunda. A este escenario se suma la creciente digitalización de los Estados, que dependen principalmente de la recolección y el tratamiento de datos personales para diseñar e implementar políticas públicas. En este punto, además, emerge una tensión fundamental: si bien el uso de datos puede ser una herramienta legítima para la acción estatal, su utilización sin salvaguardas adecuadas por parte de las instituciones públicas puede abrir la puerta a prácticas de vigilancia y a vulneraciones de derechos. En ausencia de reglas claras y límites efectivos, las personas quedan en una situación de especial vulnerabilidad.

Es precisamente desde este escenario que deben leerse los avances legislativos recientes en la región, que avanzan con ritmos distintos. Mientras todavía hay países como Honduras, Bolivia y Guatemala, que aún no cuentan con marcos legales de protección de datos, otros van camino a sus primeros marcos normativos o a la actualización de los ya existentes. Así, a fines de 2025, Paraguay aprobó su ley de protección de datos personales tras un prolongado debate legislativo y una activa participación de la sociedad civil. En Chile, en cambio, se prevé para 2026 la entrada en vigencia de una nueva ley, aprobada en 2024.

Estos avances confirman un progreso sostenido en el plano legal y merecen ser celebrados. Sin embargo, es clave no perder de vista lo esencial: la mera existencia de leyes no garantiza derechos si éstas no son proporcionales ni estén alineadas con estándares internacionales de protección de derechos humanos. La experiencia reciente muestra que algunas regulaciones pueden incluso profundizar riesgos, como ocurre en El Salvador, cuya legislación fue objeto de denuncias por sus impactos negativos sobre la libertad de expresión y de prensa. Algo similar se observa en Paraguay, donde la nueva ley -aún siendo resultado de un proceso con activa participación de la sociedad civil- también fue objeto de críticas por incorporar mecanismos que pueden convertirse en obstáculos sistemáticos a la transparencia, limitando el acceso a información de interés público, particularmente en lo que respecta a la contratación pública, los funcionarios públicos y el gasto de fondos públicos.

Asimismo, una pregunta central continúa abierta: ¿hasta qué punto estos marcos normativos, muchas veces importados de modelos regulatorios externos, logran traducirse en transformaciones efectivas que respondan a los contextos y realidades de los países de América Latina?

El mercado ilegal de datos como síntoma

Una investigación de Derechos Digitales que será publicada próximamente documenta el funcionamiento de grupos y canales de Telegram que operan en distintos países de América Latina dedicados a la compra y venta ilegal de datos personales. Direcciones, números de teléfono, filiación, información de salud y otros datos sensibles circulan en estos espacios.

La existencia de esta economía ilegal de manera organizada, activa y transnacional resulta profundamente preocupante, pero también reveladora. Más que un fenómeno aislado, pone en evidencia las brechas entre los marcos de protección de datos y su aplicación práctica. La persistencia de estos mercados demuestra que los datos personales se recolectan, circulan y se monetizan mucho antes de que las personas puedan ejercer sus derechos, presentar reclamos o incluso tomar conocimiento de la situación.

Es decir, más que una falla puntual, estos mercados ilegales revelan un problema estructural. La protección de datos aún no logra operar como un límite efectivo frente a dinámicas económicas y sociales que convierten la información personal en una mercancía. Comprender esta brecha entre norma y práctica resulta clave no solo para evaluar el alcance real de estos marcos, sino también para pensar cómo fortalecerlos y hacerlos avanzar en la práctica.

Una protección construida sobre bases desiguales

Como ya se mencionó, muchas de las leyes de protección de datos en América Latina están fuertemente inspiradas en el modelo europeo, concebido a partir de trayectorias históricas, institucionales y socioeconómicas distintas a las de nuestra región. Esta traslación normativa suele darse sin una adecuación suficiente a los contextos locales, marcados por profundas desigualdades sociales, inestabilidades políticas y democráticas, y bajos niveles de capacidad institucional. Si bien la protección de datos por definición ya parte de una asimetría estructural entre quienes tratan datos personales y las personas titulares de los mismos, esta brecha se intensifica en una región donde amplios sectores de la población no tienen acceso a la alfabetización digital y de datos.

Esta situación plantea interrogantes especialmente relevantes en torno al consentimiento, una base legal central en muchas legislaciones de protección de datos. Para que el consentimiento sea verdaderamente libre e informado, las personas deben poder comprender y evaluar de manera efectiva todas las implicancias del tratamiento de sus datos. Sin embargo, es importante destacar que se trata de un concepto estructuralmente frágil en contextos atravesados por relaciones de poder, incluso más allá de la protección de datos, como ocurre en casos de violencia de género y culturas de normalización del abuso.

A estos desafíos se suman debilidades institucionales persistentes. La existencia de leyes no garantiza, por sí sola, su aplicación efectiva. En algunos países de América Latina ni siquiera se constituyeron autoridades específicas para la supervisión y aplicación de normas de protección de datos -clave para garantizar la efectividad del derecho, fiscalizar a actores públicos y privados y ofrecer mecanismos de tutela a las personas titulares de los datos-, mientras que en otros se produjeron retrocesos significativos, como la reciente disolución del INAI en México. Incluso cuando estas autoridades existen, suelen enfrentar limitaciones sustantivas en términos de independencia, que afecta su capacidad de actuar frente a vulneraciones cometidas por el propio Estado, así como restricciones de recursos humanos y presupuestarias que comprometen su funcionamiento.

Por último, otra dimensión de esta fragilidad estructural se relaciona con la seguridad de la información. Organismos públicos, y otras entidades que concentran grandes volúmenes de datos personales, suelen enfrentar dificultades recurrentes para implementar políticas integrales de seguridad, prevenir accesos indebidos y responder adecuadamente a incidentes. Las filtraciones y exposiciones masivas de datos no son episodios aislados en América Latina, sino señales de una cultura institucional que aún no incorpora la protección de datos como un eje central de su funcionamiento.

Más allá de la conmemoración

En este contexto, el 28 de enero no puede reducirse a una fecha conmemorativa ni a una celebración acrítica de avances normativos. En América Latina, una región atravesada por profundas desigualdades pero también por una larga trayectoria de resistencia, organización social, disputa política y construcción de derechos, el Día Internacional de la Protección de Datos invita a una reflexión situada sobre la distancia persistente entre los marcos legales y las condiciones reales en las que los datos personales son recolectados, tratados y expuestos.

En este sentido, recordar el origen de esta fecha que nace anclada en una tradición europea de institucionalización de derechos, resulta relevante, no para reproducir modelos, sino para dialogar críticamente con ellos y construir respuestas propias desde nuestros contextos locales. La protección de datos adquiere pleno significado cuando logra traducirse en límites efectivos al poder estatal y privado, y en garantías concretas para las personas. Por ello, debe entenderse como parte de un proyecto más amplio de justicia digital y afirmación de derechos.

Diversidad cultural bajo asedio algorítmico: folklorización, silenciamiento y colonización de nuestros patrimonios culturales

El diseño, entrenamiento y despliegue de tecnologías está transformando nuestras sociedades en los ámbitos económico, social y político. Sin embargo, este debate suele dejar en un segundo plano cómo la IA está reconfigurando los modos en que la cultura se crea, promueve, accede y experimenta, con implicaciones profundas para el ejercicio de los derechos culturales.

Estos derechos son fundamentales en tanto protegen el desarrollo y la manifestación de las identidades culturales, y garantizan que personas y comunidades puedan expresar sus cosmovisiones y los significados que atribuyen a su existencia. Esta expresión se materializa a través de formas diversas de la experiencia humana que incluyen las artes, el patrimonio cultural, las lenguas, los sistemas de conocimiento, las convicciones, las creencias religiosas, e incluso prácticas cotidianas como la alimentación y la vestimenta.

En otras publicaciones hemos analizado las implicancias de la IA para el campo de los derechos culturales, puntualmente para la creación artística y la creatividad. En esta columna, problematizaremos a la IA como producto de hegemonías culturales y, a la vez, como infraestructura tecnológica que condiciona los marcos en los que la cultura se produce, circula y valora socialmente. Partimos de la premisa de que cuando los sistemas de IA se entrenan con información cultural del Norte Global, así como bajo lógicas coloniales y extractivistas, los resultados sesgados y discriminatorios no son accidentales, sino que reflejan las dinámicas de inclusión y exclusión presentes en los datos de entrenamiento y en los procesos de diseño. Como consecuencia, las culturas, las lenguas, los conocimientos y las formas de expresión del Sur Global están constantemente ausentes o mal representadas en los contenidos asistidos o generados por esta tecnología.

Resaltaremos la importancia de proteger, hoy más que nunca, la soberanía y la autodeterminación de las comunidades de nuestra región sobre sus datos culturales. Algo imprescindible frente a la creciente expansión de sistemas de IA que tienden a producir una visión de la cultura homogénea, estandarizada y colonial. Los argumentos presentados a continuación están basados en una contribución conjunta presentada por Derechos Digitales y Asociación para el Progreso de las Comunicaciones (APC) ante el Mecanismo de expertos sobre el Derecho al Desarrollo de Naciones Unidas.

¿Cómo nos ven los grandes modelos de IA?

Diferentes investigaciones vienen señalando que los modelos de IA de las principales compañías tecnológicas no están diseñados para narrar con precisión aspectos culturales de los países del Sur Global. En algunos casos, esto se traduce en imprecisiones que reflejan desconocimiento y, en otros, en la reproducción de estereotipos e imaginarios simplificados que desdibujan la especificidad de identidades y expresiones culturales diversas.

Un claro ejemplo se observa en un estudio de la Universidad Diego Portales, en el que se generaron más de dos mil imágenes utilizando la herramienta Dall-E para analizar la percepción de los outputs de la IA sobre Chile y América Latina. Los resultados fueron desalentadores: la IA reproducía sesgos culturales, desigualdades, prejuicios, estereotipos de género y raciales. Así, al pedirle a la IA que generara imágenes a partir del prompt de «una mujer mapuche», los resultados mostraban a mujeres de cabello castaño, nariz respingada, ojos grandes y piel clara. Además, su vestimenta mezclaba elementos de diversos pueblos originarios de Latinoamérica y, en algunos casos, incluía plumas en la cabeza, algo característico de culturas indígenas norteamericanas.

Lo anterior refleja una problemática clara de la IA frente a la diversidad cultural: la mitificación, ficción y folklorización de las formas de expresión y las comunidades de regiones del Sur Global. A saber, las principales herramientas de IA amplifican ciertas estéticas y narrativas, mientras silencian y tergiversan otras, influyendo en cómo se representan las culturas en los entornos digitales y fuera de ellos. En esa medida, aquellas narrativas culturales alineadas con las normas dominantes -a menudo del Norte Global- son priorizadas, mientras que las expresiones e identidades de regiones pertenecientes al Sur Global están infrarrepresentadas o, peor aún, mal representadas.

Las implicaciones sociales y políticas de este escenario resultan preocupantes en el contexto tecno-político que vivimos. Estos sistemas -por su diseño y escala- no solo pueden profundizar jerarquías dominantes sino también generar nuevas formas de exclusión al promover la homogeneidad cultural y estética, con impactos directos en la diversidad cultural. Esto deteriora las condiciones del acceso y la transmisión de la cultura, a la vez que obstaculiza los esfuerzos de independencia, soberanía y autorrepresentación de comunidades históricamente marginalizadas, quienes continúan excluidas de las expresiones culturales dominantes.

Colonialismo digital extractivista

Otra problemática vinculada al diseño y entrenamiento de los grandes modelos de IA son las prácticas extractivistas y coloniales sobre los datos culturales de comunidades del Sur Global. En efecto, organismos internacionales de derechos humanos ya lo están advirtiendo: las empresas tecnológicas tratan los datos derivados de los patrimonios culturales como simples insumos para sus sistemas, despojándolos de los significados que les atribuyen las comunidades y sin beneficios reales para ellas.

Desde luego, los inventarios de datos que alimentan dichos sistemas rara vez se crean de forma participativa y transparente, o se rigen por marcos de derechos humanos con el fin de promover la diversidad cultural, comprenderla y protegerla. En contraste, lo que prevalece son prácticas de recopilación de datos culturales que priorizan el beneficio económico, normalmente sin consultar a las comunidades ni solicitar su consentimiento, y sin informarles sobre los objetivos de la recopilación.

Algunos estudios nombran esta postura extractivista como colonialismo digital. Se caracteriza por la construcción de un imperio algorítmico en el que los patrimonios culturales se convierten en materia prima de los sistemas de IA dominantes, extraídos de forma selectiva, descontextualizada, y sin favorecer realmente a las comunidades. Bajo esta lógica, al igual que las potencias coloniales extraen los recursos naturales de nuestras tierras, los grandes modelos de IA extraen idiomas, historias y conocimientos de las comunidades, los separan de su contexto y significado originales, y los vuelven a ofrecer de forma tergiversada para su consumo global.

Lo anterior no solo perpetúa la ya mencionada malrepresentación de las culturas y formas de expresión del Sur Global, sino que erosiona la autodeterminación cultural de las comunidades. El derecho a determinar libremente el desarrollo y destino de sus culturas fue señalado por organismos regionales de derechos humanos como un pilar fundamental para preservar las tradiciones y los sistemas de significado y conocimiento. Por tanto, la omisión y negativa de las empresas que controlan la infraestructura global de la IA frente a la capacidad de decisión de las comunidades sobre sus formas de expresión cultural, cómo, hasta qué punto y bajo qué términos se les incluye en los conjuntos de datos de entrenamiento, influye determinantemente en el ejercicio pleno de derechos fundamentales, como los culturales.

Soberanía sobre los datos culturales y el derecho a la autodeterminación cultural

Frente a este escenario, ya emergieron múltiples iniciativas de IA impulsadas por comunidades, academia y sociedad civil del Sur Global. A través de enfoques situados, disputan las lógicas dominantes del desarrollo de la IA, priorizando la programación y el diseño participativo, así como criterios de pluralidad y liderazgo de las comunidades.

Un ejemplo destacado es “AIkuaa”, una herramienta que permite transcribir a texto grabaciones de audio en guaraní, uno de los idiomas oficiales de Paraguay y una de las lenguas indígenas más habladas en América Latina. Según sus creadores, los modelos de lenguaje de gran tamaño (LLM) ampliaron la brecha digital, ya que lenguas como el guaraní se encuentran infrarrepresentadas debido a la falta de datos en su entrenamiento. Frente a esto, el objetivo es crear un repositorio de conocimiento abierto que permita que las organizaciones, la comunidad y los medios de comunicación puedan responder mejor a las audiencias que hablan guaraní. Como metodología, desarrollan “mingas de voces abiertas” -inspiradas en los espacios tradicionales de trabajo comunitario- para seleccionar y validar las frases en guaraní que enriquecen los conjuntos de datos públicos de voz.

Otro caso relevante es “AfroféminasGPT”, una herramienta diseñada para fortalecer el pensamiento afrofeminista y decolonial, con especial foco en las mujeres negras y personas racializadas. AfroféminasGPT no tiene acceso a Internet de forma deliberada, lo que implica que no incorpora información en tiempo real desde la web sino que opera a partir de una serie de textos y materiales que fueron cuidadosamente curados. Este elemento, lejos de ser una limitación técnica, constituye una elección ético-política que busca evitar la incorporación automática de narrativas dominantes y coloniales sobre las experiencias, saberes y luchas de comunidades negras y racializadas. En ese sentido, la herramienta se nutre de fuentes originales producidas desde perspectivas afrofeministas y decoloniales, con el objetivo de contrarrestar la producción de narrativas blanqueadas, tergiversadas o desinformadas.

En un escenario mundial en el que un número reducido de actores, como OpenAI, ChatGPT, Google Gemini, Meta AI y Microsoft Copilot, concentra el desarrollo de sistemas de IA que jerarquizan y visibilizan contenidos culturales, iniciativas como las anteriormente descritas adquieren una relevancia particular y permiten el acceso a contenidos culturales guiados por principios como la participación y la diversidad.

A lo largo de esta columna, hemos problematizado algunas implicaciones de la IA para la cultura, argumentando cómo las comunidades menos representadas en los sistemas de datos suelen ser también las más perjudicadas por sus decisiones y resultados estereotipados y sesgados. Este panorama pone de relieve la importancia de la soberanía sobre los datos culturales y el derecho a la autodeterminación cultural, dos principios fundamentales de herramientas contrahegemónicas de IA que fueron impulsadas por comunidades históricamente marginalizadas. Estas alternativas desafían el dominio de los gigantes tecnológicos y demuestran la urgencia de repensar y rediseñar la tecnología desde la riqueza cultural del Sur Global, asegurando que las iniciativas se construyan desde, y en respuesta a, los conocimientos y las necesidades culturales locales.

Gigantes tecnológicos en la cadena agroalimentaria: concentración corporativa y más dependencia del campesinado

Los precios de los alimentos en el mundo se incrementan día a día. Más allá de contextos específicos, como pueden ser guerras o desastres naturales, la responsabilidad de la inflación alimentaria se suele identificar fácilmente: el control monopólico de las corporaciones agroalimentarias. 

En el contexto de penetración de las Big Tech en casi todos los ámbitos de la vida, la cadena productiva de alimentos no se queda afuera, y hasta puede empeorar ese escenario. Alianzas entre gigantes del agro (Bayer, Syngenta, Cargill, por ejemplo) con gigantes del sector de tecnologías (Google, Meta, Microsoft, Amazon, entre otras) encienden alarmas y preocupaciones, especialmente entre comunidades campesinas e indígenas. Investigaciones recientes alertan sobre la profundización de su dependencia, la conversión de saberes colectivos ancestrales en mercancía y una posible exacerbación en la contaminación. En las próximas líneas, analizaremos los impactos de esta digitalización de la agricultura en los derechos campesinos.

Gigantes del agronegocio digitalizado

La concentración corporativa en el agro no es una novedad: los oligopolios ya dominan la cadena alimentaria mundial. Estas empresas controlan desde las semillas, genéticamente modificadas, hasta los llamados insumos agrícolas: agrotóxicos y fertilizantes para monocultivos, insostenibles por su impacto ambiental y deterioro de la tierra. Un sistema que genera consecuencias directas en los modos de producción campesinos, quienes sostienen la “columna vertebral” de la alimentación en nuestra región.

Esta industria ha entrado ahora en una nueva etapa. Según el nuevo reporte del Relator de la ONU sobre Derecho a la Alimentación, las empresas agroalimentarias están recurriendo cada vez más, mediante la digitalización, a las nuevas tecnologías digitales y al procesamiento de grandes cantidades de datos para desarrollar sus negocios. El documento plantea que estas innovaciones crean “nuevos desafíos en materia de derechos humanos en los sistemas alimentarios”. El último informe del Grupo ETC sobre el tema, describe al fenómeno como un “Caballo de Troya en los campos”: bajo la promesa de tecnología e innovación, esconde más control corporativo y menos autonomía para las comunidades agricultoras.

Acelerada por la pandemia del Covid-19, la digitalización del agro es promocionada por las transnacionales del sector como solución a ciertos problemas del cambio climático, y una transformación inevitable para lograr un modelo productivo más eficiente, como lo viene planteando hace años también el Banco Mundial. Con ese bombo publicitario y marketinero, florecen las startups de agricultura digitalizada (“AgriTech” en sus términos) en la región, donde Argentina y Brasil albergan casi 3/4 partes de las empresas de esta índole.

La semilla del bot en los campos

Ya no resulta extraña la presencia de drones en los cielos, sensores en los suelos, tractores guiados por GPS o productores trabajando con tablets y dispositivos donde utilizan aplicaciones y sistemas específicos para sus tareas. La digitalización en la agricultura implica el uso generalizado de herramientas como la IA, la ciencia de datos y la biotecnología para mapear tierras, almacenar información y crear nuevos sistemas digitales para gestionar los modos de producción rural.

La alianza entre Big Tech y corporaciones monopólicas de la agroindustria está promoviendo una datificación del conocimiento vinculado a agricultura y del comportamiento de los ecosistemas y bienes naturales comunes, como nunca antes. Se trata de un extractivismo masivo de datos que, además, en muchos casos están vinculados con historias y tradiciones comunitarias y colectivas. Quienes tengan mayor capacidad de recolectarlos y controlarlos, serán quienes puedan modelar los sistemas alimentarios y las políticas agrícolas para su propio beneficio, un mercado de negocios que no considera a la alimentación como un derecho humano y menos reconoce la existencia de derechos campesinos. No se trata de cuestionar la introducción de nuevas tecnologías en abstracto, sino más bien de preguntarse al servicio de quién están, quiénes las controlan, qué modelos productivos profundizan y qué tratamiento de datos hacen.

Repasemos algunos de los principales riesgos de este proceso. Suscribirse a un modo de producción gestionado a través de una plataforma digital implica para las y los agricultores una dependencia aún mayor: se vuelve un circuito en el cual desde la toma de decisión de qué semilla plantar hasta el sistema de pagos y cobros, todo debe pasar por servicios virtuales. El Relator de la ONU lo plantea con claridad: “En estas nuevas explotaciones digitales, los agricultores dejan de actuar según su libre determinación y en su lugar pasan a ser objetos de cosecha”. Como en la mayoría de los trabajos regulados por plataformas, no hay reglas claras y transparentes sobre el uso de datos ni políticas de privacidad sólidas, lo cual no sólo da lugar a la explotación de esos datos en términos mercantiles, sino que también habilita nuevas prácticas de control, que algunos grupos denominan como “agricultura de la vigilancia”. Considerando que América Latina es una de las regiones más hostiles para defensores y defensoras ambientales, esta forma de espionaje resulta preocupante.

Además, en una región con una gran brecha digital, donde muchos de nuestros países enfrentan las tarifas más elevadas de internet móvil del mundo, el acceso a la red ocasiona nuevos gastos a las comunidades, lo cual empeora sus condiciones de vida en los territorios. Más aún si consideramos los altos costos de la maquinaria inteligente. Sumado a esto, y siguiendo las conclusiones del informe de ETC, se estima que millones de puestos de trabajo en el campo serán sustituídos por drones y robots, sin planificar nuevas fuentes laborales para el sector. En algunos países, incluso se les prohíbe reparar su maquinaria porque contiene software patentado. Por último, como ya venimos planteando en Derechos Digitales, la enorme demanda de recursos naturales, como agua y energía, para alimentar toda la infraestructura digital necesaria para estos emprendimientos, es posible que traiga mayores niveles de contaminación y profundización de la crisis climática.

El big data en la agricultura se convierte así en una herramienta de dependencia, vigilancia y control que pone en riesgo la autonomía campesina y la biodiversidad agrícola.

¡A desalambrar las tecnologías!

“El mundo no necesita ni más datos ni más alimentos, sino que las personas tengan más autoridad y control sobre los datos en los sistemas alimentarios”, advierte la ONU. Como se dijo unos párrafos más arriba, no estamos poniendo en discusión la incorporación de las tecnologías digitales, sino más bien qué uso se les da y los modelos que sustentan. Las comunidades campesinas pueden hacer una utilización favorable de las herramientas tecnológicas, que aporten al bien común y no a las ganancias concentradas en unas pocas manos. ¡Y muchas ya lo vienen experimentando!

Las organizaciones que planifican integralmente modelos agroalimentarios alternativos desde los territorios, piensan en cada etapa del circuito: desde que el alimento se siembra (sus insumos, la fuerza de trabajo, etc) hasta que llega al plato de comida de las personas en sus casas (el comercio, traslados, etc). Existe una idea-frase bastante utilizada, que sintetiza muy bien esta propuesta: “Del campo a la mesa”. Por ello, las experiencias de colectivos vinculados al trabajo rural, a la defensa del ambiente, a comunidades indígenas, y a los derechos digitales, pueden abarcar distintos eslabones de este modo de producción, basado en la nociones de Agroecología y Soberanía Alimentaria.

El proyecto Territorios Libres, Tecnologías Libres, impulsado por Intervozes junto a comunidades quilombolas y rurales de Brasil, fue una iniciativa que marcó un interesante precedente en lo que respecta a analizar los usos y concepciones de las Tecnologías de la Información y las Comunicaciones (TIC) en territorios campesinos. A la vez, existe la Red de Evaluación Social de Tecnologías en América Latina (Red TECLA) que abarca algunos proyectos dedicados a la agricultura. La Herramienta de monitoreo de los pueblos para el derecho a la alimentación, proyecto de la Red Mundial por el Derecho a la Alimentación y a la Nutrición, sirve de guía a las comunidades, los movimientos, la sociedad civil, el mundo académico e incluso el funcionariado público en el monitoreo del derecho humano a una alimentación y nutrición adecuadas. Además, la Asamblea de Innovaciones de Base para la Agroecología (GIAA en inglés) es una articulación global que está fortaleciendo experiencias de tecnologías de base aplicadas a la agroecología.

Si pensamos en la cadena productiva, hay desarrollos vinculados directamente con los momentos de la siembra y los cultivos, como por ejemplo la aplicación Lunagro (FIAN Colombia), un calendario agropecuario basado en la interpretación del ciclo lunar. Además, La Mierda de Vaca brinda cursos presenciales y a distancia sobre cómo llevar adelante una agricultura orgánica.

Tanto el aislamiento y distanciamiento preventivo que impuso la pandemia del Covid-19, así como también los debates que introdujo respecto a la alimentación saludable, llevaron a un incremento exponencial en la demanda de bolsones de verduras orgánicas o agroecológicas por parte de la ciudadanía. En Argentina, Más Cerca es Más Justo, y en Brasil, Alimento de Origem, son ejemplos de las decenas de plataformas pertenecientes a redes de comercio justo existentes en América Latina, las cuales buscan nuevas formas de intercambio, evitando intermediarios y sobreprecios, y conectando más estrechamente a productores con consumidores.

Para poder aprovechar las imágenes satelitales en beneficio de la producción local y la conservación de bienes comunes naturales, muchas organizaciones trabajan con Organic Maps, una aplicación GPS y de mapas sin conexión centrada en la privacidad, desarrollada por la comunidad de código abierto. También, existen numerosos proyectos que unen activismo, sector académico y comunidades, como por ejemplo “Gobernanza Hídrica con el pueblo originario Yaqui en México”, analizado en nuestro Glimpse 2024, ideado para desarrollar estrategias efectivas de gestión comunitaria del agua.

Por último, vale destacar la importancia de sitios de información y debate que impulsan la agenda de estos movimientos y favorecen la divulgación de ideas vinculadas con modelos alimentarios alternativos. Entre ellos, podemos mencionar a Agro é Fogo, quienes difunden  “el rastro del fuego del agronegocio global”; BiodiversidadLA, desarrollado por la  Coordinadora Latinoamericana de Organizaciones del Campo – Vía Campesina; y Agencia Tierra Viva, impulsada por la Mesa Agroalimentaria Argentina, entre muchas otras iniciativas regionales.

Soberanía alimentaria y digital para vivir mejor

Los desafíos que viene planteando la digitalización en el campo son variados y complejos. Mientras se impulsan tecnologías digitales desde la sociedad civil y el Estado para el beneficio de las comunidades y los territorios, es fundamental generar marcos normativos nacionales, regionales y globales, que puedan proteger la privacidad y los datos en manos de las corporaciones que están desarrollando la datificación en el sector rural. El Estado de Brasil diseñó hace algunos años el Cadastro Ambiental Rural (CAR), como una herramienta que podría ser útil para monitorear el ambiente y los territorios, lo que dio lugar a un debate más que pertinente desde Data Privacy en relación a los datos personales de integrantes de comunidades. Incluso, algunos sectores vienen planteando como alternativa tratar los datos del sistema alimentario como un bien público para abordar esta problemática. Necesitamos que se reconozcan y protejan los saberes tradicionales del campesinado, como así también sus derechos colectivos, para potenciar herramientas tecnologías que respeten estas particularidades.

La complejidad del tema y los gigantes involucrados nos obliga a afinar los diagnósticos y, sobre todo, propiciar articulaciones entre el movimiento de los derechos digitales y las organizaciones campesinas e indígenas para dar respuestas integrales. Por ejemplo, unos años atrás, IT for Change publicó el reporte “Las oportunidades del ecosistema digital para la agricultura india” como resultado de un ciclo de encuentros de debate e intercambio entre diversos actores implicados en estos asuntos.

Podemos discutir la digitalización, la datificación, cómo se obtienen los datos, dónde se alojan y quiénes tienen control sobre ellos, pero si no abordamos las preguntas radicales sobre nuestros modos de vida y de alimentación, es probable que nos perdamos en el camino. ¿Para qué necesitamos tecnologías digitales en los sistemas agroalimentarios? ¿Qué papel tienen las comunidades campesinas e indígenas en la definición de estas nuevas herramientas a incorporar en los modos de producción? ¿Qué modelos priorizan la soberanía alimentaria y digital, y los derechos campesinos y de comunidades indígenas en su autodeterminación?

Lo que está en juego no es solo el acceso a nuevas tecnologías, y el resguardo de los datos, sino, principalmente, la soberanía alimentaria de los pueblos y el derecho humano a decidir cómo producir y consumir nuestros alimentos, de manera justa y sustentable.

Bots y elecciones: los nuevos influencers automatizados

A fines de julio, tras varias semanas cayendo en las encuestas, Evelyn Matthei, candidata de la derecha tradicional chilena agrupada en la coalición Chile Vamos, acusó al candidato de la derecha más extrema José Kast, del Partido Republicano, por la puesta en marcha de una campaña de desinformación en su contra a través de redes sociales. La información que se hizo circular ponía en duda la salud mental de la candidata de Chile Vamos y, por ende, su capacidad para gobernar. El hecho generó un gran revuelo, pues la coalición de Matthei y el partido de Kast se encontraban en plenas negociaciones para conformar una lista parlamentaria única.

En ese contexto, un equipo periodístico del canal Chilevisión realizó un reportaje donde investigó algunas cuentas de redes sociales que reiteradamente atacaban a las candidaturas tanto de Matthei como de Jeannette Jara, candidata única de la centro izquierda que representa al oficialismo. El informe periodístico se centró en el comportamiento de cuentas anónimas que, desde hace algunos años, vienen publicando noticias falsas en contra del actual gobierno y de las candidatas. La investigación logró dar con el nombre de dos personas que estarían detrás de las cuentas investigadas, ambas ligadas al Partido Republicano.

Otro reportaje, del medio digital Reportea junto a Vergara 240, reveló más nexos: la Asociación de Administradoras de Fondos de Pensiones (AAFP) financió secretamente a la fundación “Ciudadanos en Acción”, la cual es dirigida por Bernardo Fontaine, actual integrante del comando de Kast. La investigación develó que la AAFP costea a la fundación desde 2019, a través de la agencia Artool, con el fin de articular campañas en contra de proyectos de reformas previsionales y de determinadas candidaturas presidenciales. La estrategia consistía en generar contenido digital en base a las directrices de la AAFP y con pagos en distintas direcciones para aumentar la viralización. Por un lado, a través de publicidad paga en Meta (para Facebook e Intagram) con un monto que supera los 200 millones de pesos -USD 215.000-. Además, dinero entregado a influencers para producir mensajes en contra de las reformas. Y, por otro lado, notas pagas en medios digitales, y masificación de contenidos del medio a través de una extensa red de bots, como parte del trato. Un elemento que resulta llamativo es que las personas financiadas para defender los intereses de la Asociación, tanto a través de cuentas públicas como anónimas, son las mimas denunciadas en el reportaje de Chilevisión de atacar a las candidatas presidenciales.

Estas revelaciones resultan preocupantes para los valores democráticos, no sólo en función de poder garantizar elecciones libres y transparentes, sino también desde una perspectiva de género. De las ocho candidaturas para esta votación, las únicas que sufrieron ataques cibernéticos son “casualmente” Matthei y Jara, las dos candidatas mujeres, reflejando un claro ejemplo de violencia política de género.

En el transcurso de estos meses, se estuvo hablando del uso de “bots” para describir el comportamiento mediante el cual cuentas anónimas se coordinaban para generar campañas de desinformación. Pasado un tiempo -y junto al abordaje de más medios-, se comenzó a diversificar el vocabulario, incluyendo los términos “troll” y “hater” para explicar lo que las investigaciones han develado. El objetivo de esta columna es aproximarnos a entender el funcionamiento de los bots, pero para ello primero haremos la distinción entre estos términos.

¿Qué son los trolls y los bots?

Estos conceptos ya forman parte del lenguaje propio de internet, por ello originalmente aparecen en inglés. Se aplican a redes sociales, foros y, más en general, a cualquier tipo de plataforma digital que permita la interacción entre personas usuarias, en especial si esa interacción puede dirigirse también a figuras públicas.

El término “Trolls”, originario de la mitología escandinava, se utiliza para referirse a cuentas anónimas que generalmente publican mensajes provocadores, desinformaciones o discursos de odio con la intención de perjudicar a ciertas personas o grupos, generando daños en su imagen pública. Su comportamiento es deliberado: son conscientes de que lo publicado es falso o abusivo.

Por su parte, “Bot” es un término coloquial que resulta de la abreviación de la palabra “robot”. Los bots son cuentas que funcionan de forma automatizada, mediante programación. Su accionar buscar producir mensajes o reacciones, incluso generar mayor volumen en la difusión de un mensaje, mediante interacciones que simulan ser humanas.

Los bots y su relación con internet, un poco de historia

Los bots con parte de la historia y de la arquitectura de internet: los primeros de los que se tiene registro datan de 1988. Ese año se creó el protocolo de mensajería de texto “Internet Relay Chat” (IRC), el cual fue muy popular durante sus primeras décadas y aún sigue vigente en nuestros días. Los bots que funcionaban bajo IRC consistían en programas computacionales que automatizaban algunas tareas dentro del sistema de mensajería.

A medida que internet crecía y diversificaba sus servicios, los bots se fueron adaptando a cada uno de ellos. Uno de los usos más relevantes que han tenido consiste en formar parte de los algoritmos de búsqueda a través de bots que indexan sitios web. Es así como, en 1994, se crea el primer indexador de sitios web que, un año más tarde, sería usado por AOL. Ya en 1996, una incipiente startup que hoy conocemos como Google lanzaba su bot BackRub para indexar el contenido de internet. Si bien los bots tienen un sinfín de utilidades legítimas, también se usaron para otros fines menos amables. A lo largo de la historia de internet, se han registrado numerosos ataques, de distinta índole y envergadura, a través de mecanismos como pueden ser la “denegación de servicio” o el “ransomware”.

En el mundo de las redes sociales, los bots son programas informáticos diseñados para simular interacciones humanas de forma automática. En la actualidad, es muy recurrente que las empresas generen canales de comunicación vía mensajería para responder a preguntas frecuentes -con mayor o menor éxito- mediante el uso de estos dispositivos.

En contextos donde proliferan las narrativas basadas en discursos de odio y desinformación, los bots son la herramienta predilecta para amplificar el alcance de esos mensajes. A través de la republicación de posteos o la interacción de los “me gusta”, pueden lograr la viralización de contenidos falsos o engañosos. Un ejemplo paradigmático en nuestra región fue la campaña de desinformación masiva que llevaron adelante los opositores de Evo Morales en 2019 para lavar la imagen del golpe de Estado y sumar simpatizantes. Hay evidencias que indicaron la existencia de una maniobra coordinada en redes sociales -decenas de miles de cuentas en Twitter creadas en pocas horas- para influir en la agenda pública global. El objetivo era imponer la idea de que el golpe no había sido tal y que el expresidente Morales estaba vinculado al narcotráfico y había propiciado un fraude electoral.    

Pescando bots: ¿cómo se pueden identificar interacciones artificiales?

Si bien las interacciones de estas cuentas automatizadas pueden parecer reales, existen algunos detalles que nos pueden ayudar a identificar que son artificiales. Vamos a repasar estos elementos.

  • Cuentas falsas: sus fotos de perfil no corresponden a una persona, los nombres de usuario parecen serializados con números largos luego de algún nombre o palabra.
  • Antigüedad de las cuentas: en muchos casos son cuentas que no poseen muchos años, o bien fueron creadas en un período acotado de tiempo.
  • Tendencias no orgánicas: cuando un contenido se viraliza y se convierte en tendencia de forma natural, sucede porque muchas personas lo comparten mediante una interacción distribuida entre numerosas cuentas, de forma no jerárquica. En el caso de tendencias generadas por bots, se puede notar que existe una, o un par de cuentas centrales, desde las que se cuelgan muchas otras para compartir, lo que demuestra un comportamiento mucho más jerárquico. En general identificarlo requiere de un análisis técnico pues es complejo notarlo a simple vista.
  • Comportamiento anormal: otro factor común es que muchas de estas cuentas solo comparten contenido de ciertos “usuarios” de forma reiterada. También es posible notar que al publicar comentarios, estos suelen ser inentendibles o confusos.

Los algoritmos generativos y los nuevos desafíos

Con la irrupción del uso masivo de algoritmos generativos, también llamados “Inteligencia Artificial Generativa” (GenAI), tales como ChatGPT, Gemini o DeepSeek, surgen nuevos desafíos a la hora de determinar cuándo es un programa el que está interactuando.

En marzo de este año, un estudio realizado por la Universidad de California evidenció que el modelo GPT-4.5 logró aprobar con 73% de efectividad la prueba de Turing. Esta prueba consiste esencialmente en que personas interactúan, a través de mensajería, con otras personas y con máquinas con el objetivo de determinar cuál es cual. Si la persona no logra distinguir entre la máquina y la persona, entonces se considera que el programa o la máquina pasó la evaluación.

El avance de los modelos nos propone nuevos retos al momento de reconocer cuándo un bot es el que está interactuando en las redes sociales, por lo que la tarea de generar análisis certeros se vuelve aún más compleja. Es importante considerar que el estado de desarrollo de los algoritmos generativos, no solo permite producir textos sino que también ya genera o manipula imágenes, audios y videos. Dicha gama de recursos agrega otro grado más de complejidad en la detección.

Desde el caso Cambridge Analytica, muchas organizaciones pusieron el foco en el efecto de las redes sociales sobre procesos eleccionarios. De la misma forma, podemos pensar en la influencia que tienen sobre temas sensibles de las agendas nacionales y regionales, y cómo a través de los bots determinados grupospueden lograr invisibilizarlos o atacarlos para obtener réditos en sus posturas.

Las redes sociales son un entorno complejo, por lo que encontrar una solución real al problema de los bots y la desinformación también puede resultar dificultoso. Aún así, deben existir medidas que puedan ayudar a mitigar su impacto: regulaciones efectivas que, sin la necesidad de una censura y acorde a los estándares de derechos humanos, puedan generar transparencia sobre las acciones que se deben ejercer ante las plataformas. Asimismo, es imprescindible que las corporaciones dueñas de las redes sociales tengan la voluntad de abrir canales para la colaboración con los entes encargados de velar por el cumplimiento de esas regulaciones. Desde Derechos Digitales, esperamos que “las plataformas digitales se preparen, teniendo una amplia colaboración con las autoridades, pero también con una serie de acciones proactivas que promuevan la transparencia de sus actos ante la desinformación”, tal como lo mencionamos en una columna, en virtud de las elecciones mexicanas de 2024.

Es de suma importancia que todos los actores interesados -legisladores, empresas tecnológicas, sociedad civil y academia- puedan trabajar para la construcción de ambientes eleccionarios democráticos, justos y participativos. Procesos electorales con mecanismos claros para combatir la desinformación, que no solo consideren el marco regulatorio, sino que también apunten a otras políticas como el fomento de campañas educativas que brinden a la población habilidades y herramientas para la detección de noticias falsas.

Miente, miente, que algo(ritmo) quedará

Se acerca una nueva elección presidencial y parlamentaria altamente polarizada en la región, esta vez en Chile. En respuesta a temores sobre rumores y noticias falsas, el gobierno y el Servicio Electoral lanzaron la campaña «Chile Vota Informado 2025», pidiendo evitar «que la desinformación se propague» y reiterando, a la vez, el lema «aguanta, chequea y comparte» que el gobierno chileno ha promocionado por más de un año y difundido hasta en forma de cumbia.

Como hemos declarado, la mentira política dista de ser una anomalía reciente, siendo más bien una táctica arraigada en la historia de la propaganda. Pero la preocupación tiene sentido. Como advierte el informe de la Relatoría Especial de la ONU sobre Libertad de Expresión, «cuando la libertad de expresión es suprimida, los procesos electorales están en peligro». Esta advertencia llega en un momento crítico para la región, donde múltiples países se enfrentan a ciclos electorales en medio de una creciente polarización y desconfianza institucional, y donde la capacidad de identificar la falta de autenticidad es necesaria para interactuar en el debate público. Sin embargo, el enfoque en la conducta individual desplaza parte de la responsabilidad hacia la ciudadanía, mientras las condiciones estructurales que producen desinformación permanecen intactas.

Innovando para mentir

Las narrativas de desinformación muestran notables continuidades a lo largo del tiempo. La acusación de fraude electoral aparece cíclicamente, como quedó demostrado tras las elecciones legislativas de 2022 en Colombia, donde las narrativas de fraude se difundieron ampliamente sin pruebas. Paralelamente, en las presidenciales de 2023 de Argentina circularon frases inventadas atribuidas a candidatos, mientras en los comicios de Perú del 2021 Convoca verificó imágenes falsas de supuestos conteos rápidos. Bolivia experimentó durante sus elecciones de 2025 una campaña sucia que tomó las redes sociales, con plataformas que parecían relajar sus políticas de moderación de contenidos en el contexto boliviano.

Esta persistencia de métodos más tradicionales contrasta con la innovación en herramientas. Una realidad presente hace más de una década: el crecimiento de la sofisticación en el uso de datos para la microsegmentación de destinatarias. El fin es llegar con más precisión a votantes a través de mensajes dirigidos a sus puntos de sensibilidad más probables, amparados en vacíos regulatorios o institucionales frente al uso de datos personales. Los antecedentes en herramientas de análisis de datos han sido ofrecidos mostrando que sería posible mapear preferencias políticas mediante minería de datos. Así, la datificación de la sociedad abre camino para formas más avanzadas de influencia electoral.

A eso se suma el uso de herramientas más complejas, como destacamos, junto a otras organizaciones, en nuestra contribución al informe de la Relatora Especial de las Naciones Unidas sobre la Libertad de Expresión y Opinión, Irene Khan. Las campañas políticas ahora enfrentan el desafío de contener mensajes sintéticos que pueden difamar candidaturas o atribuirles declaraciones nunca realizadas. Brasil vivió en 2024 una campaña municipal marcada por deepfakes, lo que llevó al Tribunal Superior Electoral a aprobar una resolución que prohíbe estos contenidos sintéticos y exige etiquetar el uso de inteligencia artificial en la propaganda. Mientras tanto, en Chile es parte de la propaganda diaria de una candidatura y sin mayores consecuencias.

La industria de la desinformación ha perfeccionado sus métodos, evolucionando desde la microsegmentación de audiencias hacia la producción de deepfakes. Esta sofisticación genera ahora una asimetría aún mayor entre quienes pueden producir desinformación convincente y quienes intentan verificarla, además de poner un manto de duda sobre el debate público.

Respuestas regulatorias: entre la prevención y la censura

Reconociendo -y hasta exagerando- los riesgos de la desinformación y fenómenos asociados a ella, en la región latinoamericana tanto los Estados como las plataformas digitales han ensayado diversas respuestas, con resultados dispares. En Chile se firmó en 2025 un compromiso de integridad electoral entre la autoridad electoral y actores privados y de la sociedad civil, que establece principios de defensa de la libertad de expresión y prevención del contenido falso. En Brasil, como fue comentado más arriba, el máximo tribunal con competencia electoral aprobó sanciones contra quienes elaboren o difundan contenido manipulado con IA. El panorama regulatorio se complejiza rápidamente y nuevas iniciativas normativas aparecen, aún si no llegan a convertirse en reglas.

Sin embargo, estas propuestas enfrentan dilemas fundamentales, como los riesgos de censura al utilizar nuevas herramientas supuestamente contrarias a la mentira. En contextos con una frágil independencia judicial, las leyes ambiguas contra «fake news» podrían usarse para silenciar voces disidentes, un riesgo que se extiende con la moderación automatizada. La Electronic Frontier Foundation (EFF) advirtió que las noticias falsas ofrecen a los poderes consolidados una oportunidad para censurar oponentes.

Ante estos desafíos, las respuestas puramente tecnológicas o punitivas muestran limitaciones conocidas: peligro de censura a nivel de regulación o de implementación u observancia, transferencia de responsabilidad hacia las plataformas digitales que las obligue a moderar más, y la eventual mala definición de lo que se intenta proteger o sancionar. La Comisión contra la Desinformación chilena entregó 72 recomendaciones que reconocen la naturaleza multifacética del problema, proponiendo soluciones que van desde la educación mediática hasta la transparencia algorítmica y el fortalecimiento del ecosistema informativo, bajo un mandato que se restringía a redes digitales. Las soluciones adecuadas pasan por fortalecer las instituciones democráticas, garantizar la independencia de órganos electorales, apoyar los medios comunitarios y promover la alfabetización mediática e informativa, lo que supera por mucho lo que ocurre en internet. Es decir, la realidad obliga a observar el problema más ampliamente.

Hacia una resiliencia democrática

La desinformación en contextos electorales manifiesta problemas más grandes de la sociedad, como falta de transparencia, concentración mediática, desigualdad económica y debilidad institucional. Esto merece cuestionar el relato que atribuye el problema principalmente a las redes sociales, y que culpa a la ciudadanía por compartir noticias falsas como quien culpa a las personas enfermas por su fiebre. No se trata de una batalla técnica por la verdad, sino de un desafío político y social por el espacio cívico que requiere respuestas integrales. Las campañas de sensibilización serán insuficientes si no se enmarcan en procesos más amplios de fortalecimiento democrático.

De cara a las elecciones más próximas en Chile y las del próximo año en la región (que incluyen, entre otras, presidenciales en Costa Rica, Perú, Colombia y Brasil), es urgente integrar una estrategia de resiliencia democrática. Esto requiere tomar con seriedad recomendaciones comunes: transparencia en propaganda política y en el uso de algoritmos; educación mediática e informativa desde las escuelas hasta espacios comunitarios; pluralismo informativo que incluya apoyo financiero a medios independientes; regulación proporcional que proteja la libertad de expresión; y participación ciudadana que promueva colaboración entre autoridades, academia, sociedad civil y plataformas en la formulación, implementación y evaluación de reglas. También, reforzar la protección efectiva de los datos personales frente a la recolección masiva, el uso en algoritmos de recomendación y la capacidad creciente de crear y distribuir contenidos dirigidos a percibidas vulnerabilidades en la sociedad.

La resiliencia democrática se construye también desde abajo. Las instituciones pueden fallar, pero las redes ciudadanas de verificación, la desatención a medios, programas e influencers dedicados a narrativas antiderechos, permite construir y reforzar las defensas de la sociedad. Campañas como «Chile Vota Informado» serán útiles si se enmarcan en procesos más amplios de fortalecimiento democrático. De lo contrario, se quedará en un eslogan bien intencionado que no aborda las razones profundas por las que la ciudadanía participa en la circulación de falsedades.

El negocio del iris: Colombia marca un precedente regional al frenar las operaciones de World Foundation y Tools for Humanity

El pasado 3 de octubre, la Superintendencia de Industria y Comercio (SIC) de Colombia, autoridad en materia de protección de datos personales, ordenó el cierre inmediato y definitivo de las operaciones de World Foundation y Tools for Humanity, por incumplir la legislación nacional de protección de datos. Además, les impuso la obligación de eliminar toda la información personal sensible bajo su custodia.

World Foundation, organización sin fines de lucro, administra el sistema de verificación de identidad basado en el iris conocido como World ID. Tools for Humanity, su socio operativo y compañía privada, es la creadora del Orbe -el dispositivo esférico de escaneo ocular-, además de la billetera digital World App y la criptomoneda Worldcoin (WLD).

Estas tecnologías, impulsadas por actores -entre ellos Sam Altman, CEO de OpenAI– con intereses que van desde lo social hasta lo comercial, convergen en una misma propuesta: construir una “prueba de humanidad” segura y anónima, un sistema capaz de distinguir a las personas reales de los bots en la era de la Inteligencia Artificial Generativa (GenAI), también promovida por el propio Altman.

En 2024, World -nombre que agrupa tanto a la fundación como a su rama con fines de lucro- inició operaciones en Colombia, llegando a 17 ciudades. Su desembarco se enmarcó en un intenso lobby ante la SIC, en un intento por demostrar la compatibilidad de su modelo de negocio con la legislación local.

Sin embargo, la llamada “prueba de humanidad” ha estado lejos de ser un modelo de negocio pacífico. Autoridades de protección de datos en Argentina, Alemania, Corea del Sur, España, Francia, Filipinas, Hong Kong, Kenia, Portugal, Tailandia, Italia, Perú y más recientemente Chile y Brasil, han alertado, investigado o suspendido total o parcialmente las actividades de ambas organizaciones. Las decisiones se tomaron principalmente por deficiencias en la información proporcionada sobre las condiciones del tratamiento de datos biométricos; recolección de datos sensibles de menores de edad sin el consentimiento de sus familias o tutores; e imposibilidad para que las personas titulares retiren o revoquen su consentimiento una vez otorgado.

El registro en el Orbe: un diseño técnico con profundas implicaciones jurídicas

El proceso de entrega de datos personales a World no ocurre en un solo momento ni bajo un único responsable: los datos atraviesan distintas etapas tecnológicas y jurídicas a lo largo de su ciclo de vida.

Primero, durante el registro inicial en la billetera digital (World App), se solicitan datos personales diversos: nombre, teléfono, correo electrónico, cuenta bancaria y otros metadatos asociados al dispositivo móvil. Información que es tratada por Tools for Humanity.

El registro permite localizar el Orbe más cercano y programar una cita para el escaneo. En esta fase, el dispositivo captura el iris y el rostro de la persona. La obtención masiva de este tipo de datos es el ingrediente clave para saciar el apetito de entrenamiento del algoritmo de World, que determina si uno es o no una persona humana. De esta información personal es responsable World Foundation.

Vale la pena añadir dos cuestiones en esta fase. Por una parte, que el escaneo del iris se transforma en menos de 10 segundos: la imagen del iris y rostro se convierte en un código hash cifrado, basado en un protocolo de blockchain, o sea, en una larga hilera de números y letras. Esto es así para dar mayor seguridad y privacidad a los datos, según World. Y por otra, que el hash cifrado se fragmenta y almacena entre terceros, es decir, se descentraliza su custodia con el objetivo de dar mayor seguridad y confianza, pues evita la concentración de información en un único actor.

Cuando el registro es exitoso, la persona usuaria recibe en su billetera un depósito de 10 WLD, equivalentes a aproximadamente 50 USD (unos 200 mil pesos colombianos). De este proceso se desprenden varios puntos críticos:

  • En la descarga y registro en World App, persiste el tratamiento de datos personales. Estos datos no son anonimizados, por lo que el titular conserva el ejercicio de sus derechos de actualización, rectificación, cancelación y oposición (ARCO).
  • En el Orbe, los datos personales dejan de serlo en cuestión de segundos. Por la velocidad con que acontece dicho proceso, World ha reconocido ante otras autoridades –como la de Brasil– que resulta técnicamente imposible retractar el consentimiento después del escaneo del iris.
  • Si la imagen del iris es efectivamente anonimizada, los responsables de su tratamiento no estarían, en principio, sujetos a la legislación de protección de datos, pues los datos dejarían de identificar o hacer identificable a su titular. Eso sí, se debe probar que ese proceso es irreversible, efectivo y permanente.
  • El cifrado, que protege la información de accesos no autorizados, es un componente que debe permear todo el ciclo de vida del dato, sea personal o no.

El análisis de la SIC: políticas de tratamiento y consentimiento

La SIC evaluó la compatibilidad de las políticas de tratamiento de datos de World App y World ID con la Ley 1581 de 2012, y llegó a estas conclusiones: no están disponibles en su mayoría en idioma español, no identifican un responsable del tratamiento en Colombia, no ofrecen mecanismos claros de consulta o queja, no especifican las finalidades del tratamiento ni los tipos de datos recogidos, y no contemplan procedimientos para ejercer los derechos ARCO. En el proceso ante la SIC emergieron dudas sobre la anonimización y el cifrado de los datos extraídos por el Orbe.

World no aclaró ante la autoridad las medidas de seguridad que aplica en esa tecnología de reconocimiento facial, donde las imágenes de los iris estarían más expuestas, ni ofreció pruebas claras de que el anonimato sea irreversible y efectivo, o que el cifrado se mantenga en toda el ciclo de vida del dato.

De hecho, un reporte de auditoría de 2024 del protocolo de cifrado de World, sugirió fallas críticas de seguridad que, según la SIC, no habrían sido solucionadas.

Ahora bien, si realmente se trata de información anonimizada, ¿cómo cambia esto las obligaciones legales de World Foundation y Tools for Humanity? Y, ¿qué deberes recaen sobre los terceros en quienes se descentraliza el almacenamiento de datos? Incluso antes de la anonimización, ¿cómo podría una persona titular ejercer el retracto o cancelación de su consentimiento una vez registrado en el Orbe? Y, ¿cómo obligar a World a garantizar ese derecho?

La SIC, por su parte, sostuvo que el código hash permitiría identificar o hacer identificable al titular del dato. De ser cierta esta afirmación, el proyecto World estaría poniendo en muy grave peligro el tratamiento de datos biométricos y fallando a la promesa detrás de su modelo de negocio.

También, la entidad determinó que las y los usuarios no otorgaron un consentimiento informado ni libre, no solo en razón a los defectos de las políticas de tratamiento de datos del proyecto World, sino a vicios en la libertad de acción de las personas: “el consentimiento que otorga el titular debe responder únicamente a su propia voluntad y no a la entrega de cualquier tipo de contraprestación que pueda condicionarlo” (p. 30).

Sobre este punto, vale la pena señalar que la autoridad brasileña de datos (ANPD) suspendió en ese país recientemente la entrega de criptomonedas por el escaneo del iris. En ese caso, World se defendió al calificar la entrega del WLD como un incentivo, no como una contraprestación. Una diferencia conceptual que la ANPD desvirtuó al señalar que, tratándose de personas vulnerables, los incentivos se convierten en salvavidas que terminan explotando los datos de quienes no tienen otra alternativa económica.

Ese enfoque habría enriquecido la decisión de la SIC, pues no deja de ser cierto que el despliegue de World se concentra mayoritariamente en países de rentas media y baja, y que sin ese “incentivo” no habría obtenido para enero de 2025 el iris de más de 10 millones de personas.

La estrategia de World: disputar lo procesal y fingir demencia

La respuesta de World Foundation y Tools for Humanity fue predecible: alegar violaciones al debido proceso, o sea, supuestos errores en la notificación de las decisiones de la autoridad que fueron remitidas a World Foundation, cuando la encargada de responder era Tools for Humanity, o viceversa. En este año y medio, sí se dieron por enteradas de cada respuesta y solicitud de la autoridad, como se lee en el proceso.

Frente a los requerimientos de la SIC sobre la legalidad de sus políticas de tratamiento, su defensa fue igualmente débil: afirmaron, entre otros, que la ley no los obligaba a detallar ciertos aspectos, como las medidas de seguridad aplicadas al tratamiento de los datos, o que hacerlo resultaba demasiado costoso, como designar un responsable local en Colombia. Argumentos que se derrumbaron por su propio peso, ¿a qué argumentos habrían acudido en 2024 en las acciones de lobby donde buscaban mostrar su adherencia a la norma local?

Las preguntas que quedan abiertas

Las incógnitas tras la decisión de la SIC son numerosas. Ambas organizaciones deben eliminar todos los datos personales obtenidos a través de World App y del Orbe, pero ¿cómo garantizarán que la información -incluso la que ha sido anonimizada- haya sido completamente retirada de los conjuntos de datos utilizados para entrenar a sus algoritmos? Y, ¿cómo se comprometerán a que no queden registros del código hash en manos de los “terceros de confianza”?

El caso de World en Colombia revela algunas de las grietas en el negocio de la “prueba de humanidad” que promete protegernos de los bots pero que termina, paradójicamente, enfrentándonos a un dilema más complejo: quién controla, con qué fines y bajo qué garantías, la prueba de que somos humanos.

Como quiera que sea, la decisión de la SIC marca un precedente relevante para América Latina pues nos remite de nuevo a preguntas que dejan de ser tecnológicas y se vuelven profundamente políticas: ¿cuál es el precio estamos dispuestos a pagar por demostrar que existimos? Y sobre todo, ¿cuál es la responsabilidad ética y jurídica de quienes generan “soluciones” tecnológicas inescrutables para problemas que en parte han contribuido en crear?

Derechos Digitales lanza “Consejos para el resguardo digital en protestas”, una guía para la protección de la ciudadanía en Ecuador y Perú

En las últimas semanas, Ecuador y Perú vienen atravesando contextos nacionales de fuerte conmoción social y política. Distintos organismos de Derechos Humanos, como la ONU y la Comisión Interamericana, han llamado la atención en ambos contextos para el respeto de la protesta pacífica y la investigación de presuntos de uso excesivo de la fuerza relacionados con posibles desapariciones forzadas, detenciones arbitrarias y homicidios que deben ser investigados de manera imparcial y diligente.

En cada caso, expresamos nuestra solidaridad e instamos a los Estados de Perú y Ecuador a garantizar, proteger y respetar el ejercicio de la protesta pacífica y a garantizar el derecho a la vida, la libertad y la integridad física de los manifestantes de conformidad con los derechos al debido proceso y la presunción de inocencia. Llamamos la atención de organismos internacionales en Derechos Humanos, la sociedad civil y otros Estados de la región para monitorear el desarrollo y desenlace de las protestas en cada caso y exigir transparencia y rendición de cuentas sobre la actuación de las autoridades estatales.

En medio de estos escenarios de convulsión social, de paros continuos y otras formas de manifestación y protesta ciudadana, sabemos que también está en juego la seguridad de las personas. Por eso, desde Derechos Digitales lanzamos “Consejos para el resguardo digital en protestas”, una guía con recomendaciones y recursos para que la población pueda ejercer sus derechos a la participación y la libertad de expresión, cuidando sus datos personales y su privacidad.

¿Qué está pasando en Ecuador y Perú?

El 22 de septiembre, organizaciones sindicales, indígenas y campesinas iniciaron un paro nacional en Ecuador. Por estos días, el paro continúa y aumentan las cifras de asesinatos, desapariciones, torturas y detenciones ilegales. El gobierno nacional sostiene un discurso de “guerra interna” contra el terrorismo y el narcotráfico para justificar las masivas violaciones a los Derechos Humanos.

En Perú, en medio de una crisis institucional, varios sectores vienen desarrollando jornadas de protesta social ante un gobierno nacional de transición. El pasado miércoles 15 se llevó adelante un paro y movilización, que dejó el saldo de al menos 75 personas heridas en el marco de represiones. La sociedad peruana reclama acciones inmediatas del Ejecutivo y el Congreso, reformas en el sistema político y la implementación de políticas de seguridad y empleo. Asimismo, la CIDH emitió una declaración donde urge al Estado peruano a garantizar que las decisiones políticas se adopten dentro del respeto al orden constitucional, y convoca al diálogo democrático.

En el marco de estos estados de conmoción social y política, en ambos países se evidencian casos de intromisión y patrullaje digital hacia la ciudadanía. Días atrás, más de 50 activistas y líderes sociales del Perú amanecieron con sus teléfonos celulares bloqueados. A su vez, en algunas regiones de Ecuador se está bloqueando la señal de internet, como vienen denunciando las organizaciones de Derechos Humanos, dejando a la población incomunicada y limitando la posibilidad de informar sobre lo que está ocurriendo.

“Consejos para el resguardo digital en protestas”

Participar, reclamar, informar y expresarse no pueden ser motivo de censura ni acoso digital. Los derechos de las personas deben respetarse tanto en línea, como fuera de ella. Ante los contextos de protestas en Ecuador y Perú, Derechos Digitales pone a disposición esta guía con recomendaciones para la seguridad digital de la ciudadanía.

1. Usa servicios de mensajería segura y cifrada              

Si tienes que comunicar información sensible o tienes la sospecha de que puedes ser víctima de vigilancia estatal, la mejor aplicación de mensajería es Signal, no WhatsApp ni Telegram. Signal es diferente a WhatsApp porque casi no guarda información de las personas usuarias. Si la policía o una empresa le pide datos, esta compañía de mensajería lo único que puede entregar es la fecha en que la cuenta se creó y la última vez que se conectó, nada más. No guarda mensajes, ni fotos, ni contactos.

Para lograr que el mensaje llegue a buen puerto, te recomendamos que lo hagas con texto, si la conectividad no está muy bien o estás sufriendo algún tipo de inhibición las imágenes y los audios pueden demorar mucho en enviarse.

2. Protege tu identidad y la de terceros

Si vas a sacar fotos o grabar videos de protestas y otros actos, es importante proteger la identidad de terceros para que no sean identificados. Esto se puede hacer en la configuración del mismo Signal. Además, te sugerimos difundir el contenido después de la protesta, de esta manera se reduce el riesgo de exposición no intencionada de otras manifestantes.

3. Elimina los metadatos de las fotografías que tomes              

Signal quita los metadatos por defecto, por lo tanto las imágenes que envías ya no conservan esa información. Para poder eliminar los metadatos de tus fotografías de forma manual, puedes hacerlo acá para dispositivos con Android, y de esta manera en el caso de equipos con iOS.

4. Usa VPN para hacer más segura tu navegación              

Para resguardar tu navegación en Internet e impedir que te geolocalicen o que quede rastro de tu actividad existen muchos VPN. El VPN de RiseUp.net es una buena alternativa. Para dispositivos con iOS recomendamos ProtonVPN.

5. Desactiva la ubicación              

En el caso de Android: Configuración > Ubicación > Desactivar.

En el caso de IOS: Privacidad y seguridad > Localización (desactivar) / Rastreo (desactivar).

6. Utiliza mapas offline              

Si necesitas navegar con GPS, utiliza una aplicación de mapas offline como Organic Maps. Deberías descargarte previamente un mapa de la zona donde vayas a movilizarte. Organic Maps está disponible tanto para Android como iOS.        

7. Apaga tu teléfono o activa el modo avión

Como una medida alternativa, se puede apagar el teléfono o usarlo sólo en modo avión. Esto puede ser útil en caso de que autoridades soliciten a las compañías telefónicas datos sobre dispositivos conectados en determinadas zonas de conflicto.

8. Considera llevar un teléfono celular alternativo

Si tienes la posibilidad de conseguir un teléfono alternativo al que utilizas cotidianamente, lleva ese. Es mejor moverse en estos contextos con un dispositivo que no tenga historial de nuestra actividad en línea, ni contactos, ni información personal. Y siempre recuerda llevar tu teléfono con buen nivel de batería y con el cable para cargarlo (o una batería externa/portátil).

9. Respalda sitios web

Si sospechas que pueden dar de baja tu página u otro sitio web con información importante, te sugerimos realizar un respaldo permanente. Archive es un archivo de páginas web recomendado para esta tarea.

10. Revisa tu vestimenta

Para manifestaciones siempre se recomienda asistir protegidas, con pantalones largos y camisas con mangas largas para cuidado del cuerpo. Algún objeto o accesorio en la cara sirven doblemente: te resguardas tanto de gases lacrimógenos como de identificación no intencionada.

Otros recursos para proteger la seguridad digital durante protestas

La resiliencia digital en América Latina se construye hace tiempo desde las organizaciones de la sociedad civil. En este apartado ofrecemos más recursos y herramientas.

En la página de Derechos Digitales, se pueden encontrar artículos que puede ser de utilidad para este tipo de situaciones excepcionales. Por ejemplo, en esta columna ofrecemos consejos para poder asegurarse de eliminar mensajes ante el riesgo de intrusión. En otro texto, analizamos la huella digital, reflexionando sobre los datos y la privacidad y sugiriendo herramientas para su resguardo. También, armamos un recursero en esta columna, con la idea de fomentar la seguridad digital de las personas y activistas LGBTIQA+ específicamente.

Lo más actualizado, y focalizado en los contextos de Ecuador y Perú en particular, lo vienen impulsando organizaciones aliadas locales. La Libre, junto a INREDH y otros, lanzó una guía para usar Signal de forma segura. Además, junto a Taller de Comunicación Mujer, Centro de Autonomía Digital y Conexión Educativa difundieron consejos para poder informar durante una protesta cuando la señal del teléfono está inhibida o saturada. En Perú, Hiperderecho lanzó www.ciudadaniabajoataque.pe, una plataforma para documentar ataques y activar la defensa colectiva.

Algunas herramientas más promueven Surveillance Self-Defense, Espacio Público y Witness.

Filtraciones de datos: el costo ciudadano de la negligencia digital

Cada nueva filtración de datos parece encontrarnos igual: con indiferencia y resignación. No es apatía, sino cansancio. “Total, no tengo nada que ocultar, no soy tan importante”, es una de las frases más repetidas, que refleja cómo se ha instalado la idea de que la privacidad no importa. Esa resignación, alimentada por la negligencia de las empresas y entidades estatales que almacenan nuestros datos, está erosionando la confianza social y normalizando la idea de que la privacidad deje de percibirse como un derecho básico.

Se trata de un fenómeno que no surge de la nada. En lo que va del año, ya podemos constatar múltiples casos en distintos países de América Latina. En Argentina una app estatal comprometió 13 mil perfiles; en Uruguay se vendió una base de datos estatal con más de medio millón de registros; en México un ataque a una boletera dejó al descubierto datos bancarios de 80 mil personas; en Paraguay se filtraron más de 7 millones de registros del Tribunal Superior de Justicia Electoral; en El Salvador una gestora de cobros perdió más de 140 gigabytes de información de sus clientes; y en Venezuela se reportó la exposición de más de 3,2 millones de personas usuarias de Movistar. En estas filtraciones suelen aparecer datos como el documento de identidad, nombres, fechas de nacimiento, direcciones, teléfonos. Muchos incidentes incluyen además información sensible como fotografías, firmas, huellas, historiales médicos, registros laborales y socioeconómicos.

Desde el tecnicismo, estos campos se presentan como simples columnas en una base de datos, pero en realidad cada una de esas columnas corresponde a fragmentos de nuestras vidas: quiénes somos, dónde vivimos, cómo trabajamos y hasta qué padecemos. Reducir la información a tablas y registros invisibiliza que detrás de cada dato hay una persona con derechos que pueden ser vulnerados si su información personal queda expuesta.

Cuando la tecnología falla, las personas lo sufren

Tanto el sector privado como el público parecen estar en una carrera sin fin hacia la “innovación”, pero ¿qué valor tiene hablar de innovación si se construye sobre la exposición constante de los datos de la ciudadanía? Innovar no debería significar coleccionar más información de la necesaria ni esconder en la letra pequeña cómo se utiliza. Tiene que incluir el diseño de sistemas no solo funcionales, sino también seguros y accesibles, que no trasladen todo el riesgo a las personas. Mientras eso no ocurra, la llamada “innovación” seguirá siendo un discurso vacío, blindado a través de comunicados tardíos que llegan cuando el daño ya está hecho.

Las filtraciones permiten que datos que parecen administrativos se transformen en herramientas de delito. Con un número de documento, y otras informaciones básicas que suelen aparecer en un carnet de identidad, un delincuente puede solicitar préstamos o abrir cuentas bancarias a nombre de otra persona. Con direcciones y teléfonos filtrados, las extorsiones y estafas se multiplican. Esa información llegó a utilizarse incluso para inscribir a personas en partidos políticos sin su consentimiento, como ocurrió en el caso de la filtración de la base de datos del Reniec en Perú, el cual facilitó afiliaciones masivas a organizaciones políticas sin autorización ciudadana.

La mayoría de los ciberataques ocurridos entre 2023 y 2024 contra organizaciones latinoamericanas derivó en filtraciones de datos, que representaron el 53% de los casos. Más de la mitad de la información robada correspondió a datos personales (32%) y credenciales de cuentas (21%), revelando cómo el contenido filtrado es insumo para el delito digital.

No todas las personas enfrentan los mismos riesgos cuando sus datos quedan al descubierto. Las mujeres suelen ser blanco de violencia digital: acosadores que utilizan sus fotos o números de teléfono para hostigarlas, amenazarlas o enviarles contenido sexual. Niñas, niños y adolescentes quedan especialmente vulnerables a engaños en línea o a ser fácilmente identificables, lo que conlleva a riesgosas situaciones de trata y violencia infantil. Las personas defensoras de Derechos Humanos o pertenecientes a la comunidad LGTBIQA+ quedan expuestas a campañas de acoso y criminalización si su información personal se hace pública. En muchos casos esto ocurre a través del doxxing, es decir, la exposición maliciosa de datos personales en Internet. Las filtraciones masivas de bases de datos que luego circulan abiertamente en la web —ya sea en foros de la Darkweb o en canales de compraventa de Telegram— alimentan estas prácticas, amplificando el hostigamiento y poniendo en riesgo la garantía de derechos en general.

Los datos socioeconómicos filtrados también agravan la desigualdad: un historial de deudas o la procedencia de un barrio estigmatizado pueden bastar para que alguien sea descartado en un proceso laboral. Entonces, si miramos estas filtraciones solo como un problema técnico, pasamos por alto que en realidad refuerzan estructuras de discriminación y amplifican violencias que ya existen históricamente en nuestra sociedad.

Medidas urgentes para resguardar la confianza

Uno de los mayores descuidos suele ubicarse en el control de accesos: se debe garantizar que solo las personas autorizadas puedan acceder a los sistemas que almacenan nuestra información y que esos permisos deban ser revisados de forma constante y eliminados cuando ya no correspondan. No hacerlo puede derivar en situaciones graves. En un caso reciente en Perú, un extrabajador de una empresa de telecomunicaciones fue investigado penalmente porque delincuentes aprovecharon un acceso a su nombre que nunca había sido desactivado para ingresar a la base de datos personales nacional y, con esa información, suplantar personas, cambiar titularidad de líneas móviles y robar cuentas bancarias.

Para prevenir estos delitos, es necesaria la aplicación del principio de “mínimo privilegio”, es decir, que cada persona que trabaja en las entidades que almacenan nuestros datos tenga únicamente los accesos que necesita para cumplir su función, y desactivar de inmediato los accesos de quienes dejan esa institución.

Asimismo, la adopción de autenticación multifactor (MFA) en todos los accesos administrativos junto al uso de gestores de contraseñas, reduce significativamente el riesgo de intrusiones. La MFA consiste en combinar al menos dos métodos distintos de verificación, como por ejemplo: algo que sabemos (una contraseña), algo que tenemos (un celular o un token físico) y algo que somos (huella digital o rasgos faciales). No obstante, este último método -la biometría- actualmente no es una solución libre de riesgos. En Brasil, por ejemplo, se investigó un esquema que vulneró los sistemas de biometría del portal gov.br mediante técnicas de manipulación de imágenes, accediendo de forma indebida a datos personales.

Otra medida indispensable es el cifrado. En pleno 2025 todavía vemos bases de datos expuestas y archivos circulando sin protección, como si fueran documentos abiertos al público. Ese tipo de fallo de seguridad permitió la intrusión fraudulenta a los registros de más de 243 millones de personas en Brasil en 2020, cuando credenciales del Ministerio de Salud quedaron expuestas en el código fuente de una página oficial durante al menos seis meses. Toda información debe almacenarse cifrada y toda transferencia de información debe viajar por canales seguros, como ocurre con las páginas web que usan HTTPS en lugar del inseguro HTTP.

La seguridad exige constancia: auditar accesos, detectar patrones anómalos como consultas masivas o fuera de horario y mantener registros verificables. Cada ingreso debe quedar trazado y cada alerta investigada a tiempo, porque no sirve reaccionar cuando el daño ya está hecho. La ciudadanía tiene derecho al resguardo de sus datos y su privacidad y no solo a que se informe livianamente después de un incidente. Cada registro ignorado o cada log sin revisar es, en realidad, una decisión sobre cuánto valoran las instituciones la confianza pública.

Tan importante como proteger los sistemas es cuestionar la cantidad de información que se recolecta. Muchas filtraciones se podrían haber evitado si las organizaciones no hubieran almacenado más datos de los necesarios. Guardar copias indefinidas de documentos, recolectar información sensible “por si acaso” o para generar publicidad, no establecer plazos claros de eliminación, todo esto multiplica los riesgos.

De todas formas, ninguna herramienta sustituye a una cultura de seguridad que ponga a las personas en el centro. Una capacitación en seguridad digital de media hora una vez al año no forma conciencia ni previene errores. Las instituciones necesitan contar con una política de seguridad digital, dotada de equipos profesionales preparados, protocolos claros y un compromiso real desde la dirección hasta el último nivel operativo. A menudo vemos gastos millonarios en sistemas de seguridad, pero la tecnología por sí sola no es suficiente si no se acompaña de procesos claros de prevención, detección y respuesta, y de especialistas capacitados que entiendan que están protegiendo a personas, no solo datos o dispositivos.

Cuando la ley no alcanza

Varios países de América Latina cuentan hoy con leyes de protección de datos personales y autoridades de regulación. Sin embargo, los casos recientes demuestran que lejos de resolverse, esta problemática se vuelve recurrente en nuestra región: tanto empresas como entidades estatales vuelven a tener filtraciones que afectan a millones de personas. El marco regulatorio, aunque necesario, se muestra insuficiente si no existe la capacidad y voluntad de hacerlo cumplir.

Proteger los datos es un deber político y ético. El Estado debe garantizar derechos y construir confianza ciudadana, y las instituciones -públicas y privadas- asumir que detrás de cada registro hay vidas humanas. Mientras nuestra región no entienda que la privacidad es parte de la dignidad, seguiremos tratando las filtraciones como simples fallas técnicas, cuando en realidad evidencian la falta de compromiso público con la protección de derechos.

Datos, privacidad y nuestra huella digital

Tuve la suerte de experimentar con computadoras desde niño en la década de 1980. En esa época la información se guardaba en disquetes, primero los de 5 ¼, luego los de 3 ½. El disquete de mayor capacidad no podría almacenar una sola foto de la que tomamos hoy en día con un teléfono móvil. Sin embargo, en ellos guardábamos videojuegos -lo que más me gustaba en esa época-, archivos de texto y hojas de cálculo. Si bien era poca la información que estos dispositivos almacenaban, las personas eran muy conscientes de su importancia y era común tener varias copias de un documento en distintos disquetes. Con el tiempo, la capacidad de almacenamiento se incrementó y las computadoras personales empezaron a traer discos duros donde se podía guardar mucha más información. Eso sí, era importante respaldarla en disquetes porque la computadora podía dañarse con virus o con alguna descarga eléctrica.

Ya en los 90 se popularizaron los discos compactos (CD por sus siglas en inglés), primero para música y luego para software más complejo que podía almacenar mucha más información. La capacidad de un solo CD era equivalente a la de, aproximadamente, 484 disquetes y la disponibilidad de espacio facilitó la popularización, entre las personas usuarias de ese entonces, de la grabación de multimedia, como música, fotos y videos. Durante esa época, algunas personas tuvimos la suerte de conectarnos a internet, a través de la telefonía fija de las casas utilizando el sistema de dial-up. Si bien las conexiones eran muy lentas, y el contenido multimedia limitado, algo importante empezó a cambiar en relación a la gestión de nuestra información y todavía no teníamos noción de esto: nuestros datos se comenzaban a guardar de manera remota.

En sus inicios, utilizábamos internet para aprender, investigar y comunicarnos. El correo electrónico era la principal forma de comunicación y, a finales de los 90, si no tenías un correo de Hotmail, era de Yahoo, aunque había otros también. Sin embargo, lo que tenían en común esos sistemas era que su capacidad de almacenamiento era limitada y los buzones de correo se llenaban rápidamente, por lo que había que vaciarlos y respaldar localmente la información que considerábamos importante. Esto empezó a cambiar en 2004, cuando Google creó Gmail con una capacidad extraordinaria para el guardado comparado con el resto de proveedores de correo de la época: 1GB o el equivalente a 710 disquetes de 3 ½ . En pocos años, Gmail se convirtió en uno de los proveedores más populares y borrar correos electrónicos en algo del pasado. La capacidad de almacenamiento creció de manera similar del tamaño de los archivos multimedia que hoy son tan populares.

Con la popularización de los teléfonos inteligentes, pude vivir otra gran transformación: la integración directa entre mi información –como contactos, fotos, documentos y otros – y los servidores de las gigantes tecnológicas como Apple y Google. Esta costumbre de guardar la información en línea en servidores remotos fue adoptada por otras empresas y es lo que actualmente conocemos como “la nube”.

Durante los cerca de 40 años que llevo siendo usuario de la informática pude presenciar la transición del almacenamiento de forma local a remota. Cuando la información se guardaba de forma local sabíamos dónde estaba y éramos responsables de su cuidado. Cuando apareció la nube, cedimos esta información a terceros que guardan nuestros datos bajo criterios de acceso y respaldo que no siempre conocemos.

Somos datos, ¿dónde estamos?

Somos nuestros contactos, “dime con quién andas y te diré quién eres”. Somos nuestros chats, correos, fotos y videos que describen nuestra vida personal y profesional. Somos el lugar y la hora donde nos encontramos, lo que buscamos, lo que leemos, los likes que damos y los likes que no damos. Somos los documentos de texto, las hojas de cálculo y las presentaciones que hacemos. Somos las conversaciones que tenemos con la inteligencia artificial y muchos datos más.

Todos ellos se encuentran en la nube –lo que coloquialmente conocemos como la computadora de alguien más-. Google sabe lo que buscamos, nuestros correos electrónicos, ubicación, los documentos que escribimos y con quién colaboramos. Meta conoce nuestras interacciones sociales a través de plataformas como Facebook, Instagram o WhatsApp. Aquí citamos sólo dos ejemplos, pero vale la pena preguntarnos: ¿por qué estas empresas ofrecen tanto espacio para almacenar nuestra información de forma gratuita? Si para nosotras hay una ventaja clara en no depender de dispositivos frágiles o limitados, ¿qué beneficios obtienen ellas? ¿Cuál es el costo real de esta inesperada gentileza?

Hoy sabemos que estas empresas nos regalan espacio de almacenamiento porque esos datos les dan poder. Empresas como Google y Meta nos dan servicios “gratuitos” a cambio de nuestros datos, que luego utilizan para vender publicidad dirigida o generar nuevos productos que luego serán explorados económicamente. Desde hace algunos años estamos viviendo el boom de la inteligencia artificial, en particular de los modelos largos de lenguaje. ¿Nos hemos preguntado por qué aplicaciones como Gemini y ChatGPT saben lo que saben? Es muy probable que las hayamos estado entrenando con nuestros datos sin un consentimiento explícito.

Pero el uso comercial de nuestros datos por las gigantes de tecnología no es el único riesgo del modelo de almacenamiento en nube a nuestra privacidad. En 2013, Edward Snowden filtró documentos de inteligencia de EE. UU. que revelaron cómo este país y sus aliados utilizan la infraestructura de empresas como Google, Meta, Microsoft y Yahoo, entre otras, para espiar a sus usuarios. Ya pasaron 12 años desde estas filtraciones y si bien se han incorporado algunas protecciones adicionales a la información que circula en internet, lo más probable es que los datos almacenados en la nube sigan siendo espiados. Es más: es plausible pensar que el modelo se replica en otros contextos y la información almacenada en Tik Tok, Alibaba o Temu también sean accesibles por agencias del gobierno chino.

El éxito del modelo depende de las facilidades que puedan ofrecer en un contexto de abundancia (por no decir exceso) de información, versus la dificultad de tener mayor control. Pensemos en las fotografías que tomamos en nuestros teléfonos móviles. Por defecto, cuando se toma una fotografía, esta se sube a la nube de Google o a la de Apple. Personalmente, no quiero que mis momentos personales queden almacenados en una nube a la cual tienen acceso agencias de inteligencia de diferentes países del mundo. Es verdad que tanto Android como Apple permiten desactivar la característica de sincronizar nuestras fotos. ¿Pero qué pasa con las fotos donde aparezco, que fueron tomadas desde el celular de otra persona? ¿Mi exposición personal queda entonces dependiente de la consciencia de una persona desconocida? 

¿Qué podemos hacer?

Existen datos sobre los que podemos tener control de forma individual, otros que podemos controlar de forma colectiva y otros sobre los que no tenemos control directo. Para proteger nuestra privacidad, podemos pensar en almacenar la información privada de manera local. Si pensamos en un documento de texto, podemos utilizar herramientas como LibreOffice en lugar de Office 365 o Google Docs, que están conectados a las nubes de sus proveedoras. Si pensamos en fotos tomadas en nuestro teléfono, podemos desactivar la sincronización de las mismas, tanto en Android como iPhone.

Sí, gran parte de las buenas prácticas en gestión de información personal actualmente requieren resistir a las supuestas facilidades ofrecidas por los servicios dominantes y cambiar prácticas para lograr recuperar nuestra autonomía. Al almacenar la información de manera local, ganamos en privacidad, pero puede ser que, al menos al inicio, perdamos en conveniencia.

Podemos experimentar vivir la digitalización de otras formas. Por ejemplo, para respaldar las fotos y otros documentos de un teléfono, podemos utilizar el cable de datos para transferir la información a nuestra computadora y de la computadora podemos usar un disco duro externo para respaldar nuestros datos. También se puede acceder a soluciones más sofisticadas utilizando herramientas libres como Syncthing o mediante un servidor de archivos.

También podemos utilizar aplicaciones cifradas como Signal. Si queremos compartir más documentos, podríamos buscar nubes en las que confiemos o incluso utilizar nubes en las que no confiamos pero cifrar nuestros documentos con herramientas como Veracrypt.

En organizaciones o comunidades donde se cuenta con determinados recursos, se puede utilizar infraestructura propia y autónoma con herramientas de software libre. En el caso de Derechos Digitales, compartimos nuestros documentos a través de una instancia propia de  Nextcloud, los redactamos utilizando OnlyOffice o a través de pads. Nuestras conversaciones suceden a través de nuestra propia plataforma de chat cifrada y autónoma. En el caso de los correos, si bien no controlamos nuestro servidor, sí estamos en la capacidad de cifrar correos sensibles utilizando aplicaciones como Thunderbird.

Tener control sobre el lugar donde se almacena nuestra información o cifrar la información sensible en lugares que no controlamos es una forma de ejercer nuestro derecho a la privacidad. Lamentablemente eso no siempre es una tarea sencilla o posible. Por eso es que seguimos luchando para que cualquier recolección o uso de nuestros datos se haga en base a criterios muy bien establecidos de modo que se garantice el respeto y la protección de nuestros derechos. Y una forma de resguardar nuestra privacidad es defendiendo el cifrado, el anonimato y la privacidad por diseño, intentando alinear nuestra comodidad con el ejercicio de los Derechos Humanos.

Nuestras vidas suceden en el espacio digital y, por tanto, quedan documentadas. Entender dónde se almacenan es el primer paso para poder cuidar nuestros datos y nuestra privacidad. Es fundamental que la ciudadanía tenga una visión crítica de la vida digital y poder explorar alternativas tecnológicas que nos permitan retomar el control sobre nuestra información.