Elecciones en un terreno sin reglas claras

Cuando hablamos de desinformación electoral no nos referimos únicamente a “noticias falsas”. Se trata de un conjunto de prácticas que buscan influir en la percepción del electorado, instalar dudas sobre los procesos democráticos o desacreditar candidaturas e instituciones. Incluye desde encuestas falsas y declaraciones inventadas hasta campañas coordinadas de hostigamiento, manipulación de contenido y uso estratégico de tecnologías emergentes como la IA o los deepfakes. Como ha advertido Derechos Digitales en distintos trabajos, el problema no es solo la existencia de contenidos engañosos, sino el ecosistema que permite su circulación y amplificación.

Las elecciones presidenciales recientes en la región, como las de Chile, Bolivia o Costa Rica, muestran que estas dinámicas no son marginales, sino estructurales. Y todo indica que serán centrales en los procesos electorales que se avecinan en 2026 en países como Brasil, Colombia y Perú.

De fenómeno marginal a herramienta política

En los últimos años, la desinformación dejó de ser un fenómeno esporádico para convertirse en parte integrada de las estrategias de campaña. Una investigación reciente de Bolivia Verifica y ProBox sobre las elecciones bolivianas de 2025 lo resume de forma clara: la desinformación digital ya no es algo marginal, sino una práctica que se despliega sistemáticamente en momentos críticos del proceso electoral. Durante esos comicios, se identificaron alrededor de 250 contenidos falsos o engañosos, marcando un precedente en el volumen de desinformación en Bolivia, incluyendo un uso inédito de herramientas de inteligencia artificial.

El estudio también identificó patrones que se repiten en distintos países de la región. El más frecuente fue la circulación de declaraciones falsas atribuidas a candidaturas u otros actores públicos, utilizadas estratégicamente para influir en la intención de voto. En segundo lugar, destacaron las encuestas falsas, utilizadas para instalar percepciones sobre quién va ganando o perdiendo en la contienda.

Este tipo de contenidos no circula de forma aislada. Las campañas desinformativas operan de manera coordinada y multiplataforma. Según la investigación de Derechos Digitales sobre elecciones y desinformación en Brasil, una narrativa puede surgir en espacios abiertos como TikTok o X, escalar rápidamente y luego trasladarse a aplicaciones de mensajería como WhatsApp o Telegram, donde su circulación se vuelve más difícil de rastrear o contrarrestar.

Narrativas de fraude y erosión de la confianza democrática

Entre las distintas formas que adopta la desinformación electoral, una de las más persistentes es la instalación de narrativas de fraude. Estas narrativas no necesariamente buscan demostrar irregularidades reales, sino instalar una sospecha permanente sobre la legitimidad del proceso electoral.

En el caso boliviano, este tipo de contenido ocupó un lugar central en la conversación digital durante las elecciones de 2025. Tal como documentaron Bolivia Verifica y ProBox, circularon de forma masiva declaraciones falsas atribuidas a candidaturas, encuestas manipuladas y contenidos diseñados para desacreditar a actores políticos, medios de comunicación y al propio Tribunal Supremo Electoral, con el objetivo de erosionar la confianza en el proceso.

Un fenómeno distinto, pero relacionado, se observó en Costa Rica. Allí, más que instalar una narrativa técnica de fraude, se han visto intentos sostenidos de deslegitimar al Tribunal Supremo de Elecciones a través de contenidos engañosos y campañas de desprestigio, incluyendo la difusión de información falsa desde cuentas institucionales que luego debió ser eliminada. Estos episodios muestran cómo la desinformación puede apuntar directamente a debilitar la credibilidad de las autoridades electorales, incluso en contextos donde estas aún mantienen altos niveles de confianza pública.

Al final, estas supuestas evidencias o ataques directos a las instituciones, terminan funcionando como estrategias para erosionar la confianza en las reglas del juego democrático, desplazando el debate desde las propuestas hacia la legitimidad misma de la elección. En ese terreno, la narrativa anti-sistema no es inocua, ya que abre espacio y favorece a candidaturas que construyen su estrategia precisamente en tensionar las instituciones democráticas.

Violencia política digital y sus efectos en la participación

Otro de los aspectos más críticos de la desinformación electoral en la región es su vínculo con la violencia política de género. Las campañas digitales no afectan a todas las personas por igual, dado que las candidatas mujeres y las personas LGBTIQA+ son, de manera sistemática, objeto de ataques que combinan desinformación, hostigamiento y discursos estigmatizantes.

En Chile, durante la última campaña presidencial, se evidenció cómo redes de cuentas, muchas de ellas automatizadas, amplificaban ataques contra candidatas mujeres, mezclando contenido falso con insultos y discursos de odio. Este tipo de violencia no solo afecta a las personas directamente atacadas, sino que también tiene un efecto más amplio: desincentiva la participación política y restringe quiénes pueden ocupar el espacio público. A su vez, genera un efecto circular: a menor diversidad entre quienes participan y acceden a espacios de poder, menor es también la capacidad de impulsar políticas que aborden estas violencias y sus impactos.

La expansión de herramientas de inteligencia artificial añade una nueva capa a este fenómeno. Como ha documentado la organización Situada sobre deepfakes, estas tecnologías facilitan la creación de contenido manipulado, muchas veces de carácter sexual, que afecta de manera desproporcionada a mujeres. En contextos electorales, esto se traduce en una herramienta particularmente efectiva para desacreditar o intimidar candidatas, reforzando desigualdades estructurales.

En la región, esta dinámica no es aislada. Como advierte IDEA Internacional, la violencia política digital contra mujeres se ha consolidado como una forma sistemática de limitar su participación en la vida pública, combinando acoso, amenazas y desinformación con sesgo de género. Estos ataques no solo buscan desacreditar, sino también reducir su visibilidad y capacidad de incidencia en espacios de decisión.

Inteligencia artificial, regulación y nuevas asimetrías

El uso de inteligencia artificial en campañas políticas es una realidad en América Latina, pero su impacto no es homogéneo. Si bien estas tecnologías permiten producir contenido falso de manera más rápida y a menor costo, su circulación sigue dependiendo de las mismas plataformas digitales que estructuran el ecosistema informativo.

Al mismo tiempo, empiezan a aparecer diferencias relevantes entre países. Mientras en algunos contextos el uso de estas tecnologías ocurre en marcos regulatorios difusos o inexistentes, otros han comenzado a establecer ciertos límites. Como advierte un informe conjunto de Derechos Digitales y otras organizaciones presentado ante Naciones Unidas sobre elecciones e integridad de la información, la falta de regulación clara puede facilitar la amplificación de desinformación y violencia digital en procesos electorales.

El caso brasileño permite observar algunos avances en esta materia. La autoridad electoral ha establecido límites específicos al uso de inteligencia artificial en campañas, incluyendo restricciones a sistemas automatizados para evitar que recomienden opciones de voto. Esto contrasta con otros contextos de la región. En Colombia, por ejemplo, se han documentado casos en que sistemas de inteligencia artificial como Grok han emitido respuestas con sesgo político en el contexto electoral, incluyendo recomendaciones o posicionamientos frente a candidaturas, evidenciando vacíos regulatorios y la falta de estándares claros para este tipo de herramientas.

Brasil, por su parte, muestra las tensiones propias de intentar regular un fenómeno que evoluciona rápidamente, donde las medidas institucionales conviven con limitaciones importantes en la circulación de contenidos en plataformas y aplicaciones de mensajería. La coordinación entre autoridades, empresas tecnológicas y sociedad civil ha sido relevante para responder a episodios de desinformación, pero no ha sido suficiente para contenerlos de manera estructural.

En muchos países de la región, estas condiciones ni siquiera están presentes. La cooperación con plataformas es limitada y los mecanismos de coordinación entre actores públicos y privados son débiles o inexistentes, lo que deja un terreno mucho más abierto para la circulación de desinformación en contextos electorales.

A esto se suma un problema más estructural: las plataformas no solo fallan en colaborar, sino que también han ido cerrando espacios de diálogo en otras esferas del debate público. Como se ha advertido en análisis previos de Derechos Digitales, sus decisiones de moderación, el funcionamiento opaco de sus algoritmos y modelos de negocio que priorizan contenidos polarizantes terminan moldeando el ecosistema informativo, amplificando ciertas narrativas y debilitando otras. En contextos electorales, estas dinámicas no desaparecen, sino que se intensifican.

Reglas que no alcanzan a la política digital

Uno de los principales problemas es que las reglas electorales siguen respondiendo a una realidad que ya cambió. Las normas fueron diseñadas para campañas en televisión, radio o espacios públicos, pero hoy la política se juega en plataformas digitales, con influencers, microsegmentación de mensajes y circulación en aplicaciones de mensajería.

Esta brecha se hace evidente en casos concretos de la región. En Colombia, por ejemplo, las campañas digitales operan en gran medida fuera de los marcos regulatorios existentes, donde contenidos difundidos desde cuentas personales o redes de apoyo no siempre son considerados propaganda electoral, dejando amplios espacios sin regulación.

Este cambio no es solo tecnológico, sino también político. Las campañas digitales permiten adaptar mensajes a audiencias específicas, operar con distintos niveles de visibilidad y, en muchos casos, evadir los marcos tradicionales de regulación electoral. Lo que antes era una franja televisiva, hoy puede tomar la forma de un video viral, una cadena de WhatsApp o una publicación aparentemente espontánea, cuya autoría y financiamiento resultan difíciles de rastrear.

En este escenario, gran parte de la actividad política digital, incluyendo la desinformación, ocurre en zonas grises regulatorias. A esto se suma la falta de colaboración de las plataformas digitales, que no han desarrollado herramientas adecuadas para enfrentar la circulación de contenidos engañosos en contextos electorales en la región, se rehúsan a transparentar cómo funcionan sus algoritmos y no hacen una rendición de cuentas adecuada a sus usuarios y a la ciudadanía en general.

La disputa por el ecosistema informativo

Las elecciones de 2026 no solo van a poner a prueba a las candidaturas, sino también a las condiciones en que se construye el debate público. En un escenario donde la desinformación forma parte de las campañas, la discusión ya no se trata  sobre programas o propuestas, ahora pasa a jugarse en cómo circula la información y quién logra instalar ciertas versiones de la realidad.

Ese terreno no es neutral. Está marcado por plataformas que toman decisiones sin demasiada transparencia, por Estados que llegan tarde -o definitivamente no llegan- a regular estos procesos, y por desigualdades en la forma en que las personas acceden y procesan la información. Estas desigualdades no son solo de acceso, sino también de condiciones: desde modelos como el zero rating que limitan la diversidad de contenidos disponibles, hasta las brechas en alfabetización digital inciden en cómo circula la información. A esto se suma el uso indebido de datos personales para segmentar y dirigir mensajes políticos, muchas veces sin supervisión efectiva, lo que profundiza aún más estas asimetrías.

En la práctica, esto termina definiendo quién puede participar en la conversación pública y en qué condiciones. No todos los actores compiten en igualdad de condiciones, y eso tiene efectos concretos en cómo se construyen las percepciones, las dudas y las decisiones electorales.

La pregunta, entonces, se centra en qué tipo de espacio público estamos construyendo. Y, en última instancia, qué tan capaces somos de sostener procesos democráticos en un entorno cada vez más mediado por plataformas, opaco y difícil de gobernar.

Identidades en venta: El mercado ilegal de compra y venta de datos personales latinoamericanos en Telegram

La investigación documenta la existencia de un mercado ilegal de datos personales que opera en Telegram y que presenta posibles vínculos con bases estatales en América Latina. Identificamos 27 grupos y canales activos en Brasil, Perú y Argentina dedicados a la comercialización de información sensible mediante bots automatizados y pagos digitales. En esos espacios, cualquier persona puede obtener en segundos datos asociados a un número de identidad, nombre o teléfono bajo un modelo que combina consultas gratuitas limitadas y acceso completo mediante pago.

Contribución a la consulta de la RELE/OEA sobre el impacto de la inteligencia artificial en los derechos humanos

En esta contribución presentamos, ante la Relatoría Especial para la Libertad de Expresión (RELE), información centralizada sobre los impactos del uso de Inteligencia Artificial por parte de los Estados en América Latina en la privacidad, la libertad de expresión y asociación y el acceso a la información pública. Desglosamos recomendaciones orientadas a fortalecer los mecanismos de transparencia activa, la participación social, las auditorías independientes y las evaluaciones de impacto en derechos humanos de los sistemas de IA diseñados y desplegados en la gestión pública.

Protección de datos en América Latina: avances, tensiones y desafíos pendientes

El 28 de enero es reconocido a nivel mundial como el Día de la Protección de Datos. La fecha fue establecida en 2006 por el Consejo de Europa y remite al día en que se firmó, en 1981, la Convención 108: el primer tratado internacional jurídicamente vinculante para Europa sobre la protección de datos personales y el tratamiento automatizado de información. La efeméride conmemorativa se inscribe, por lo tanto, en una tradición europea de regulación de la privacidad y la protección de datos, que ha influido en múltiples marcos normativos en todo el mundo y busca destacar la importancia de garantizar esos derechos fundamentales en un contexto de uso creciente de tecnologías digitales.

Aunque las nociones de privacidad y de protección de datos están estrechamente relacionadas, no son sinónimos. La primera se refiere a un derecho amplio a la intimidad y a la autonomía personal, clásicamente definido como el “derecho a no ser molestado”; mientras que la segunda articula un conjunto de normas y prácticas sobre cómo se recolectan, procesan y protegen los datos que identifican o tienen el potencial de identificar a una persona. En ese sentido, el 28 de enero no solo celebra un derecho individual abstracto, sino una tradición normativa que busca colectivizar ese derecho y traducirlo en obligaciones y mecanismos concretos, cuya efectividad depende de instituciones específicas.

En América Latina, esta fecha implica reflexionar no solo sobre los avances legales, sino también sobre las tensiones entre teoría y práctica en contextos sociales, institucionales y políticos específicos que difieren, en muchos sentidos, de los europeos.

Los avances legales

La privacidad es un derecho reconocido en las constituciones y leyes de la gran mayoría de los países. En consonancia con este reconocimiento, durante la última década América Latina avanzó en la aprobación de leyes de protección de datos personales, en procesos legislativos fuertemente influidos por la experiencia europea, en particular por el Reglamento General de Protección de Datos (GDPR).

Estas normas surgen en un contexto marcado por el uso -cada vez más intensivo- de datos por parte de las empresas privadas, cuya presencia en la vida cotidiana de las personas es cada vez mayor y más profunda. A este escenario se suma la creciente digitalización de los Estados, que dependen principalmente de la recolección y el tratamiento de datos personales para diseñar e implementar políticas públicas. En este punto, además, emerge una tensión fundamental: si bien el uso de datos puede ser una herramienta legítima para la acción estatal, su utilización sin salvaguardas adecuadas por parte de las instituciones públicas puede abrir la puerta a prácticas de vigilancia y a vulneraciones de derechos. En ausencia de reglas claras y límites efectivos, las personas quedan en una situación de especial vulnerabilidad.

Es precisamente desde este escenario que deben leerse los avances legislativos recientes en la región, que avanzan con ritmos distintos. Mientras todavía hay países como Honduras, Bolivia y Guatemala, que aún no cuentan con marcos legales de protección de datos, otros van camino a sus primeros marcos normativos o a la actualización de los ya existentes. Así, a fines de 2025, Paraguay aprobó su ley de protección de datos personales tras un prolongado debate legislativo y una activa participación de la sociedad civil. En Chile, en cambio, se prevé para 2026 la entrada en vigencia de una nueva ley, aprobada en 2024.

Estos avances confirman un progreso sostenido en el plano legal y merecen ser celebrados. Sin embargo, es clave no perder de vista lo esencial: la mera existencia de leyes no garantiza derechos si éstas no son proporcionales ni estén alineadas con estándares internacionales de protección de derechos humanos. La experiencia reciente muestra que algunas regulaciones pueden incluso profundizar riesgos, como ocurre en El Salvador, cuya legislación fue objeto de denuncias por sus impactos negativos sobre la libertad de expresión y de prensa. Algo similar se observa en Paraguay, donde la nueva ley -aún siendo resultado de un proceso con activa participación de la sociedad civil- también fue objeto de críticas por incorporar mecanismos que pueden convertirse en obstáculos sistemáticos a la transparencia, limitando el acceso a información de interés público, particularmente en lo que respecta a la contratación pública, los funcionarios públicos y el gasto de fondos públicos.

Asimismo, una pregunta central continúa abierta: ¿hasta qué punto estos marcos normativos, muchas veces importados de modelos regulatorios externos, logran traducirse en transformaciones efectivas que respondan a los contextos y realidades de los países de América Latina?

El mercado ilegal de datos como síntoma

Una investigación de Derechos Digitales que será publicada próximamente documenta el funcionamiento de grupos y canales de Telegram que operan en distintos países de América Latina dedicados a la compra y venta ilegal de datos personales. Direcciones, números de teléfono, filiación, información de salud y otros datos sensibles circulan en estos espacios.

La existencia de esta economía ilegal de manera organizada, activa y transnacional resulta profundamente preocupante, pero también reveladora. Más que un fenómeno aislado, pone en evidencia las brechas entre los marcos de protección de datos y su aplicación práctica. La persistencia de estos mercados demuestra que los datos personales se recolectan, circulan y se monetizan mucho antes de que las personas puedan ejercer sus derechos, presentar reclamos o incluso tomar conocimiento de la situación.

Es decir, más que una falla puntual, estos mercados ilegales revelan un problema estructural. La protección de datos aún no logra operar como un límite efectivo frente a dinámicas económicas y sociales que convierten la información personal en una mercancía. Comprender esta brecha entre norma y práctica resulta clave no solo para evaluar el alcance real de estos marcos, sino también para pensar cómo fortalecerlos y hacerlos avanzar en la práctica.

Una protección construida sobre bases desiguales

Como ya se mencionó, muchas de las leyes de protección de datos en América Latina están fuertemente inspiradas en el modelo europeo, concebido a partir de trayectorias históricas, institucionales y socioeconómicas distintas a las de nuestra región. Esta traslación normativa suele darse sin una adecuación suficiente a los contextos locales, marcados por profundas desigualdades sociales, inestabilidades políticas y democráticas, y bajos niveles de capacidad institucional. Si bien la protección de datos por definición ya parte de una asimetría estructural entre quienes tratan datos personales y las personas titulares de los mismos, esta brecha se intensifica en una región donde amplios sectores de la población no tienen acceso a la alfabetización digital y de datos.

Esta situación plantea interrogantes especialmente relevantes en torno al consentimiento, una base legal central en muchas legislaciones de protección de datos. Para que el consentimiento sea verdaderamente libre e informado, las personas deben poder comprender y evaluar de manera efectiva todas las implicancias del tratamiento de sus datos. Sin embargo, es importante destacar que se trata de un concepto estructuralmente frágil en contextos atravesados por relaciones de poder, incluso más allá de la protección de datos, como ocurre en casos de violencia de género y culturas de normalización del abuso.

A estos desafíos se suman debilidades institucionales persistentes. La existencia de leyes no garantiza, por sí sola, su aplicación efectiva. En algunos países de América Latina ni siquiera se constituyeron autoridades específicas para la supervisión y aplicación de normas de protección de datos -clave para garantizar la efectividad del derecho, fiscalizar a actores públicos y privados y ofrecer mecanismos de tutela a las personas titulares de los datos-, mientras que en otros se produjeron retrocesos significativos, como la reciente disolución del INAI en México. Incluso cuando estas autoridades existen, suelen enfrentar limitaciones sustantivas en términos de independencia, que afecta su capacidad de actuar frente a vulneraciones cometidas por el propio Estado, así como restricciones de recursos humanos y presupuestarias que comprometen su funcionamiento.

Por último, otra dimensión de esta fragilidad estructural se relaciona con la seguridad de la información. Organismos públicos, y otras entidades que concentran grandes volúmenes de datos personales, suelen enfrentar dificultades recurrentes para implementar políticas integrales de seguridad, prevenir accesos indebidos y responder adecuadamente a incidentes. Las filtraciones y exposiciones masivas de datos no son episodios aislados en América Latina, sino señales de una cultura institucional que aún no incorpora la protección de datos como un eje central de su funcionamiento.

Más allá de la conmemoración

En este contexto, el 28 de enero no puede reducirse a una fecha conmemorativa ni a una celebración acrítica de avances normativos. En América Latina, una región atravesada por profundas desigualdades pero también por una larga trayectoria de resistencia, organización social, disputa política y construcción de derechos, el Día Internacional de la Protección de Datos invita a una reflexión situada sobre la distancia persistente entre los marcos legales y las condiciones reales en las que los datos personales son recolectados, tratados y expuestos.

En este sentido, recordar el origen de esta fecha que nace anclada en una tradición europea de institucionalización de derechos, resulta relevante, no para reproducir modelos, sino para dialogar críticamente con ellos y construir respuestas propias desde nuestros contextos locales. La protección de datos adquiere pleno significado cuando logra traducirse en límites efectivos al poder estatal y privado, y en garantías concretas para las personas. Por ello, debe entenderse como parte de un proyecto más amplio de justicia digital y afirmación de derechos.

Diversidad cultural bajo asedio algorítmico: folklorización, silenciamiento y colonización de nuestros patrimonios culturales

El diseño, entrenamiento y despliegue de tecnologías está transformando nuestras sociedades en los ámbitos económico, social y político. Sin embargo, este debate suele dejar en un segundo plano cómo la IA está reconfigurando los modos en que la cultura se crea, promueve, accede y experimenta, con implicaciones profundas para el ejercicio de los derechos culturales.

Estos derechos son fundamentales en tanto protegen el desarrollo y la manifestación de las identidades culturales, y garantizan que personas y comunidades puedan expresar sus cosmovisiones y los significados que atribuyen a su existencia. Esta expresión se materializa a través de formas diversas de la experiencia humana que incluyen las artes, el patrimonio cultural, las lenguas, los sistemas de conocimiento, las convicciones, las creencias religiosas, e incluso prácticas cotidianas como la alimentación y la vestimenta.

En otras publicaciones hemos analizado las implicancias de la IA para el campo de los derechos culturales, puntualmente para la creación artística y la creatividad. En esta columna, problematizaremos a la IA como producto de hegemonías culturales y, a la vez, como infraestructura tecnológica que condiciona los marcos en los que la cultura se produce, circula y valora socialmente. Partimos de la premisa de que cuando los sistemas de IA se entrenan con información cultural del Norte Global, así como bajo lógicas coloniales y extractivistas, los resultados sesgados y discriminatorios no son accidentales, sino que reflejan las dinámicas de inclusión y exclusión presentes en los datos de entrenamiento y en los procesos de diseño. Como consecuencia, las culturas, las lenguas, los conocimientos y las formas de expresión del Sur Global están constantemente ausentes o mal representadas en los contenidos asistidos o generados por esta tecnología.

Resaltaremos la importancia de proteger, hoy más que nunca, la soberanía y la autodeterminación de las comunidades de nuestra región sobre sus datos culturales. Algo imprescindible frente a la creciente expansión de sistemas de IA que tienden a producir una visión de la cultura homogénea, estandarizada y colonial. Los argumentos presentados a continuación están basados en una contribución conjunta presentada por Derechos Digitales y Asociación para el Progreso de las Comunicaciones (APC) ante el Mecanismo de expertos sobre el Derecho al Desarrollo de Naciones Unidas.

¿Cómo nos ven los grandes modelos de IA?

Diferentes investigaciones vienen señalando que los modelos de IA de las principales compañías tecnológicas no están diseñados para narrar con precisión aspectos culturales de los países del Sur Global. En algunos casos, esto se traduce en imprecisiones que reflejan desconocimiento y, en otros, en la reproducción de estereotipos e imaginarios simplificados que desdibujan la especificidad de identidades y expresiones culturales diversas.

Un claro ejemplo se observa en un estudio de la Universidad Diego Portales, en el que se generaron más de dos mil imágenes utilizando la herramienta Dall-E para analizar la percepción de los outputs de la IA sobre Chile y América Latina. Los resultados fueron desalentadores: la IA reproducía sesgos culturales, desigualdades, prejuicios, estereotipos de género y raciales. Así, al pedirle a la IA que generara imágenes a partir del prompt de «una mujer mapuche», los resultados mostraban a mujeres de cabello castaño, nariz respingada, ojos grandes y piel clara. Además, su vestimenta mezclaba elementos de diversos pueblos originarios de Latinoamérica y, en algunos casos, incluía plumas en la cabeza, algo característico de culturas indígenas norteamericanas.

Lo anterior refleja una problemática clara de la IA frente a la diversidad cultural: la mitificación, ficción y folklorización de las formas de expresión y las comunidades de regiones del Sur Global. A saber, las principales herramientas de IA amplifican ciertas estéticas y narrativas, mientras silencian y tergiversan otras, influyendo en cómo se representan las culturas en los entornos digitales y fuera de ellos. En esa medida, aquellas narrativas culturales alineadas con las normas dominantes -a menudo del Norte Global- son priorizadas, mientras que las expresiones e identidades de regiones pertenecientes al Sur Global están infrarrepresentadas o, peor aún, mal representadas.

Las implicaciones sociales y políticas de este escenario resultan preocupantes en el contexto tecno-político que vivimos. Estos sistemas -por su diseño y escala- no solo pueden profundizar jerarquías dominantes sino también generar nuevas formas de exclusión al promover la homogeneidad cultural y estética, con impactos directos en la diversidad cultural. Esto deteriora las condiciones del acceso y la transmisión de la cultura, a la vez que obstaculiza los esfuerzos de independencia, soberanía y autorrepresentación de comunidades históricamente marginalizadas, quienes continúan excluidas de las expresiones culturales dominantes.

Colonialismo digital extractivista

Otra problemática vinculada al diseño y entrenamiento de los grandes modelos de IA son las prácticas extractivistas y coloniales sobre los datos culturales de comunidades del Sur Global. En efecto, organismos internacionales de derechos humanos ya lo están advirtiendo: las empresas tecnológicas tratan los datos derivados de los patrimonios culturales como simples insumos para sus sistemas, despojándolos de los significados que les atribuyen las comunidades y sin beneficios reales para ellas.

Desde luego, los inventarios de datos que alimentan dichos sistemas rara vez se crean de forma participativa y transparente, o se rigen por marcos de derechos humanos con el fin de promover la diversidad cultural, comprenderla y protegerla. En contraste, lo que prevalece son prácticas de recopilación de datos culturales que priorizan el beneficio económico, normalmente sin consultar a las comunidades ni solicitar su consentimiento, y sin informarles sobre los objetivos de la recopilación.

Algunos estudios nombran esta postura extractivista como colonialismo digital. Se caracteriza por la construcción de un imperio algorítmico en el que los patrimonios culturales se convierten en materia prima de los sistemas de IA dominantes, extraídos de forma selectiva, descontextualizada, y sin favorecer realmente a las comunidades. Bajo esta lógica, al igual que las potencias coloniales extraen los recursos naturales de nuestras tierras, los grandes modelos de IA extraen idiomas, historias y conocimientos de las comunidades, los separan de su contexto y significado originales, y los vuelven a ofrecer de forma tergiversada para su consumo global.

Lo anterior no solo perpetúa la ya mencionada malrepresentación de las culturas y formas de expresión del Sur Global, sino que erosiona la autodeterminación cultural de las comunidades. El derecho a determinar libremente el desarrollo y destino de sus culturas fue señalado por organismos regionales de derechos humanos como un pilar fundamental para preservar las tradiciones y los sistemas de significado y conocimiento. Por tanto, la omisión y negativa de las empresas que controlan la infraestructura global de la IA frente a la capacidad de decisión de las comunidades sobre sus formas de expresión cultural, cómo, hasta qué punto y bajo qué términos se les incluye en los conjuntos de datos de entrenamiento, influye determinantemente en el ejercicio pleno de derechos fundamentales, como los culturales.

Soberanía sobre los datos culturales y el derecho a la autodeterminación cultural

Frente a este escenario, ya emergieron múltiples iniciativas de IA impulsadas por comunidades, academia y sociedad civil del Sur Global. A través de enfoques situados, disputan las lógicas dominantes del desarrollo de la IA, priorizando la programación y el diseño participativo, así como criterios de pluralidad y liderazgo de las comunidades.

Un ejemplo destacado es “AIkuaa”, una herramienta que permite transcribir a texto grabaciones de audio en guaraní, uno de los idiomas oficiales de Paraguay y una de las lenguas indígenas más habladas en América Latina. Según sus creadores, los modelos de lenguaje de gran tamaño (LLM) ampliaron la brecha digital, ya que lenguas como el guaraní se encuentran infrarrepresentadas debido a la falta de datos en su entrenamiento. Frente a esto, el objetivo es crear un repositorio de conocimiento abierto que permita que las organizaciones, la comunidad y los medios de comunicación puedan responder mejor a las audiencias que hablan guaraní. Como metodología, desarrollan “mingas de voces abiertas” -inspiradas en los espacios tradicionales de trabajo comunitario- para seleccionar y validar las frases en guaraní que enriquecen los conjuntos de datos públicos de voz.

Otro caso relevante es “AfroféminasGPT”, una herramienta diseñada para fortalecer el pensamiento afrofeminista y decolonial, con especial foco en las mujeres negras y personas racializadas. AfroféminasGPT no tiene acceso a Internet de forma deliberada, lo que implica que no incorpora información en tiempo real desde la web sino que opera a partir de una serie de textos y materiales que fueron cuidadosamente curados. Este elemento, lejos de ser una limitación técnica, constituye una elección ético-política que busca evitar la incorporación automática de narrativas dominantes y coloniales sobre las experiencias, saberes y luchas de comunidades negras y racializadas. En ese sentido, la herramienta se nutre de fuentes originales producidas desde perspectivas afrofeministas y decoloniales, con el objetivo de contrarrestar la producción de narrativas blanqueadas, tergiversadas o desinformadas.

En un escenario mundial en el que un número reducido de actores, como OpenAI, ChatGPT, Google Gemini, Meta AI y Microsoft Copilot, concentra el desarrollo de sistemas de IA que jerarquizan y visibilizan contenidos culturales, iniciativas como las anteriormente descritas adquieren una relevancia particular y permiten el acceso a contenidos culturales guiados por principios como la participación y la diversidad.

A lo largo de esta columna, hemos problematizado algunas implicaciones de la IA para la cultura, argumentando cómo las comunidades menos representadas en los sistemas de datos suelen ser también las más perjudicadas por sus decisiones y resultados estereotipados y sesgados. Este panorama pone de relieve la importancia de la soberanía sobre los datos culturales y el derecho a la autodeterminación cultural, dos principios fundamentales de herramientas contrahegemónicas de IA que fueron impulsadas por comunidades históricamente marginalizadas. Estas alternativas desafían el dominio de los gigantes tecnológicos y demuestran la urgencia de repensar y rediseñar la tecnología desde la riqueza cultural del Sur Global, asegurando que las iniciativas se construyan desde, y en respuesta a, los conocimientos y las necesidades culturales locales.

Gigantes tecnológicos en la cadena agroalimentaria: concentración corporativa y más dependencia del campesinado

Los precios de los alimentos en el mundo se incrementan día a día. Más allá de contextos específicos, como pueden ser guerras o desastres naturales, la responsabilidad de la inflación alimentaria se suele identificar fácilmente: el control monopólico de las corporaciones agroalimentarias. 

En el contexto de penetración de las Big Tech en casi todos los ámbitos de la vida, la cadena productiva de alimentos no se queda afuera, y hasta puede empeorar ese escenario. Alianzas entre gigantes del agro (Bayer, Syngenta, Cargill, por ejemplo) con gigantes del sector de tecnologías (Google, Meta, Microsoft, Amazon, entre otras) encienden alarmas y preocupaciones, especialmente entre comunidades campesinas e indígenas. Investigaciones recientes alertan sobre la profundización de su dependencia, la conversión de saberes colectivos ancestrales en mercancía y una posible exacerbación en la contaminación. En las próximas líneas, analizaremos los impactos de esta digitalización de la agricultura en los derechos campesinos.

Gigantes del agronegocio digitalizado

La concentración corporativa en el agro no es una novedad: los oligopolios ya dominan la cadena alimentaria mundial. Estas empresas controlan desde las semillas, genéticamente modificadas, hasta los llamados insumos agrícolas: agrotóxicos y fertilizantes para monocultivos, insostenibles por su impacto ambiental y deterioro de la tierra. Un sistema que genera consecuencias directas en los modos de producción campesinos, quienes sostienen la “columna vertebral” de la alimentación en nuestra región.

Esta industria ha entrado ahora en una nueva etapa. Según el nuevo reporte del Relator de la ONU sobre Derecho a la Alimentación, las empresas agroalimentarias están recurriendo cada vez más, mediante la digitalización, a las nuevas tecnologías digitales y al procesamiento de grandes cantidades de datos para desarrollar sus negocios. El documento plantea que estas innovaciones crean “nuevos desafíos en materia de derechos humanos en los sistemas alimentarios”. El último informe del Grupo ETC sobre el tema, describe al fenómeno como un “Caballo de Troya en los campos”: bajo la promesa de tecnología e innovación, esconde más control corporativo y menos autonomía para las comunidades agricultoras.

Acelerada por la pandemia del Covid-19, la digitalización del agro es promocionada por las transnacionales del sector como solución a ciertos problemas del cambio climático, y una transformación inevitable para lograr un modelo productivo más eficiente, como lo viene planteando hace años también el Banco Mundial. Con ese bombo publicitario y marketinero, florecen las startups de agricultura digitalizada (“AgriTech” en sus términos) en la región, donde Argentina y Brasil albergan casi 3/4 partes de las empresas de esta índole.

La semilla del bot en los campos

Ya no resulta extraña la presencia de drones en los cielos, sensores en los suelos, tractores guiados por GPS o productores trabajando con tablets y dispositivos donde utilizan aplicaciones y sistemas específicos para sus tareas. La digitalización en la agricultura implica el uso generalizado de herramientas como la IA, la ciencia de datos y la biotecnología para mapear tierras, almacenar información y crear nuevos sistemas digitales para gestionar los modos de producción rural.

La alianza entre Big Tech y corporaciones monopólicas de la agroindustria está promoviendo una datificación del conocimiento vinculado a agricultura y del comportamiento de los ecosistemas y bienes naturales comunes, como nunca antes. Se trata de un extractivismo masivo de datos que, además, en muchos casos están vinculados con historias y tradiciones comunitarias y colectivas. Quienes tengan mayor capacidad de recolectarlos y controlarlos, serán quienes puedan modelar los sistemas alimentarios y las políticas agrícolas para su propio beneficio, un mercado de negocios que no considera a la alimentación como un derecho humano y menos reconoce la existencia de derechos campesinos. No se trata de cuestionar la introducción de nuevas tecnologías en abstracto, sino más bien de preguntarse al servicio de quién están, quiénes las controlan, qué modelos productivos profundizan y qué tratamiento de datos hacen.

Repasemos algunos de los principales riesgos de este proceso. Suscribirse a un modo de producción gestionado a través de una plataforma digital implica para las y los agricultores una dependencia aún mayor: se vuelve un circuito en el cual desde la toma de decisión de qué semilla plantar hasta el sistema de pagos y cobros, todo debe pasar por servicios virtuales. El Relator de la ONU lo plantea con claridad: “En estas nuevas explotaciones digitales, los agricultores dejan de actuar según su libre determinación y en su lugar pasan a ser objetos de cosecha”. Como en la mayoría de los trabajos regulados por plataformas, no hay reglas claras y transparentes sobre el uso de datos ni políticas de privacidad sólidas, lo cual no sólo da lugar a la explotación de esos datos en términos mercantiles, sino que también habilita nuevas prácticas de control, que algunos grupos denominan como “agricultura de la vigilancia”. Considerando que América Latina es una de las regiones más hostiles para defensores y defensoras ambientales, esta forma de espionaje resulta preocupante.

Además, en una región con una gran brecha digital, donde muchos de nuestros países enfrentan las tarifas más elevadas de internet móvil del mundo, el acceso a la red ocasiona nuevos gastos a las comunidades, lo cual empeora sus condiciones de vida en los territorios. Más aún si consideramos los altos costos de la maquinaria inteligente. Sumado a esto, y siguiendo las conclusiones del informe de ETC, se estima que millones de puestos de trabajo en el campo serán sustituídos por drones y robots, sin planificar nuevas fuentes laborales para el sector. En algunos países, incluso se les prohíbe reparar su maquinaria porque contiene software patentado. Por último, como ya venimos planteando en Derechos Digitales, la enorme demanda de recursos naturales, como agua y energía, para alimentar toda la infraestructura digital necesaria para estos emprendimientos, es posible que traiga mayores niveles de contaminación y profundización de la crisis climática.

El big data en la agricultura se convierte así en una herramienta de dependencia, vigilancia y control que pone en riesgo la autonomía campesina y la biodiversidad agrícola.

¡A desalambrar las tecnologías!

“El mundo no necesita ni más datos ni más alimentos, sino que las personas tengan más autoridad y control sobre los datos en los sistemas alimentarios”, advierte la ONU. Como se dijo unos párrafos más arriba, no estamos poniendo en discusión la incorporación de las tecnologías digitales, sino más bien qué uso se les da y los modelos que sustentan. Las comunidades campesinas pueden hacer una utilización favorable de las herramientas tecnológicas, que aporten al bien común y no a las ganancias concentradas en unas pocas manos. ¡Y muchas ya lo vienen experimentando!

Las organizaciones que planifican integralmente modelos agroalimentarios alternativos desde los territorios, piensan en cada etapa del circuito: desde que el alimento se siembra (sus insumos, la fuerza de trabajo, etc) hasta que llega al plato de comida de las personas en sus casas (el comercio, traslados, etc). Existe una idea-frase bastante utilizada, que sintetiza muy bien esta propuesta: “Del campo a la mesa”. Por ello, las experiencias de colectivos vinculados al trabajo rural, a la defensa del ambiente, a comunidades indígenas, y a los derechos digitales, pueden abarcar distintos eslabones de este modo de producción, basado en la nociones de Agroecología y Soberanía Alimentaria.

El proyecto Territorios Libres, Tecnologías Libres, impulsado por Intervozes junto a comunidades quilombolas y rurales de Brasil, fue una iniciativa que marcó un interesante precedente en lo que respecta a analizar los usos y concepciones de las Tecnologías de la Información y las Comunicaciones (TIC) en territorios campesinos. A la vez, existe la Red de Evaluación Social de Tecnologías en América Latina (Red TECLA) que abarca algunos proyectos dedicados a la agricultura. La Herramienta de monitoreo de los pueblos para el derecho a la alimentación, proyecto de la Red Mundial por el Derecho a la Alimentación y a la Nutrición, sirve de guía a las comunidades, los movimientos, la sociedad civil, el mundo académico e incluso el funcionariado público en el monitoreo del derecho humano a una alimentación y nutrición adecuadas. Además, la Asamblea de Innovaciones de Base para la Agroecología (GIAA en inglés) es una articulación global que está fortaleciendo experiencias de tecnologías de base aplicadas a la agroecología.

Si pensamos en la cadena productiva, hay desarrollos vinculados directamente con los momentos de la siembra y los cultivos, como por ejemplo la aplicación Lunagro (FIAN Colombia), un calendario agropecuario basado en la interpretación del ciclo lunar. Además, La Mierda de Vaca brinda cursos presenciales y a distancia sobre cómo llevar adelante una agricultura orgánica.

Tanto el aislamiento y distanciamiento preventivo que impuso la pandemia del Covid-19, así como también los debates que introdujo respecto a la alimentación saludable, llevaron a un incremento exponencial en la demanda de bolsones de verduras orgánicas o agroecológicas por parte de la ciudadanía. En Argentina, Más Cerca es Más Justo, y en Brasil, Alimento de Origem, son ejemplos de las decenas de plataformas pertenecientes a redes de comercio justo existentes en América Latina, las cuales buscan nuevas formas de intercambio, evitando intermediarios y sobreprecios, y conectando más estrechamente a productores con consumidores.

Para poder aprovechar las imágenes satelitales en beneficio de la producción local y la conservación de bienes comunes naturales, muchas organizaciones trabajan con Organic Maps, una aplicación GPS y de mapas sin conexión centrada en la privacidad, desarrollada por la comunidad de código abierto. También, existen numerosos proyectos que unen activismo, sector académico y comunidades, como por ejemplo “Gobernanza Hídrica con el pueblo originario Yaqui en México”, analizado en nuestro Glimpse 2024, ideado para desarrollar estrategias efectivas de gestión comunitaria del agua.

Por último, vale destacar la importancia de sitios de información y debate que impulsan la agenda de estos movimientos y favorecen la divulgación de ideas vinculadas con modelos alimentarios alternativos. Entre ellos, podemos mencionar a Agro é Fogo, quienes difunden  “el rastro del fuego del agronegocio global”; BiodiversidadLA, desarrollado por la  Coordinadora Latinoamericana de Organizaciones del Campo – Vía Campesina; y Agencia Tierra Viva, impulsada por la Mesa Agroalimentaria Argentina, entre muchas otras iniciativas regionales.

Soberanía alimentaria y digital para vivir mejor

Los desafíos que viene planteando la digitalización en el campo son variados y complejos. Mientras se impulsan tecnologías digitales desde la sociedad civil y el Estado para el beneficio de las comunidades y los territorios, es fundamental generar marcos normativos nacionales, regionales y globales, que puedan proteger la privacidad y los datos en manos de las corporaciones que están desarrollando la datificación en el sector rural. El Estado de Brasil diseñó hace algunos años el Cadastro Ambiental Rural (CAR), como una herramienta que podría ser útil para monitorear el ambiente y los territorios, lo que dio lugar a un debate más que pertinente desde Data Privacy en relación a los datos personales de integrantes de comunidades. Incluso, algunos sectores vienen planteando como alternativa tratar los datos del sistema alimentario como un bien público para abordar esta problemática. Necesitamos que se reconozcan y protejan los saberes tradicionales del campesinado, como así también sus derechos colectivos, para potenciar herramientas tecnologías que respeten estas particularidades.

La complejidad del tema y los gigantes involucrados nos obliga a afinar los diagnósticos y, sobre todo, propiciar articulaciones entre el movimiento de los derechos digitales y las organizaciones campesinas e indígenas para dar respuestas integrales. Por ejemplo, unos años atrás, IT for Change publicó el reporte “Las oportunidades del ecosistema digital para la agricultura india” como resultado de un ciclo de encuentros de debate e intercambio entre diversos actores implicados en estos asuntos.

Podemos discutir la digitalización, la datificación, cómo se obtienen los datos, dónde se alojan y quiénes tienen control sobre ellos, pero si no abordamos las preguntas radicales sobre nuestros modos de vida y de alimentación, es probable que nos perdamos en el camino. ¿Para qué necesitamos tecnologías digitales en los sistemas agroalimentarios? ¿Qué papel tienen las comunidades campesinas e indígenas en la definición de estas nuevas herramientas a incorporar en los modos de producción? ¿Qué modelos priorizan la soberanía alimentaria y digital, y los derechos campesinos y de comunidades indígenas en su autodeterminación?

Lo que está en juego no es solo el acceso a nuevas tecnologías, y el resguardo de los datos, sino, principalmente, la soberanía alimentaria de los pueblos y el derecho humano a decidir cómo producir y consumir nuestros alimentos, de manera justa y sustentable.

Bots y elecciones: los nuevos influencers automatizados

A fines de julio, tras varias semanas cayendo en las encuestas, Evelyn Matthei, candidata de la derecha tradicional chilena agrupada en la coalición Chile Vamos, acusó al candidato de la derecha más extrema José Kast, del Partido Republicano, por la puesta en marcha de una campaña de desinformación en su contra a través de redes sociales. La información que se hizo circular ponía en duda la salud mental de la candidata de Chile Vamos y, por ende, su capacidad para gobernar. El hecho generó un gran revuelo, pues la coalición de Matthei y el partido de Kast se encontraban en plenas negociaciones para conformar una lista parlamentaria única.

En ese contexto, un equipo periodístico del canal Chilevisión realizó un reportaje donde investigó algunas cuentas de redes sociales que reiteradamente atacaban a las candidaturas tanto de Matthei como de Jeannette Jara, candidata única de la centro izquierda que representa al oficialismo. El informe periodístico se centró en el comportamiento de cuentas anónimas que, desde hace algunos años, vienen publicando noticias falsas en contra del actual gobierno y de las candidatas. La investigación logró dar con el nombre de dos personas que estarían detrás de las cuentas investigadas, ambas ligadas al Partido Republicano.

Otro reportaje, del medio digital Reportea junto a Vergara 240, reveló más nexos: la Asociación de Administradoras de Fondos de Pensiones (AAFP) financió secretamente a la fundación “Ciudadanos en Acción”, la cual es dirigida por Bernardo Fontaine, actual integrante del comando de Kast. La investigación develó que la AAFP costea a la fundación desde 2019, a través de la agencia Artool, con el fin de articular campañas en contra de proyectos de reformas previsionales y de determinadas candidaturas presidenciales. La estrategia consistía en generar contenido digital en base a las directrices de la AAFP y con pagos en distintas direcciones para aumentar la viralización. Por un lado, a través de publicidad paga en Meta (para Facebook e Intagram) con un monto que supera los 200 millones de pesos -USD 215.000-. Además, dinero entregado a influencers para producir mensajes en contra de las reformas. Y, por otro lado, notas pagas en medios digitales, y masificación de contenidos del medio a través de una extensa red de bots, como parte del trato. Un elemento que resulta llamativo es que las personas financiadas para defender los intereses de la Asociación, tanto a través de cuentas públicas como anónimas, son las mimas denunciadas en el reportaje de Chilevisión de atacar a las candidatas presidenciales.

Estas revelaciones resultan preocupantes para los valores democráticos, no sólo en función de poder garantizar elecciones libres y transparentes, sino también desde una perspectiva de género. De las ocho candidaturas para esta votación, las únicas que sufrieron ataques cibernéticos son “casualmente” Matthei y Jara, las dos candidatas mujeres, reflejando un claro ejemplo de violencia política de género.

En el transcurso de estos meses, se estuvo hablando del uso de “bots” para describir el comportamiento mediante el cual cuentas anónimas se coordinaban para generar campañas de desinformación. Pasado un tiempo -y junto al abordaje de más medios-, se comenzó a diversificar el vocabulario, incluyendo los términos “troll” y “hater” para explicar lo que las investigaciones han develado. El objetivo de esta columna es aproximarnos a entender el funcionamiento de los bots, pero para ello primero haremos la distinción entre estos términos.

¿Qué son los trolls y los bots?

Estos conceptos ya forman parte del lenguaje propio de internet, por ello originalmente aparecen en inglés. Se aplican a redes sociales, foros y, más en general, a cualquier tipo de plataforma digital que permita la interacción entre personas usuarias, en especial si esa interacción puede dirigirse también a figuras públicas.

El término “Trolls”, originario de la mitología escandinava, se utiliza para referirse a cuentas anónimas que generalmente publican mensajes provocadores, desinformaciones o discursos de odio con la intención de perjudicar a ciertas personas o grupos, generando daños en su imagen pública. Su comportamiento es deliberado: son conscientes de que lo publicado es falso o abusivo.

Por su parte, “Bot” es un término coloquial que resulta de la abreviación de la palabra “robot”. Los bots son cuentas que funcionan de forma automatizada, mediante programación. Su accionar buscar producir mensajes o reacciones, incluso generar mayor volumen en la difusión de un mensaje, mediante interacciones que simulan ser humanas.

Los bots y su relación con internet, un poco de historia

Los bots con parte de la historia y de la arquitectura de internet: los primeros de los que se tiene registro datan de 1988. Ese año se creó el protocolo de mensajería de texto “Internet Relay Chat” (IRC), el cual fue muy popular durante sus primeras décadas y aún sigue vigente en nuestros días. Los bots que funcionaban bajo IRC consistían en programas computacionales que automatizaban algunas tareas dentro del sistema de mensajería.

A medida que internet crecía y diversificaba sus servicios, los bots se fueron adaptando a cada uno de ellos. Uno de los usos más relevantes que han tenido consiste en formar parte de los algoritmos de búsqueda a través de bots que indexan sitios web. Es así como, en 1994, se crea el primer indexador de sitios web que, un año más tarde, sería usado por AOL. Ya en 1996, una incipiente startup que hoy conocemos como Google lanzaba su bot BackRub para indexar el contenido de internet. Si bien los bots tienen un sinfín de utilidades legítimas, también se usaron para otros fines menos amables. A lo largo de la historia de internet, se han registrado numerosos ataques, de distinta índole y envergadura, a través de mecanismos como pueden ser la “denegación de servicio” o el “ransomware”.

En el mundo de las redes sociales, los bots son programas informáticos diseñados para simular interacciones humanas de forma automática. En la actualidad, es muy recurrente que las empresas generen canales de comunicación vía mensajería para responder a preguntas frecuentes -con mayor o menor éxito- mediante el uso de estos dispositivos.

En contextos donde proliferan las narrativas basadas en discursos de odio y desinformación, los bots son la herramienta predilecta para amplificar el alcance de esos mensajes. A través de la republicación de posteos o la interacción de los “me gusta”, pueden lograr la viralización de contenidos falsos o engañosos. Un ejemplo paradigmático en nuestra región fue la campaña de desinformación masiva que llevaron adelante los opositores de Evo Morales en 2019 para lavar la imagen del golpe de Estado y sumar simpatizantes. Hay evidencias que indicaron la existencia de una maniobra coordinada en redes sociales -decenas de miles de cuentas en Twitter creadas en pocas horas- para influir en la agenda pública global. El objetivo era imponer la idea de que el golpe no había sido tal y que el expresidente Morales estaba vinculado al narcotráfico y había propiciado un fraude electoral.    

Pescando bots: ¿cómo se pueden identificar interacciones artificiales?

Si bien las interacciones de estas cuentas automatizadas pueden parecer reales, existen algunos detalles que nos pueden ayudar a identificar que son artificiales. Vamos a repasar estos elementos.

  • Cuentas falsas: sus fotos de perfil no corresponden a una persona, los nombres de usuario parecen serializados con números largos luego de algún nombre o palabra.
  • Antigüedad de las cuentas: en muchos casos son cuentas que no poseen muchos años, o bien fueron creadas en un período acotado de tiempo.
  • Tendencias no orgánicas: cuando un contenido se viraliza y se convierte en tendencia de forma natural, sucede porque muchas personas lo comparten mediante una interacción distribuida entre numerosas cuentas, de forma no jerárquica. En el caso de tendencias generadas por bots, se puede notar que existe una, o un par de cuentas centrales, desde las que se cuelgan muchas otras para compartir, lo que demuestra un comportamiento mucho más jerárquico. En general identificarlo requiere de un análisis técnico pues es complejo notarlo a simple vista.
  • Comportamiento anormal: otro factor común es que muchas de estas cuentas solo comparten contenido de ciertos “usuarios” de forma reiterada. También es posible notar que al publicar comentarios, estos suelen ser inentendibles o confusos.

Los algoritmos generativos y los nuevos desafíos

Con la irrupción del uso masivo de algoritmos generativos, también llamados “Inteligencia Artificial Generativa” (GenAI), tales como ChatGPT, Gemini o DeepSeek, surgen nuevos desafíos a la hora de determinar cuándo es un programa el que está interactuando.

En marzo de este año, un estudio realizado por la Universidad de California evidenció que el modelo GPT-4.5 logró aprobar con 73% de efectividad la prueba de Turing. Esta prueba consiste esencialmente en que personas interactúan, a través de mensajería, con otras personas y con máquinas con el objetivo de determinar cuál es cual. Si la persona no logra distinguir entre la máquina y la persona, entonces se considera que el programa o la máquina pasó la evaluación.

El avance de los modelos nos propone nuevos retos al momento de reconocer cuándo un bot es el que está interactuando en las redes sociales, por lo que la tarea de generar análisis certeros se vuelve aún más compleja. Es importante considerar que el estado de desarrollo de los algoritmos generativos, no solo permite producir textos sino que también ya genera o manipula imágenes, audios y videos. Dicha gama de recursos agrega otro grado más de complejidad en la detección.

Desde el caso Cambridge Analytica, muchas organizaciones pusieron el foco en el efecto de las redes sociales sobre procesos eleccionarios. De la misma forma, podemos pensar en la influencia que tienen sobre temas sensibles de las agendas nacionales y regionales, y cómo a través de los bots determinados grupospueden lograr invisibilizarlos o atacarlos para obtener réditos en sus posturas.

Las redes sociales son un entorno complejo, por lo que encontrar una solución real al problema de los bots y la desinformación también puede resultar dificultoso. Aún así, deben existir medidas que puedan ayudar a mitigar su impacto: regulaciones efectivas que, sin la necesidad de una censura y acorde a los estándares de derechos humanos, puedan generar transparencia sobre las acciones que se deben ejercer ante las plataformas. Asimismo, es imprescindible que las corporaciones dueñas de las redes sociales tengan la voluntad de abrir canales para la colaboración con los entes encargados de velar por el cumplimiento de esas regulaciones. Desde Derechos Digitales, esperamos que “las plataformas digitales se preparen, teniendo una amplia colaboración con las autoridades, pero también con una serie de acciones proactivas que promuevan la transparencia de sus actos ante la desinformación”, tal como lo mencionamos en una columna, en virtud de las elecciones mexicanas de 2024.

Es de suma importancia que todos los actores interesados -legisladores, empresas tecnológicas, sociedad civil y academia- puedan trabajar para la construcción de ambientes eleccionarios democráticos, justos y participativos. Procesos electorales con mecanismos claros para combatir la desinformación, que no solo consideren el marco regulatorio, sino que también apunten a otras políticas como el fomento de campañas educativas que brinden a la población habilidades y herramientas para la detección de noticias falsas.

Miente, miente, que algo(ritmo) quedará

Se acerca una nueva elección presidencial y parlamentaria altamente polarizada en la región, esta vez en Chile. En respuesta a temores sobre rumores y noticias falsas, el gobierno y el Servicio Electoral lanzaron la campaña «Chile Vota Informado 2025», pidiendo evitar «que la desinformación se propague» y reiterando, a la vez, el lema «aguanta, chequea y comparte» que el gobierno chileno ha promocionado por más de un año y difundido hasta en forma de cumbia.

Como hemos declarado, la mentira política dista de ser una anomalía reciente, siendo más bien una táctica arraigada en la historia de la propaganda. Pero la preocupación tiene sentido. Como advierte el informe de la Relatoría Especial de la ONU sobre Libertad de Expresión, «cuando la libertad de expresión es suprimida, los procesos electorales están en peligro». Esta advertencia llega en un momento crítico para la región, donde múltiples países se enfrentan a ciclos electorales en medio de una creciente polarización y desconfianza institucional, y donde la capacidad de identificar la falta de autenticidad es necesaria para interactuar en el debate público. Sin embargo, el enfoque en la conducta individual desplaza parte de la responsabilidad hacia la ciudadanía, mientras las condiciones estructurales que producen desinformación permanecen intactas.

Innovando para mentir

Las narrativas de desinformación muestran notables continuidades a lo largo del tiempo. La acusación de fraude electoral aparece cíclicamente, como quedó demostrado tras las elecciones legislativas de 2022 en Colombia, donde las narrativas de fraude se difundieron ampliamente sin pruebas. Paralelamente, en las presidenciales de 2023 de Argentina circularon frases inventadas atribuidas a candidatos, mientras en los comicios de Perú del 2021 Convoca verificó imágenes falsas de supuestos conteos rápidos. Bolivia experimentó durante sus elecciones de 2025 una campaña sucia que tomó las redes sociales, con plataformas que parecían relajar sus políticas de moderación de contenidos en el contexto boliviano.

Esta persistencia de métodos más tradicionales contrasta con la innovación en herramientas. Una realidad presente hace más de una década: el crecimiento de la sofisticación en el uso de datos para la microsegmentación de destinatarias. El fin es llegar con más precisión a votantes a través de mensajes dirigidos a sus puntos de sensibilidad más probables, amparados en vacíos regulatorios o institucionales frente al uso de datos personales. Los antecedentes en herramientas de análisis de datos han sido ofrecidos mostrando que sería posible mapear preferencias políticas mediante minería de datos. Así, la datificación de la sociedad abre camino para formas más avanzadas de influencia electoral.

A eso se suma el uso de herramientas más complejas, como destacamos, junto a otras organizaciones, en nuestra contribución al informe de la Relatora Especial de las Naciones Unidas sobre la Libertad de Expresión y Opinión, Irene Khan. Las campañas políticas ahora enfrentan el desafío de contener mensajes sintéticos que pueden difamar candidaturas o atribuirles declaraciones nunca realizadas. Brasil vivió en 2024 una campaña municipal marcada por deepfakes, lo que llevó al Tribunal Superior Electoral a aprobar una resolución que prohíbe estos contenidos sintéticos y exige etiquetar el uso de inteligencia artificial en la propaganda. Mientras tanto, en Chile es parte de la propaganda diaria de una candidatura y sin mayores consecuencias.

La industria de la desinformación ha perfeccionado sus métodos, evolucionando desde la microsegmentación de audiencias hacia la producción de deepfakes. Esta sofisticación genera ahora una asimetría aún mayor entre quienes pueden producir desinformación convincente y quienes intentan verificarla, además de poner un manto de duda sobre el debate público.

Respuestas regulatorias: entre la prevención y la censura

Reconociendo -y hasta exagerando- los riesgos de la desinformación y fenómenos asociados a ella, en la región latinoamericana tanto los Estados como las plataformas digitales han ensayado diversas respuestas, con resultados dispares. En Chile se firmó en 2025 un compromiso de integridad electoral entre la autoridad electoral y actores privados y de la sociedad civil, que establece principios de defensa de la libertad de expresión y prevención del contenido falso. En Brasil, como fue comentado más arriba, el máximo tribunal con competencia electoral aprobó sanciones contra quienes elaboren o difundan contenido manipulado con IA. El panorama regulatorio se complejiza rápidamente y nuevas iniciativas normativas aparecen, aún si no llegan a convertirse en reglas.

Sin embargo, estas propuestas enfrentan dilemas fundamentales, como los riesgos de censura al utilizar nuevas herramientas supuestamente contrarias a la mentira. En contextos con una frágil independencia judicial, las leyes ambiguas contra «fake news» podrían usarse para silenciar voces disidentes, un riesgo que se extiende con la moderación automatizada. La Electronic Frontier Foundation (EFF) advirtió que las noticias falsas ofrecen a los poderes consolidados una oportunidad para censurar oponentes.

Ante estos desafíos, las respuestas puramente tecnológicas o punitivas muestran limitaciones conocidas: peligro de censura a nivel de regulación o de implementación u observancia, transferencia de responsabilidad hacia las plataformas digitales que las obligue a moderar más, y la eventual mala definición de lo que se intenta proteger o sancionar. La Comisión contra la Desinformación chilena entregó 72 recomendaciones que reconocen la naturaleza multifacética del problema, proponiendo soluciones que van desde la educación mediática hasta la transparencia algorítmica y el fortalecimiento del ecosistema informativo, bajo un mandato que se restringía a redes digitales. Las soluciones adecuadas pasan por fortalecer las instituciones democráticas, garantizar la independencia de órganos electorales, apoyar los medios comunitarios y promover la alfabetización mediática e informativa, lo que supera por mucho lo que ocurre en internet. Es decir, la realidad obliga a observar el problema más ampliamente.

Hacia una resiliencia democrática

La desinformación en contextos electorales manifiesta problemas más grandes de la sociedad, como falta de transparencia, concentración mediática, desigualdad económica y debilidad institucional. Esto merece cuestionar el relato que atribuye el problema principalmente a las redes sociales, y que culpa a la ciudadanía por compartir noticias falsas como quien culpa a las personas enfermas por su fiebre. No se trata de una batalla técnica por la verdad, sino de un desafío político y social por el espacio cívico que requiere respuestas integrales. Las campañas de sensibilización serán insuficientes si no se enmarcan en procesos más amplios de fortalecimiento democrático.

De cara a las elecciones más próximas en Chile y las del próximo año en la región (que incluyen, entre otras, presidenciales en Costa Rica, Perú, Colombia y Brasil), es urgente integrar una estrategia de resiliencia democrática. Esto requiere tomar con seriedad recomendaciones comunes: transparencia en propaganda política y en el uso de algoritmos; educación mediática e informativa desde las escuelas hasta espacios comunitarios; pluralismo informativo que incluya apoyo financiero a medios independientes; regulación proporcional que proteja la libertad de expresión; y participación ciudadana que promueva colaboración entre autoridades, academia, sociedad civil y plataformas en la formulación, implementación y evaluación de reglas. También, reforzar la protección efectiva de los datos personales frente a la recolección masiva, el uso en algoritmos de recomendación y la capacidad creciente de crear y distribuir contenidos dirigidos a percibidas vulnerabilidades en la sociedad.

La resiliencia democrática se construye también desde abajo. Las instituciones pueden fallar, pero las redes ciudadanas de verificación, la desatención a medios, programas e influencers dedicados a narrativas antiderechos, permite construir y reforzar las defensas de la sociedad. Campañas como «Chile Vota Informado» serán útiles si se enmarcan en procesos más amplios de fortalecimiento democrático. De lo contrario, se quedará en un eslogan bien intencionado que no aborda las razones profundas por las que la ciudadanía participa en la circulación de falsedades.

El negocio del iris: Colombia marca un precedente regional al frenar las operaciones de World Foundation y Tools for Humanity

El pasado 3 de octubre, la Superintendencia de Industria y Comercio (SIC) de Colombia, autoridad en materia de protección de datos personales, ordenó el cierre inmediato y definitivo de las operaciones de World Foundation y Tools for Humanity, por incumplir la legislación nacional de protección de datos. Además, les impuso la obligación de eliminar toda la información personal sensible bajo su custodia.

World Foundation, organización sin fines de lucro, administra el sistema de verificación de identidad basado en el iris conocido como World ID. Tools for Humanity, su socio operativo y compañía privada, es la creadora del Orbe -el dispositivo esférico de escaneo ocular-, además de la billetera digital World App y la criptomoneda Worldcoin (WLD).

Estas tecnologías, impulsadas por actores -entre ellos Sam Altman, CEO de OpenAI– con intereses que van desde lo social hasta lo comercial, convergen en una misma propuesta: construir una “prueba de humanidad” segura y anónima, un sistema capaz de distinguir a las personas reales de los bots en la era de la Inteligencia Artificial Generativa (GenAI), también promovida por el propio Altman.

En 2024, World -nombre que agrupa tanto a la fundación como a su rama con fines de lucro- inició operaciones en Colombia, llegando a 17 ciudades. Su desembarco se enmarcó en un intenso lobby ante la SIC, en un intento por demostrar la compatibilidad de su modelo de negocio con la legislación local.

Sin embargo, la llamada “prueba de humanidad” ha estado lejos de ser un modelo de negocio pacífico. Autoridades de protección de datos en Argentina, Alemania, Corea del Sur, España, Francia, Filipinas, Hong Kong, Kenia, Portugal, Tailandia, Italia, Perú y más recientemente Chile y Brasil, han alertado, investigado o suspendido total o parcialmente las actividades de ambas organizaciones. Las decisiones se tomaron principalmente por deficiencias en la información proporcionada sobre las condiciones del tratamiento de datos biométricos; recolección de datos sensibles de menores de edad sin el consentimiento de sus familias o tutores; e imposibilidad para que las personas titulares retiren o revoquen su consentimiento una vez otorgado.

El registro en el Orbe: un diseño técnico con profundas implicaciones jurídicas

El proceso de entrega de datos personales a World no ocurre en un solo momento ni bajo un único responsable: los datos atraviesan distintas etapas tecnológicas y jurídicas a lo largo de su ciclo de vida.

Primero, durante el registro inicial en la billetera digital (World App), se solicitan datos personales diversos: nombre, teléfono, correo electrónico, cuenta bancaria y otros metadatos asociados al dispositivo móvil. Información que es tratada por Tools for Humanity.

El registro permite localizar el Orbe más cercano y programar una cita para el escaneo. En esta fase, el dispositivo captura el iris y el rostro de la persona. La obtención masiva de este tipo de datos es el ingrediente clave para saciar el apetito de entrenamiento del algoritmo de World, que determina si uno es o no una persona humana. De esta información personal es responsable World Foundation.

Vale la pena añadir dos cuestiones en esta fase. Por una parte, que el escaneo del iris se transforma en menos de 10 segundos: la imagen del iris y rostro se convierte en un código hash cifrado, basado en un protocolo de blockchain, o sea, en una larga hilera de números y letras. Esto es así para dar mayor seguridad y privacidad a los datos, según World. Y por otra, que el hash cifrado se fragmenta y almacena entre terceros, es decir, se descentraliza su custodia con el objetivo de dar mayor seguridad y confianza, pues evita la concentración de información en un único actor.

Cuando el registro es exitoso, la persona usuaria recibe en su billetera un depósito de 10 WLD, equivalentes a aproximadamente 50 USD (unos 200 mil pesos colombianos). De este proceso se desprenden varios puntos críticos:

  • En la descarga y registro en World App, persiste el tratamiento de datos personales. Estos datos no son anonimizados, por lo que el titular conserva el ejercicio de sus derechos de actualización, rectificación, cancelación y oposición (ARCO).
  • En el Orbe, los datos personales dejan de serlo en cuestión de segundos. Por la velocidad con que acontece dicho proceso, World ha reconocido ante otras autoridades –como la de Brasil– que resulta técnicamente imposible retractar el consentimiento después del escaneo del iris.
  • Si la imagen del iris es efectivamente anonimizada, los responsables de su tratamiento no estarían, en principio, sujetos a la legislación de protección de datos, pues los datos dejarían de identificar o hacer identificable a su titular. Eso sí, se debe probar que ese proceso es irreversible, efectivo y permanente.
  • El cifrado, que protege la información de accesos no autorizados, es un componente que debe permear todo el ciclo de vida del dato, sea personal o no.

El análisis de la SIC: políticas de tratamiento y consentimiento

La SIC evaluó la compatibilidad de las políticas de tratamiento de datos de World App y World ID con la Ley 1581 de 2012, y llegó a estas conclusiones: no están disponibles en su mayoría en idioma español, no identifican un responsable del tratamiento en Colombia, no ofrecen mecanismos claros de consulta o queja, no especifican las finalidades del tratamiento ni los tipos de datos recogidos, y no contemplan procedimientos para ejercer los derechos ARCO. En el proceso ante la SIC emergieron dudas sobre la anonimización y el cifrado de los datos extraídos por el Orbe.

World no aclaró ante la autoridad las medidas de seguridad que aplica en esa tecnología de reconocimiento facial, donde las imágenes de los iris estarían más expuestas, ni ofreció pruebas claras de que el anonimato sea irreversible y efectivo, o que el cifrado se mantenga en toda el ciclo de vida del dato.

De hecho, un reporte de auditoría de 2024 del protocolo de cifrado de World, sugirió fallas críticas de seguridad que, según la SIC, no habrían sido solucionadas.

Ahora bien, si realmente se trata de información anonimizada, ¿cómo cambia esto las obligaciones legales de World Foundation y Tools for Humanity? Y, ¿qué deberes recaen sobre los terceros en quienes se descentraliza el almacenamiento de datos? Incluso antes de la anonimización, ¿cómo podría una persona titular ejercer el retracto o cancelación de su consentimiento una vez registrado en el Orbe? Y, ¿cómo obligar a World a garantizar ese derecho?

La SIC, por su parte, sostuvo que el código hash permitiría identificar o hacer identificable al titular del dato. De ser cierta esta afirmación, el proyecto World estaría poniendo en muy grave peligro el tratamiento de datos biométricos y fallando a la promesa detrás de su modelo de negocio.

También, la entidad determinó que las y los usuarios no otorgaron un consentimiento informado ni libre, no solo en razón a los defectos de las políticas de tratamiento de datos del proyecto World, sino a vicios en la libertad de acción de las personas: “el consentimiento que otorga el titular debe responder únicamente a su propia voluntad y no a la entrega de cualquier tipo de contraprestación que pueda condicionarlo” (p. 30).

Sobre este punto, vale la pena señalar que la autoridad brasileña de datos (ANPD) suspendió en ese país recientemente la entrega de criptomonedas por el escaneo del iris. En ese caso, World se defendió al calificar la entrega del WLD como un incentivo, no como una contraprestación. Una diferencia conceptual que la ANPD desvirtuó al señalar que, tratándose de personas vulnerables, los incentivos se convierten en salvavidas que terminan explotando los datos de quienes no tienen otra alternativa económica.

Ese enfoque habría enriquecido la decisión de la SIC, pues no deja de ser cierto que el despliegue de World se concentra mayoritariamente en países de rentas media y baja, y que sin ese “incentivo” no habría obtenido para enero de 2025 el iris de más de 10 millones de personas.

La estrategia de World: disputar lo procesal y fingir demencia

La respuesta de World Foundation y Tools for Humanity fue predecible: alegar violaciones al debido proceso, o sea, supuestos errores en la notificación de las decisiones de la autoridad que fueron remitidas a World Foundation, cuando la encargada de responder era Tools for Humanity, o viceversa. En este año y medio, sí se dieron por enteradas de cada respuesta y solicitud de la autoridad, como se lee en el proceso.

Frente a los requerimientos de la SIC sobre la legalidad de sus políticas de tratamiento, su defensa fue igualmente débil: afirmaron, entre otros, que la ley no los obligaba a detallar ciertos aspectos, como las medidas de seguridad aplicadas al tratamiento de los datos, o que hacerlo resultaba demasiado costoso, como designar un responsable local en Colombia. Argumentos que se derrumbaron por su propio peso, ¿a qué argumentos habrían acudido en 2024 en las acciones de lobby donde buscaban mostrar su adherencia a la norma local?

Las preguntas que quedan abiertas

Las incógnitas tras la decisión de la SIC son numerosas. Ambas organizaciones deben eliminar todos los datos personales obtenidos a través de World App y del Orbe, pero ¿cómo garantizarán que la información -incluso la que ha sido anonimizada- haya sido completamente retirada de los conjuntos de datos utilizados para entrenar a sus algoritmos? Y, ¿cómo se comprometerán a que no queden registros del código hash en manos de los “terceros de confianza”?

El caso de World en Colombia revela algunas de las grietas en el negocio de la “prueba de humanidad” que promete protegernos de los bots pero que termina, paradójicamente, enfrentándonos a un dilema más complejo: quién controla, con qué fines y bajo qué garantías, la prueba de que somos humanos.

Como quiera que sea, la decisión de la SIC marca un precedente relevante para América Latina pues nos remite de nuevo a preguntas que dejan de ser tecnológicas y se vuelven profundamente políticas: ¿cuál es el precio estamos dispuestos a pagar por demostrar que existimos? Y sobre todo, ¿cuál es la responsabilidad ética y jurídica de quienes generan “soluciones” tecnológicas inescrutables para problemas que en parte han contribuido en crear?

Derechos Digitales lanza “Consejos para el resguardo digital en protestas”, una guía para la protección de la ciudadanía en Ecuador y Perú

En las últimas semanas, Ecuador y Perú vienen atravesando contextos nacionales de fuerte conmoción social y política. Distintos organismos de Derechos Humanos, como la ONU y la Comisión Interamericana, han llamado la atención en ambos contextos para el respeto de la protesta pacífica y la investigación de presuntos de uso excesivo de la fuerza relacionados con posibles desapariciones forzadas, detenciones arbitrarias y homicidios que deben ser investigados de manera imparcial y diligente.

En cada caso, expresamos nuestra solidaridad e instamos a los Estados de Perú y Ecuador a garantizar, proteger y respetar el ejercicio de la protesta pacífica y a garantizar el derecho a la vida, la libertad y la integridad física de los manifestantes de conformidad con los derechos al debido proceso y la presunción de inocencia. Llamamos la atención de organismos internacionales en Derechos Humanos, la sociedad civil y otros Estados de la región para monitorear el desarrollo y desenlace de las protestas en cada caso y exigir transparencia y rendición de cuentas sobre la actuación de las autoridades estatales.

En medio de estos escenarios de convulsión social, de paros continuos y otras formas de manifestación y protesta ciudadana, sabemos que también está en juego la seguridad de las personas. Por eso, desde Derechos Digitales lanzamos “Consejos para el resguardo digital en protestas”, una guía con recomendaciones y recursos para que la población pueda ejercer sus derechos a la participación y la libertad de expresión, cuidando sus datos personales y su privacidad.

¿Qué está pasando en Ecuador y Perú?

El 22 de septiembre, organizaciones sindicales, indígenas y campesinas iniciaron un paro nacional en Ecuador. Por estos días, el paro continúa y aumentan las cifras de asesinatos, desapariciones, torturas y detenciones ilegales. El gobierno nacional sostiene un discurso de “guerra interna” contra el terrorismo y el narcotráfico para justificar las masivas violaciones a los Derechos Humanos.

En Perú, en medio de una crisis institucional, varios sectores vienen desarrollando jornadas de protesta social ante un gobierno nacional de transición. El pasado miércoles 15 se llevó adelante un paro y movilización, que dejó el saldo de al menos 75 personas heridas en el marco de represiones. La sociedad peruana reclama acciones inmediatas del Ejecutivo y el Congreso, reformas en el sistema político y la implementación de políticas de seguridad y empleo. Asimismo, la CIDH emitió una declaración donde urge al Estado peruano a garantizar que las decisiones políticas se adopten dentro del respeto al orden constitucional, y convoca al diálogo democrático.

En el marco de estos estados de conmoción social y política, en ambos países se evidencian casos de intromisión y patrullaje digital hacia la ciudadanía. Días atrás, más de 50 activistas y líderes sociales del Perú amanecieron con sus teléfonos celulares bloqueados. A su vez, en algunas regiones de Ecuador se está bloqueando la señal de internet, como vienen denunciando las organizaciones de Derechos Humanos, dejando a la población incomunicada y limitando la posibilidad de informar sobre lo que está ocurriendo.

“Consejos para el resguardo digital en protestas”

Participar, reclamar, informar y expresarse no pueden ser motivo de censura ni acoso digital. Los derechos de las personas deben respetarse tanto en línea, como fuera de ella. Ante los contextos de protestas en Ecuador y Perú, Derechos Digitales pone a disposición esta guía con recomendaciones para la seguridad digital de la ciudadanía.

1. Usa servicios de mensajería segura y cifrada              

Si tienes que comunicar información sensible o tienes la sospecha de que puedes ser víctima de vigilancia estatal, la mejor aplicación de mensajería es Signal, no WhatsApp ni Telegram. Signal es diferente a WhatsApp porque casi no guarda información de las personas usuarias. Si la policía o una empresa le pide datos, esta compañía de mensajería lo único que puede entregar es la fecha en que la cuenta se creó y la última vez que se conectó, nada más. No guarda mensajes, ni fotos, ni contactos.

Para lograr que el mensaje llegue a buen puerto, te recomendamos que lo hagas con texto, si la conectividad no está muy bien o estás sufriendo algún tipo de inhibición las imágenes y los audios pueden demorar mucho en enviarse.

2. Protege tu identidad y la de terceros

Si vas a sacar fotos o grabar videos de protestas y otros actos, es importante proteger la identidad de terceros para que no sean identificados. Esto se puede hacer en la configuración del mismo Signal. Además, te sugerimos difundir el contenido después de la protesta, de esta manera se reduce el riesgo de exposición no intencionada de otras manifestantes.

3. Elimina los metadatos de las fotografías que tomes              

Signal quita los metadatos por defecto, por lo tanto las imágenes que envías ya no conservan esa información. Para poder eliminar los metadatos de tus fotografías de forma manual, puedes hacerlo acá para dispositivos con Android, y de esta manera en el caso de equipos con iOS.

4. Usa VPN para hacer más segura tu navegación              

Para resguardar tu navegación en Internet e impedir que te geolocalicen o que quede rastro de tu actividad existen muchos VPN. El VPN de RiseUp.net es una buena alternativa. Para dispositivos con iOS recomendamos ProtonVPN.

5. Desactiva la ubicación              

En el caso de Android: Configuración > Ubicación > Desactivar.

En el caso de IOS: Privacidad y seguridad > Localización (desactivar) / Rastreo (desactivar).

6. Utiliza mapas offline              

Si necesitas navegar con GPS, utiliza una aplicación de mapas offline como Organic Maps. Deberías descargarte previamente un mapa de la zona donde vayas a movilizarte. Organic Maps está disponible tanto para Android como iOS.        

7. Apaga tu teléfono o activa el modo avión

Como una medida alternativa, se puede apagar el teléfono o usarlo sólo en modo avión. Esto puede ser útil en caso de que autoridades soliciten a las compañías telefónicas datos sobre dispositivos conectados en determinadas zonas de conflicto.

8. Considera llevar un teléfono celular alternativo

Si tienes la posibilidad de conseguir un teléfono alternativo al que utilizas cotidianamente, lleva ese. Es mejor moverse en estos contextos con un dispositivo que no tenga historial de nuestra actividad en línea, ni contactos, ni información personal. Y siempre recuerda llevar tu teléfono con buen nivel de batería y con el cable para cargarlo (o una batería externa/portátil).

9. Respalda sitios web

Si sospechas que pueden dar de baja tu página u otro sitio web con información importante, te sugerimos realizar un respaldo permanente. Archive es un archivo de páginas web recomendado para esta tarea.

10. Revisa tu vestimenta

Para manifestaciones siempre se recomienda asistir protegidas, con pantalones largos y camisas con mangas largas para cuidado del cuerpo. Algún objeto o accesorio en la cara sirven doblemente: te resguardas tanto de gases lacrimógenos como de identificación no intencionada.

Otros recursos para proteger la seguridad digital durante protestas

La resiliencia digital en América Latina se construye hace tiempo desde las organizaciones de la sociedad civil. En este apartado ofrecemos más recursos y herramientas.

En la página de Derechos Digitales, se pueden encontrar artículos que puede ser de utilidad para este tipo de situaciones excepcionales. Por ejemplo, en esta columna ofrecemos consejos para poder asegurarse de eliminar mensajes ante el riesgo de intrusión. En otro texto, analizamos la huella digital, reflexionando sobre los datos y la privacidad y sugiriendo herramientas para su resguardo. También, armamos un recursero en esta columna, con la idea de fomentar la seguridad digital de las personas y activistas LGBTIQA+ específicamente.

Lo más actualizado, y focalizado en los contextos de Ecuador y Perú en particular, lo vienen impulsando organizaciones aliadas locales. La Libre, junto a INREDH y otros, lanzó una guía para usar Signal de forma segura. Además, junto a Taller de Comunicación Mujer, Centro de Autonomía Digital y Conexión Educativa difundieron consejos para poder informar durante una protesta cuando la señal del teléfono está inhibida o saturada. En Perú, Hiperderecho lanzó www.ciudadaniabajoataque.pe, una plataforma para documentar ataques y activar la defensa colectiva.

Algunas herramientas más promueven Surveillance Self-Defense, Espacio Público y Witness.