Bots y elecciones: los nuevos influencers automatizados

A fines de julio, tras varias semanas cayendo en las encuestas, Evelyn Matthei, candidata de la derecha tradicional chilena agrupada en la coalición Chile Vamos, acusó al candidato de la derecha más extrema José Kast, del Partido Republicano, por la puesta en marcha de una campaña de desinformación en su contra a través de redes sociales. La información que se hizo circular ponía en duda la salud mental de la candidata de Chile Vamos y, por ende, su capacidad para gobernar. El hecho generó un gran revuelo, pues la coalición de Matthei y el partido de Kast se encontraban en plenas negociaciones para conformar una lista parlamentaria única.

En ese contexto, un equipo periodístico del canal Chilevisión realizó un reportaje donde investigó algunas cuentas de redes sociales que reiteradamente atacaban a las candidaturas tanto de Matthei como de Jeannette Jara, candidata única de la centro izquierda que representa al oficialismo. El informe periodístico se centró en el comportamiento de cuentas anónimas que, desde hace algunos años, vienen publicando noticias falsas en contra del actual gobierno y de las candidatas. La investigación logró dar con el nombre de dos personas que estarían detrás de las cuentas investigadas, ambas ligadas al Partido Republicano.

Otro reportaje, del medio digital Reportea junto a Vergara 240, reveló más nexos: la Asociación de Administradoras de Fondos de Pensiones (AAFP) financió secretamente a la fundación “Ciudadanos en Acción”, la cual es dirigida por Bernardo Fontaine, actual integrante del comando de Kast. La investigación develó que la AAFP costea a la fundación desde 2019, a través de la agencia Artool, con el fin de articular campañas en contra de proyectos de reformas previsionales y de determinadas candidaturas presidenciales. La estrategia consistía en generar contenido digital en base a las directrices de la AAFP y con pagos en distintas direcciones para aumentar la viralización. Por un lado, a través de publicidad paga en Meta (para Facebook e Intagram) con un monto que supera los 200 millones de pesos -USD 215.000-. Además, dinero entregado a influencers para producir mensajes en contra de las reformas. Y, por otro lado, notas pagas en medios digitales, y masificación de contenidos del medio a través de una extensa red de bots, como parte del trato. Un elemento que resulta llamativo es que las personas financiadas para defender los intereses de la Asociación, tanto a través de cuentas públicas como anónimas, son las mimas denunciadas en el reportaje de Chilevisión de atacar a las candidatas presidenciales.

Estas revelaciones resultan preocupantes para los valores democráticos, no sólo en función de poder garantizar elecciones libres y transparentes, sino también desde una perspectiva de género. De las ocho candidaturas para esta votación, las únicas que sufrieron ataques cibernéticos son “casualmente” Matthei y Jara, las dos candidatas mujeres, reflejando un claro ejemplo de violencia política de género.

En el transcurso de estos meses, se estuvo hablando del uso de “bots” para describir el comportamiento mediante el cual cuentas anónimas se coordinaban para generar campañas de desinformación. Pasado un tiempo -y junto al abordaje de más medios-, se comenzó a diversificar el vocabulario, incluyendo los términos “troll” y “hater” para explicar lo que las investigaciones han develado. El objetivo de esta columna es aproximarnos a entender el funcionamiento de los bots, pero para ello primero haremos la distinción entre estos términos.

¿Qué son los trolls y los bots?

Estos conceptos ya forman parte del lenguaje propio de internet, por ello originalmente aparecen en inglés. Se aplican a redes sociales, foros y, más en general, a cualquier tipo de plataforma digital que permita la interacción entre personas usuarias, en especial si esa interacción puede dirigirse también a figuras públicas.

El término “Trolls”, originario de la mitología escandinava, se utiliza para referirse a cuentas anónimas que generalmente publican mensajes provocadores, desinformaciones o discursos de odio con la intención de perjudicar a ciertas personas o grupos, generando daños en su imagen pública. Su comportamiento es deliberado: son conscientes de que lo publicado es falso o abusivo.

Por su parte, “Bot” es un término coloquial que resulta de la abreviación de la palabra “robot”. Los bots son cuentas que funcionan de forma automatizada, mediante programación. Su accionar buscar producir mensajes o reacciones, incluso generar mayor volumen en la difusión de un mensaje, mediante interacciones que simulan ser humanas.

Los bots y su relación con internet, un poco de historia

Los bots con parte de la historia y de la arquitectura de internet: los primeros de los que se tiene registro datan de 1988. Ese año se creó el protocolo de mensajería de texto “Internet Relay Chat” (IRC), el cual fue muy popular durante sus primeras décadas y aún sigue vigente en nuestros días. Los bots que funcionaban bajo IRC consistían en programas computacionales que automatizaban algunas tareas dentro del sistema de mensajería.

A medida que internet crecía y diversificaba sus servicios, los bots se fueron adaptando a cada uno de ellos. Uno de los usos más relevantes que han tenido consiste en formar parte de los algoritmos de búsqueda a través de bots que indexan sitios web. Es así como, en 1994, se crea el primer indexador de sitios web que, un año más tarde, sería usado por AOL. Ya en 1996, una incipiente startup que hoy conocemos como Google lanzaba su bot BackRub para indexar el contenido de internet. Si bien los bots tienen un sinfín de utilidades legítimas, también se usaron para otros fines menos amables. A lo largo de la historia de internet, se han registrado numerosos ataques, de distinta índole y envergadura, a través de mecanismos como pueden ser la “denegación de servicio” o el “ransomware”.

En el mundo de las redes sociales, los bots son programas informáticos diseñados para simular interacciones humanas de forma automática. En la actualidad, es muy recurrente que las empresas generen canales de comunicación vía mensajería para responder a preguntas frecuentes -con mayor o menor éxito- mediante el uso de estos dispositivos.

En contextos donde proliferan las narrativas basadas en discursos de odio y desinformación, los bots son la herramienta predilecta para amplificar el alcance de esos mensajes. A través de la republicación de posteos o la interacción de los “me gusta”, pueden lograr la viralización de contenidos falsos o engañosos. Un ejemplo paradigmático en nuestra región fue la campaña de desinformación masiva que llevaron adelante los opositores de Evo Morales en 2019 para lavar la imagen del golpe de Estado y sumar simpatizantes. Hay evidencias que indicaron la existencia de una maniobra coordinada en redes sociales -decenas de miles de cuentas en Twitter creadas en pocas horas- para influir en la agenda pública global. El objetivo era imponer la idea de que el golpe no había sido tal y que el expresidente Morales estaba vinculado al narcotráfico y había propiciado un fraude electoral.    

Pescando bots: ¿cómo se pueden identificar interacciones artificiales?

Si bien las interacciones de estas cuentas automatizadas pueden parecer reales, existen algunos detalles que nos pueden ayudar a identificar que son artificiales. Vamos a repasar estos elementos.

  • Cuentas falsas: sus fotos de perfil no corresponden a una persona, los nombres de usuario parecen serializados con números largos luego de algún nombre o palabra.
  • Antigüedad de las cuentas: en muchos casos son cuentas que no poseen muchos años, o bien fueron creadas en un período acotado de tiempo.
  • Tendencias no orgánicas: cuando un contenido se viraliza y se convierte en tendencia de forma natural, sucede porque muchas personas lo comparten mediante una interacción distribuida entre numerosas cuentas, de forma no jerárquica. En el caso de tendencias generadas por bots, se puede notar que existe una, o un par de cuentas centrales, desde las que se cuelgan muchas otras para compartir, lo que demuestra un comportamiento mucho más jerárquico. En general identificarlo requiere de un análisis técnico pues es complejo notarlo a simple vista.
  • Comportamiento anormal: otro factor común es que muchas de estas cuentas solo comparten contenido de ciertos “usuarios” de forma reiterada. También es posible notar que al publicar comentarios, estos suelen ser inentendibles o confusos.

Los algoritmos generativos y los nuevos desafíos

Con la irrupción del uso masivo de algoritmos generativos, también llamados “Inteligencia Artificial Generativa” (GenAI), tales como ChatGPT, Gemini o DeepSeek, surgen nuevos desafíos a la hora de determinar cuándo es un programa el que está interactuando.

En marzo de este año, un estudio realizado por la Universidad de California evidenció que el modelo GPT-4.5 logró aprobar con 73% de efectividad la prueba de Turing. Esta prueba consiste esencialmente en que personas interactúan, a través de mensajería, con otras personas y con máquinas con el objetivo de determinar cuál es cual. Si la persona no logra distinguir entre la máquina y la persona, entonces se considera que el programa o la máquina pasó la evaluación.

El avance de los modelos nos propone nuevos retos al momento de reconocer cuándo un bot es el que está interactuando en las redes sociales, por lo que la tarea de generar análisis certeros se vuelve aún más compleja. Es importante considerar que el estado de desarrollo de los algoritmos generativos, no solo permite producir textos sino que también ya genera o manipula imágenes, audios y videos. Dicha gama de recursos agrega otro grado más de complejidad en la detección.

Desde el caso Cambridge Analytica, muchas organizaciones pusieron el foco en el efecto de las redes sociales sobre procesos eleccionarios. De la misma forma, podemos pensar en la influencia que tienen sobre temas sensibles de las agendas nacionales y regionales, y cómo a través de los bots determinados grupospueden lograr invisibilizarlos o atacarlos para obtener réditos en sus posturas.

Las redes sociales son un entorno complejo, por lo que encontrar una solución real al problema de los bots y la desinformación también puede resultar dificultoso. Aún así, deben existir medidas que puedan ayudar a mitigar su impacto: regulaciones efectivas que, sin la necesidad de una censura y acorde a los estándares de derechos humanos, puedan generar transparencia sobre las acciones que se deben ejercer ante las plataformas. Asimismo, es imprescindible que las corporaciones dueñas de las redes sociales tengan la voluntad de abrir canales para la colaboración con los entes encargados de velar por el cumplimiento de esas regulaciones. Desde Derechos Digitales, esperamos que “las plataformas digitales se preparen, teniendo una amplia colaboración con las autoridades, pero también con una serie de acciones proactivas que promuevan la transparencia de sus actos ante la desinformación”, tal como lo mencionamos en una columna, en virtud de las elecciones mexicanas de 2024.

Es de suma importancia que todos los actores interesados -legisladores, empresas tecnológicas, sociedad civil y academia- puedan trabajar para la construcción de ambientes eleccionarios democráticos, justos y participativos. Procesos electorales con mecanismos claros para combatir la desinformación, que no solo consideren el marco regulatorio, sino que también apunten a otras políticas como el fomento de campañas educativas que brinden a la población habilidades y herramientas para la detección de noticias falsas.

20 años defendiendo derechos digitales: aprendizajes desde el LACIGF y una mirada hacia adelante

Este año cumplimos veinte años de trabajo en la defensa, promoción y desarrollo de los derechos humanos en los entornos digitales de América Latina. Han sido dos décadas de cambios profundos, donde pasamos de una internet más descentralizada y colaborativa a un ecosistema mediado por plataformas globales, dominado por la extracción de datos y las dinámicas de vigilancia tanto estatal como corporativa. Aún así, la región sigue siendo un territorio fértil para la innovación social, la cooperación y las resistencias digitales.

En ese espíritu, decidimos aprovechar el LACIGF18, el principal espacio de encuentro multiactor de la región latinoamericana sobre gobernanza de internet, para celebrar nuestro aniversario número 20 junto a organizaciones aliadas, colegas y amistades que han acompañado este recorrido. La ciudad de Córdoba en Argentina se transformó así en un punto de encuentro entre el pasado y el futuro: un espacio para reconocer los aprendizajes que nos han traído hasta aquí y proyectar colectivamente los próximos desafíos.

Nuestra participación en el LACIGF18

El LACIGF siempre ha sido un foro donde se cruzan perspectivas diversas: sociedad civil, gobiernos, academia, sector privado y comunidad técnica, y para nosotras su valor radica en que permite debatir la política tecnológica desde el Sur Global, discutir las desigualdades que atraviesan la conectividad y construir estrategias comunes frente a los desafíos emergentes. En esta edición participamos en distintas sesiones que abordaron temas clave para la región, desde la ciberseguridad comunitaria hasta los desafíos ambientales y la protección de datos.

Una de nuestras principales actividades en el marco del foro fue estar presentes en el evento previo convocado por la comunidad juvenil de la región, el YouthLACIGF, donde formamos parte del taller “Ciberseguridad Comunitaria: Protección colectiva de nuestros entornos digitales”.

El espacio reunió a juventudes, defensoras ambientales, periodistas y personas vinculadas a organizaciones de base de distintos países. Las experiencias compartidas fueron diversas, pero coincidieron en algo esencial: la inseguridad digital se vive de manera concreta y diferenciada. Afecta a mujeres y a personas de la comunidad LGBTIQA+, a activistas, infancias, adolescencias y personas mayores, cada grupo con vulnerabilidades y formas de exposición diferentes. Se expresa en el acoso y la violencia en línea, en la difusión no consentida de datos personales, en las campañas de odio o en la vigilancia dirigida hacia quienes denuncian abusos de poder, corrupción o daño ambiental. En todos los casos, la tecnología no solo refleja las desigualdades estructurales de nuestras sociedades, sino que puede reproducirlas y profundizarlas.

A partir del intercambio surgió una afirmación clave: la seguridad digital es colectiva. No se trata únicamente de saber configurar contraseñas o instalar herramientas de cifrado, sino de construir redes de confianza, sostener conversaciones difíciles y acompañarse en los momentos de mayor exposición o riesgo. Esta perspectiva comunitaria nos invita a repensar las prácticas institucionales, los programas de formación y las políticas públicas, para situar la seguridad en un enfoque de bienestar y cuidado.

También participamos del taller llamado “Medio ambiente, tecnología y resistencias: desafíos digitales de la defensa ambiental en América Latina”, dedicado a explorar el vínculo entre crisis socioambiental y tecnología, con un enfoque situado en las personas que defienden el medio ambiente en América Latina. Nos propusimos visibilizar el rol fundamental de la tecnología frente a la emergencia climática y la crisis ecológica, y evidenciar las barreras que enfrentan las activistas para un acceso significativo a internet y a la información. La falta de conectividad en territorios rurales, la concentración de infraestructura tecnológica y las amenazas digitales, como las campañas de desinformación, el hostigamiento en línea o la violencia de género facilitada por las tecnologías, son obstáculos que inciden directamente en su capacidad de ejercer derechos y proteger el entorno.

El panel reunió a personas defensoras del medio ambiente de diferentes países, junto a representantes de la sociedad civil, la comunidad técnica, gobiernos locales y organismos de derechos humanos. Fue un espacio de diálogo multisectorial donde se compartieron experiencias concretas de resistencia, como las movilizaciones frente a la instalación de data centers o proyectos extractivos que profundizan desigualdades ambientales y digitales.

La conversación también permitió reconocer los marcos regionales que pueden fortalecer esta protección, como el Acuerdo de Escazú y los debates hacia la COP30 sobre cambio climático. Estos instrumentos abren oportunidades para incorporar la dimensión digital en la agenda ambiental y garantizar que la defensa de la naturaleza y de los derechos humanos vaya de la mano con la defensa de una tecnología justa, segura y accesible.

Finalmente, en el taller “Datos en fuga: cómo se exponen y explotan nuestros datos en internet”, presentamos avances de nuestra investigación en curso sobre explotación ilegal y comercialización de bases de datos estatales en Argentina, Brasil y Perú. En la instancia destacamos que estas filtraciones de información personal no son meras fallas de seguridad ni accidentes administrativos. Son parte de un circuito de extracción y monetización que alimenta economías ilegales, facilita extorsiones y expone a las personas a riesgos profundos, especialmente aquellas que ya enfrentan desigualdades estructurales por razones de género, clase, raza o territorio.

Frente a este escenario, la protección de datos personales debe abordarse como un componente esencial de los derechos humanos. No se trata solo de un aspecto técnico o administrativo, sino de una condición para garantizar autonomía, privacidad y seguridad. Cuando los datos personales son filtrados, vendidos o manipulados, las consecuencias pueden ser irreversibles, desde daños económicos hasta violencia física. Por eso, insistimos en la necesidad de políticas públicas sólidas, autoridades independientes, más transparencia y rendición de cuentas de las plataformas, y mecanismos efectivos de investigación y sanción.

Celebrar, recordar y proyectar: una nueva edición de Latin America in a Glimpse

En el marco del LACIGF celebramos nuestros 20 años de trabajo y presentamos la nueva edición de Latin America in a Glimpse, una publicación que reúne los hitos, aprendizajes y tensiones que han marcado dos décadas de defensa de los derechos digitales en América Latina. Más que un recuento histórico, el documento busca ser una invitación a mirar el pasado con sentido crítico y el futuro con imaginación política: una herramienta para activar memoria, conversación y acción colectiva.

La publicación está acompañada por un juego de cartas que permite reconstruir esta historia de manera participativa, conectando experiencias, hitos y desafíos. En el mazo hay también veinte cartas en blanco: no son un adorno, sino una declaración. Representan todo lo que falta contar, lo que está ocurriendo hoy y lo que aún no existe. Nos recuerdan que la historia de los derechos digitales no está cerrada, y que escribirla es una tarea compartida. Nuestro momento de celebración nos permitió reflexionar sobre algunos de esos hitos a partir de la experiencia de amigas y expertas de toda la región.

Llegar a este aniversario nos encuentra en un momento complejo. La expansión de sistemas de vigilancia automatizada, la opacidad de las infraestructuras y la concentración del poder tecnológico amenazan las bases mismas del espacio público digital. Pero también sabemos que en la región hay comunidades, movimientos y organizaciones que no han dejado de imaginar alternativas, tejer alianzas y crear tecnología con sentido de justicia social.

El futuro de los derechos digitales dependerá de nuestra capacidad de mantenernos unidas, fortalecer la cooperación regional y seguir disputando el sentido político de la tecnología. Veinte años después, seguimos convencidas de lo mismo que nos movilizó al inicio: que la tecnología puede ser una herramienta para ampliar libertades, fortalecer la democracia y proteger la dignidad de las personas.

Miente, miente, que algo(ritmo) quedará

Se acerca una nueva elección presidencial y parlamentaria altamente polarizada en la región, esta vez en Chile. En respuesta a temores sobre rumores y noticias falsas, el gobierno y el Servicio Electoral lanzaron la campaña «Chile Vota Informado 2025», pidiendo evitar «que la desinformación se propague» y reiterando, a la vez, el lema «aguanta, chequea y comparte» que el gobierno chileno ha promocionado por más de un año y difundido hasta en forma de cumbia.

Como hemos declarado, la mentira política dista de ser una anomalía reciente, siendo más bien una táctica arraigada en la historia de la propaganda. Pero la preocupación tiene sentido. Como advierte el informe de la Relatoría Especial de la ONU sobre Libertad de Expresión, «cuando la libertad de expresión es suprimida, los procesos electorales están en peligro». Esta advertencia llega en un momento crítico para la región, donde múltiples países se enfrentan a ciclos electorales en medio de una creciente polarización y desconfianza institucional, y donde la capacidad de identificar la falta de autenticidad es necesaria para interactuar en el debate público. Sin embargo, el enfoque en la conducta individual desplaza parte de la responsabilidad hacia la ciudadanía, mientras las condiciones estructurales que producen desinformación permanecen intactas.

Innovando para mentir

Las narrativas de desinformación muestran notables continuidades a lo largo del tiempo. La acusación de fraude electoral aparece cíclicamente, como quedó demostrado tras las elecciones legislativas de 2022 en Colombia, donde las narrativas de fraude se difundieron ampliamente sin pruebas. Paralelamente, en las presidenciales de 2023 de Argentina circularon frases inventadas atribuidas a candidatos, mientras en los comicios de Perú del 2021 Convoca verificó imágenes falsas de supuestos conteos rápidos. Bolivia experimentó durante sus elecciones de 2025 una campaña sucia que tomó las redes sociales, con plataformas que parecían relajar sus políticas de moderación de contenidos en el contexto boliviano.

Esta persistencia de métodos más tradicionales contrasta con la innovación en herramientas. Una realidad presente hace más de una década: el crecimiento de la sofisticación en el uso de datos para la microsegmentación de destinatarias. El fin es llegar con más precisión a votantes a través de mensajes dirigidos a sus puntos de sensibilidad más probables, amparados en vacíos regulatorios o institucionales frente al uso de datos personales. Los antecedentes en herramientas de análisis de datos han sido ofrecidos mostrando que sería posible mapear preferencias políticas mediante minería de datos. Así, la datificación de la sociedad abre camino para formas más avanzadas de influencia electoral.

A eso se suma el uso de herramientas más complejas, como destacamos, junto a otras organizaciones, en nuestra contribución al informe de la Relatora Especial de las Naciones Unidas sobre la Libertad de Expresión y Opinión, Irene Khan. Las campañas políticas ahora enfrentan el desafío de contener mensajes sintéticos que pueden difamar candidaturas o atribuirles declaraciones nunca realizadas. Brasil vivió en 2024 una campaña municipal marcada por deepfakes, lo que llevó al Tribunal Superior Electoral a aprobar una resolución que prohíbe estos contenidos sintéticos y exige etiquetar el uso de inteligencia artificial en la propaganda. Mientras tanto, en Chile es parte de la propaganda diaria de una candidatura y sin mayores consecuencias.

La industria de la desinformación ha perfeccionado sus métodos, evolucionando desde la microsegmentación de audiencias hacia la producción de deepfakes. Esta sofisticación genera ahora una asimetría aún mayor entre quienes pueden producir desinformación convincente y quienes intentan verificarla, además de poner un manto de duda sobre el debate público.

Respuestas regulatorias: entre la prevención y la censura

Reconociendo -y hasta exagerando- los riesgos de la desinformación y fenómenos asociados a ella, en la región latinoamericana tanto los Estados como las plataformas digitales han ensayado diversas respuestas, con resultados dispares. En Chile se firmó en 2025 un compromiso de integridad electoral entre la autoridad electoral y actores privados y de la sociedad civil, que establece principios de defensa de la libertad de expresión y prevención del contenido falso. En Brasil, como fue comentado más arriba, el máximo tribunal con competencia electoral aprobó sanciones contra quienes elaboren o difundan contenido manipulado con IA. El panorama regulatorio se complejiza rápidamente y nuevas iniciativas normativas aparecen, aún si no llegan a convertirse en reglas.

Sin embargo, estas propuestas enfrentan dilemas fundamentales, como los riesgos de censura al utilizar nuevas herramientas supuestamente contrarias a la mentira. En contextos con una frágil independencia judicial, las leyes ambiguas contra «fake news» podrían usarse para silenciar voces disidentes, un riesgo que se extiende con la moderación automatizada. La Electronic Frontier Foundation (EFF) advirtió que las noticias falsas ofrecen a los poderes consolidados una oportunidad para censurar oponentes.

Ante estos desafíos, las respuestas puramente tecnológicas o punitivas muestran limitaciones conocidas: peligro de censura a nivel de regulación o de implementación u observancia, transferencia de responsabilidad hacia las plataformas digitales que las obligue a moderar más, y la eventual mala definición de lo que se intenta proteger o sancionar. La Comisión contra la Desinformación chilena entregó 72 recomendaciones que reconocen la naturaleza multifacética del problema, proponiendo soluciones que van desde la educación mediática hasta la transparencia algorítmica y el fortalecimiento del ecosistema informativo, bajo un mandato que se restringía a redes digitales. Las soluciones adecuadas pasan por fortalecer las instituciones democráticas, garantizar la independencia de órganos electorales, apoyar los medios comunitarios y promover la alfabetización mediática e informativa, lo que supera por mucho lo que ocurre en internet. Es decir, la realidad obliga a observar el problema más ampliamente.

Hacia una resiliencia democrática

La desinformación en contextos electorales manifiesta problemas más grandes de la sociedad, como falta de transparencia, concentración mediática, desigualdad económica y debilidad institucional. Esto merece cuestionar el relato que atribuye el problema principalmente a las redes sociales, y que culpa a la ciudadanía por compartir noticias falsas como quien culpa a las personas enfermas por su fiebre. No se trata de una batalla técnica por la verdad, sino de un desafío político y social por el espacio cívico que requiere respuestas integrales. Las campañas de sensibilización serán insuficientes si no se enmarcan en procesos más amplios de fortalecimiento democrático.

De cara a las elecciones más próximas en Chile y las del próximo año en la región (que incluyen, entre otras, presidenciales en Costa Rica, Perú, Colombia y Brasil), es urgente integrar una estrategia de resiliencia democrática. Esto requiere tomar con seriedad recomendaciones comunes: transparencia en propaganda política y en el uso de algoritmos; educación mediática e informativa desde las escuelas hasta espacios comunitarios; pluralismo informativo que incluya apoyo financiero a medios independientes; regulación proporcional que proteja la libertad de expresión; y participación ciudadana que promueva colaboración entre autoridades, academia, sociedad civil y plataformas en la formulación, implementación y evaluación de reglas. También, reforzar la protección efectiva de los datos personales frente a la recolección masiva, el uso en algoritmos de recomendación y la capacidad creciente de crear y distribuir contenidos dirigidos a percibidas vulnerabilidades en la sociedad.

La resiliencia democrática se construye también desde abajo. Las instituciones pueden fallar, pero las redes ciudadanas de verificación, la desatención a medios, programas e influencers dedicados a narrativas antiderechos, permite construir y reforzar las defensas de la sociedad. Campañas como «Chile Vota Informado» serán útiles si se enmarcan en procesos más amplios de fortalecimiento democrático. De lo contrario, se quedará en un eslogan bien intencionado que no aborda las razones profundas por las que la ciudadanía participa en la circulación de falsedades.

El negocio del iris: Colombia marca un precedente regional al frenar las operaciones de World Foundation y Tools for Humanity

El pasado 3 de octubre, la Superintendencia de Industria y Comercio (SIC) de Colombia, autoridad en materia de protección de datos personales, ordenó el cierre inmediato y definitivo de las operaciones de World Foundation y Tools for Humanity, por incumplir la legislación nacional de protección de datos. Además, les impuso la obligación de eliminar toda la información personal sensible bajo su custodia.

World Foundation, organización sin fines de lucro, administra el sistema de verificación de identidad basado en el iris conocido como World ID. Tools for Humanity, su socio operativo y compañía privada, es la creadora del Orbe -el dispositivo esférico de escaneo ocular-, además de la billetera digital World App y la criptomoneda Worldcoin (WLD).

Estas tecnologías, impulsadas por actores -entre ellos Sam Altman, CEO de OpenAI– con intereses que van desde lo social hasta lo comercial, convergen en una misma propuesta: construir una “prueba de humanidad” segura y anónima, un sistema capaz de distinguir a las personas reales de los bots en la era de la Inteligencia Artificial Generativa (GenAI), también promovida por el propio Altman.

En 2024, World -nombre que agrupa tanto a la fundación como a su rama con fines de lucro- inició operaciones en Colombia, llegando a 17 ciudades. Su desembarco se enmarcó en un intenso lobby ante la SIC, en un intento por demostrar la compatibilidad de su modelo de negocio con la legislación local.

Sin embargo, la llamada “prueba de humanidad” ha estado lejos de ser un modelo de negocio pacífico. Autoridades de protección de datos en Argentina, Alemania, Corea del Sur, España, Francia, Filipinas, Hong Kong, Kenia, Portugal, Tailandia, Italia, Perú y más recientemente Chile y Brasil, han alertado, investigado o suspendido total o parcialmente las actividades de ambas organizaciones. Las decisiones se tomaron principalmente por deficiencias en la información proporcionada sobre las condiciones del tratamiento de datos biométricos; recolección de datos sensibles de menores de edad sin el consentimiento de sus familias o tutores; e imposibilidad para que las personas titulares retiren o revoquen su consentimiento una vez otorgado.

El registro en el Orbe: un diseño técnico con profundas implicaciones jurídicas

El proceso de entrega de datos personales a World no ocurre en un solo momento ni bajo un único responsable: los datos atraviesan distintas etapas tecnológicas y jurídicas a lo largo de su ciclo de vida.

Primero, durante el registro inicial en la billetera digital (World App), se solicitan datos personales diversos: nombre, teléfono, correo electrónico, cuenta bancaria y otros metadatos asociados al dispositivo móvil. Información que es tratada por Tools for Humanity.

El registro permite localizar el Orbe más cercano y programar una cita para el escaneo. En esta fase, el dispositivo captura el iris y el rostro de la persona. La obtención masiva de este tipo de datos es el ingrediente clave para saciar el apetito de entrenamiento del algoritmo de World, que determina si uno es o no una persona humana. De esta información personal es responsable World Foundation.

Vale la pena añadir dos cuestiones en esta fase. Por una parte, que el escaneo del iris se transforma en menos de 10 segundos: la imagen del iris y rostro se convierte en un código hash cifrado, basado en un protocolo de blockchain, o sea, en una larga hilera de números y letras. Esto es así para dar mayor seguridad y privacidad a los datos, según World. Y por otra, que el hash cifrado se fragmenta y almacena entre terceros, es decir, se descentraliza su custodia con el objetivo de dar mayor seguridad y confianza, pues evita la concentración de información en un único actor.

Cuando el registro es exitoso, la persona usuaria recibe en su billetera un depósito de 10 WLD, equivalentes a aproximadamente 50 USD (unos 200 mil pesos colombianos). De este proceso se desprenden varios puntos críticos:

  • En la descarga y registro en World App, persiste el tratamiento de datos personales. Estos datos no son anonimizados, por lo que el titular conserva el ejercicio de sus derechos de actualización, rectificación, cancelación y oposición (ARCO).
  • En el Orbe, los datos personales dejan de serlo en cuestión de segundos. Por la velocidad con que acontece dicho proceso, World ha reconocido ante otras autoridades –como la de Brasil– que resulta técnicamente imposible retractar el consentimiento después del escaneo del iris.
  • Si la imagen del iris es efectivamente anonimizada, los responsables de su tratamiento no estarían, en principio, sujetos a la legislación de protección de datos, pues los datos dejarían de identificar o hacer identificable a su titular. Eso sí, se debe probar que ese proceso es irreversible, efectivo y permanente.
  • El cifrado, que protege la información de accesos no autorizados, es un componente que debe permear todo el ciclo de vida del dato, sea personal o no.

El análisis de la SIC: políticas de tratamiento y consentimiento

La SIC evaluó la compatibilidad de las políticas de tratamiento de datos de World App y World ID con la Ley 1581 de 2012, y llegó a estas conclusiones: no están disponibles en su mayoría en idioma español, no identifican un responsable del tratamiento en Colombia, no ofrecen mecanismos claros de consulta o queja, no especifican las finalidades del tratamiento ni los tipos de datos recogidos, y no contemplan procedimientos para ejercer los derechos ARCO. En el proceso ante la SIC emergieron dudas sobre la anonimización y el cifrado de los datos extraídos por el Orbe.

World no aclaró ante la autoridad las medidas de seguridad que aplica en esa tecnología de reconocimiento facial, donde las imágenes de los iris estarían más expuestas, ni ofreció pruebas claras de que el anonimato sea irreversible y efectivo, o que el cifrado se mantenga en toda el ciclo de vida del dato.

De hecho, un reporte de auditoría de 2024 del protocolo de cifrado de World, sugirió fallas críticas de seguridad que, según la SIC, no habrían sido solucionadas.

Ahora bien, si realmente se trata de información anonimizada, ¿cómo cambia esto las obligaciones legales de World Foundation y Tools for Humanity? Y, ¿qué deberes recaen sobre los terceros en quienes se descentraliza el almacenamiento de datos? Incluso antes de la anonimización, ¿cómo podría una persona titular ejercer el retracto o cancelación de su consentimiento una vez registrado en el Orbe? Y, ¿cómo obligar a World a garantizar ese derecho?

La SIC, por su parte, sostuvo que el código hash permitiría identificar o hacer identificable al titular del dato. De ser cierta esta afirmación, el proyecto World estaría poniendo en muy grave peligro el tratamiento de datos biométricos y fallando a la promesa detrás de su modelo de negocio.

También, la entidad determinó que las y los usuarios no otorgaron un consentimiento informado ni libre, no solo en razón a los defectos de las políticas de tratamiento de datos del proyecto World, sino a vicios en la libertad de acción de las personas: “el consentimiento que otorga el titular debe responder únicamente a su propia voluntad y no a la entrega de cualquier tipo de contraprestación que pueda condicionarlo” (p. 30).

Sobre este punto, vale la pena señalar que la autoridad brasileña de datos (ANPD) suspendió en ese país recientemente la entrega de criptomonedas por el escaneo del iris. En ese caso, World se defendió al calificar la entrega del WLD como un incentivo, no como una contraprestación. Una diferencia conceptual que la ANPD desvirtuó al señalar que, tratándose de personas vulnerables, los incentivos se convierten en salvavidas que terminan explotando los datos de quienes no tienen otra alternativa económica.

Ese enfoque habría enriquecido la decisión de la SIC, pues no deja de ser cierto que el despliegue de World se concentra mayoritariamente en países de rentas media y baja, y que sin ese “incentivo” no habría obtenido para enero de 2025 el iris de más de 10 millones de personas.

La estrategia de World: disputar lo procesal y fingir demencia

La respuesta de World Foundation y Tools for Humanity fue predecible: alegar violaciones al debido proceso, o sea, supuestos errores en la notificación de las decisiones de la autoridad que fueron remitidas a World Foundation, cuando la encargada de responder era Tools for Humanity, o viceversa. En este año y medio, sí se dieron por enteradas de cada respuesta y solicitud de la autoridad, como se lee en el proceso.

Frente a los requerimientos de la SIC sobre la legalidad de sus políticas de tratamiento, su defensa fue igualmente débil: afirmaron, entre otros, que la ley no los obligaba a detallar ciertos aspectos, como las medidas de seguridad aplicadas al tratamiento de los datos, o que hacerlo resultaba demasiado costoso, como designar un responsable local en Colombia. Argumentos que se derrumbaron por su propio peso, ¿a qué argumentos habrían acudido en 2024 en las acciones de lobby donde buscaban mostrar su adherencia a la norma local?

Las preguntas que quedan abiertas

Las incógnitas tras la decisión de la SIC son numerosas. Ambas organizaciones deben eliminar todos los datos personales obtenidos a través de World App y del Orbe, pero ¿cómo garantizarán que la información -incluso la que ha sido anonimizada- haya sido completamente retirada de los conjuntos de datos utilizados para entrenar a sus algoritmos? Y, ¿cómo se comprometerán a que no queden registros del código hash en manos de los “terceros de confianza”?

El caso de World en Colombia revela algunas de las grietas en el negocio de la “prueba de humanidad” que promete protegernos de los bots pero que termina, paradójicamente, enfrentándonos a un dilema más complejo: quién controla, con qué fines y bajo qué garantías, la prueba de que somos humanos.

Como quiera que sea, la decisión de la SIC marca un precedente relevante para América Latina pues nos remite de nuevo a preguntas que dejan de ser tecnológicas y se vuelven profundamente políticas: ¿cuál es el precio estamos dispuestos a pagar por demostrar que existimos? Y sobre todo, ¿cuál es la responsabilidad ética y jurídica de quienes generan “soluciones” tecnológicas inescrutables para problemas que en parte han contribuido en crear?

Disputar las reglas del juego: métricas, comunicación y gobernanza digital

Los algoritmos de las redes sociales, diseñados para maximizar la atención y el tiempo de permanencia, determinan qué se muestra y qué se oculta, sin ofrecer transparencia sobre cómo operan. Este modelo no está pensado para fortalecer derechos ni construir ciudadanía digital, sino para capturar datos y generar interacción continua bajo la lógica comercial.

En el entorno digital, las organizaciones sociales enfrentamos una paradoja: necesitamos comprender cómo circulan nuestros mensajes y medir su impacto, pero las métricas disponibles no reflejan todo lo que importa. ¿Cómo aprendemos de los datos sin permitir que condicionen el sentido de nuestro trabajo y la forma en que construimos comunidad?

Gobernanza algorítmica: el poder invisible que decide qué se ve

En el ecosistema digital dominante, las organizaciones sociales participamos de la lógica de los números que se pueden mostrar. Los sistemas automatizados de los algoritmos refuerzan ese ciclo de estímulo y recompensa, incentivando contenidos que generen reacción antes que reflexión.

Como planteamos en nuestra columna sobre cómo comunicar más allá de las redes sociales, las plataformas moldean nuestras estrategias comunicativas a través de mecanismos opacos que privilegian la visibilidad sobre el sentido. Los algoritmos de las redes condicionan la circulación de los mensajes, sus interacciones y moldean las formas de participación. En ese escenario, la tarea no es solo mostrar mensajes, sino también disputar los marcos donde se define qué cuenta como comunicación efectiva, reconociendo que dicha disputa también es una forma de resistencia frente a la gobernanza impuesta por estas empresas de Silicon Valley y que estructuran el espacio público digital.

Nuestra investigación sobre “Resistencias digitales y gobernanza algorítmica” muestra que las organizaciones no deben limitarse a adaptarse a estas reglas, sino que pueden disputarlas activamente. No entender la lógica de los algoritmos puede llevar a que las métricas controlen la comunicación en lugar de orientarla. La resistencia no es solo el contenido que publicamos, sino la manera de medir y valorar ese contenido, aun cuando los algoritmos no lo premien con números.

En Derechos Digitales, nuestros canales digitales buscan abrir conversaciones sobre vigilancia masiva, soberanía tecnológica, y Derechos Humanos en los entornos digitales, temas que exigen atención, no consumo rápido. No buscamos adaptarnos a las lógicas algorítmicas de visibilidad, sino tensionarlas: producir contenidos que inviten a la reflexión. Para nuestro trabajo, se trata de estar ahí, manteniendo una presencia crítica que reivindique el derecho a comunicar en nuestros propios términos.

Los retos de las organizaciones sociales

Las organizaciones sociales no competimos en igualdad de condiciones. A diferencia de marcas o influencers, nuestras narrativas suelen ir a contracorriente de lo que la plataforma considera atractivo. Además, en América Latina enfrentamos desafíos adicionales: no contamos con los mismos recursos, acceso a herramientas ni visibilidad que tienen muchas organizaciones de Estados Unidos o Europa, lo que hace aún más difícil captar atención con campañas digitales y medir su alcance.

Un estudio reciente de Austral Comunicación (comunicadoras sociales en Uruguay, Ecuador y Costa Rica) sobre la medición del impacto social en la comunicación organizacional en América Latina señala que, aunque las y los profesionales reconocen la importancia de evaluar el cambio social, persisten vacíos metodológicos y una tendencia a privilegiar los datos fácilmente cuantificables sobre los procesos participativos o cualitativos. Además el International Journal of Communication cuestiona el concepto de “looking cool” como tendencia de las organizaciones a diseñar contenidos que parezcan atractivos para captar atención, más que contenidos que profundicen narrativas.

En las redes sociales, esto nos empuja a ver lo que publicamos solamente a través de números que traducen estándares y lógicas de mercado pensadas para productos, no para resistencias. Entonces, ¿reportamos lo que moviliza, o lo que suma? ¿Optimizamos el contenido para gustar o para fortalecer procesos? Un riesgo es cuando el objetivo deja de ser el contenido o el vínculo para volverse la métrica misma.

¿Si desafiamos las lógicas convencionales?

En comunicación digital muchas métricas se concentran en outputs (posts, impresiones) o engagement (clics, reacciones). Pero lo que importa para la incidencia son los procesos y transformaciones que se movilizan más allá del entorno digital: cuando un mensaje impulsa debates públicos, fortalece comunidades o contribuye a cambios concretos. Por ejemplo, presionar por una ley, instalar un tema en la agenda política o modificar una práctica institucional. Estos efectos reflejan cómo la acción digital se traduce en resultados concretos en la vida de las personas y en la esfera política. Por eso, es fundamental abrir conversaciones con otras organizaciones y dialogar sobre cómo definir qué “éxitos intermedios” podríamos medir.

Las narrativas que queremos posicionar desde los movimientos sociales exigen reflexión, cuidado y reajuste. Son conversaciones que siembran ideas y regresan, meses después, convertidas en nuevas formas colectivas de activismo. Son ejercicios que cambian la manera en que las personas se relacionan con el entorno digital, brindando contenidos políticos, educativos y reflexivos.

Organizaciones de la región están ensayando nuevas maneras de habitar el entorno digital que desafían la lógica de las mediciones convencionales. Hace algunos meses atrás en un conversatorio guiado por SocialTIC, discutimos estrategias para definir objetivos, audiencias y recursos desde la autonomía organizacional. Desde Guatemala, Andrea Ixchíu compartió la experiencia de Hackeo Cultural y la creación de Milpamérica, una red social autónoma pensada para “reforestar nuestras comunicaciones en tiempos de monocultivo”. Desde Colombia, la Fundación Karisma ha producido análisis e incidencia sobre redes comunitarias como alternativa de conectividad y producción de contenido local, explorando cómo estas infraestructuras autónomas pueden cerrar brechas digitales y fortalecer los vínculos comunitarios en el entorno digital.

Desde Derechos Digitales, gran parte de cambios concretos en la comprensión, la acción y la protección de derechos humanos en el entorno digital sucede fuera de lo que se ve en las redes sociales: cuando el Consejo Asesor de Meta cita nuestro aporte en la decisión final por caso de censura, cuando organizaciones en contextos de crisis políticas usan nuestras guías para el resguardo digital, cuando una adolescente reconoce una experiencia de violencia digital en un carrusel de las redes. Ninguna de esas acciones aparece en las estadísticas, pero son el verdadero corazón del trabajo, que debemos continuar impulsando dentro y fuera de las redes sociales.

El dato como brújula comunicacional

Las organizaciones sociales no existieron para competir en métricas digitales, nacieron para disputar sentidos, transformar realidades y construir futuro. En el contraste entre medir lo cuantitativo y acompañarlo de lo cualitativo, está el balance.  En la práctica, esto se puede recopilar a través de herramientas de monitoreo social, encuestas rápidas, entrevistas o seguimiento de interacciones en grupos y comunidades. Así, la medición se convierte en una guía para ajustar estrategias y fortalecer la comunidad.

Sabemos que en nuestra labor diaria contamos con historias de cambio, narrativas de comunidad y testimonios que no figuran en los números, pero sí dicen mucho del poder transformador. El proyecto NGO-IDEAs, que desde 2015 ha trabajado con ONGs en 11 países de la región, promueve un enfoque participativo en el monitoreo de efectos e impactos. Este enfoque destaca la importancia de involucrar a las comunidades en la definición de indicadores y en la evaluación de los resultados, reconociendo que las métricas cuantitativas deben complementarse con datos cualitativos para capturar la complejidad del trabajo en derechos humanos.

En el equipo de comunicación de Derechos Digitales, observamos métricas cuantitativas para entender cómo circulan nuestros contenidos; por otro, prestamos atención a los resultados cualitativos: quién se involucra en conversaciones, qué conexiones se generan entre participantes y cómo se consolidan espacios de colaboración y aprendizaje. Para nosotras, el éxito no está solo en los números visibles, sino en que la información y las herramientas lleguen a quienes pueden actuar y tomar decisiones informadas.

A través de aplicar estas mediciones, podemos incorporar en informes y evaluaciones que no todo puede cuantificarse, que hay efectos que escapan al dato. Un acto de honestidad que puede recuperar credibilidad política frente a quienes esperan números.

Reescribiendo las reglas impuestas

Si queremos un entorno digital más justo, las organizaciones debemos participar activamente en los espacios donde se deciden las reglas del juego. Esto incluye desde mesas de diálogo con las plataformas hasta instancias regionales e internacionales sobre políticas de internet, regulación de contenidos y estándares de transparencia algorítmica.

Exigir transparencia sobre cómo funcionan los algoritmos, qué se amplifica, qué se oculta y con qué criterios, es clave para que las métricas de las plataformas no terminen imponiendo lo que “vale” o “no vale” comunicar.

La incidencia colectiva de las organizaciones sociales se convierte en una forma de resistencia frente a la lógica de métricas impuestas por las plataformas. Participar en la gobernanza digital significa defender el derecho a comunicar.

De este modo, la comunicación deja de ser solo una estrategia para difundir mensajes: se convierte en herramienta de transformación estructural, en puente entre comunidades, derechos y espacios de decisión. Un entorno digital donde los datos nos sirvan para entender, acompañar y potenciar los procesos de cambio, no para definirlos.

Envejecer en un mundo hiperconectado: la ausencia de las personas mayores en las políticas digitales

La acelerada digitalización de nuestras sociedades trae consigo la incorporación de múltiples Tecnologías de la Información y la Comunicación (TIC) en la vida de las personas. Si bien el acceso a las mismas puede habilitar el ejercicio de nuestros derechos, existen marcadas diferencias en cómo se usan, apropian, entienden y experimentan entre la diversidad de personas usuarias. Esto genera capacidades y condiciones desiguales para su uso pleno, significativo, seguro y autónomo.

Uno de los grupos sociales que enfrenta mayores desafíos y desigualdades en el uso de las TIC son las personas mayores. Este grupo fue reconocido por la ONU como uno de los segmentos de la sociedad que requiere mayor atención, acompañamiento y cuidado para enfrentar los retos que plantea la creciente digitalización del mundo actual, y para reducir las barreras que les impiden aprovechar plenamente las herramientas tecnológicas en beneficio de su bienestar. Entre dichas barreras destacan la brecha digital y la alta exposición a ciberataques y amenazas en el ciberespacio.

En esta columna ahondaremos en la exclusión de las vejeces en políticas digitales, particularmente en las estrategias nacionales de ciberseguridad. Analizaremos las vulnerabilidades específicas que enfrentan en línea, reafirmando la importancia de proteger sus derechos a la autonomía, el cuidado y la no discriminación, esenciales para su integración y participación efectiva en la era digital.

América Latina, envejecimiento poblacional y desafíos de inclusión digital

Como hemos señalado anteriormente, desde una perspectiva interseccional la edad constituye una categoría fundamental a la hora de formular políticas sobre el diseño, despliegue y uso de las TIC. En esa línea, organismos regionales e internacionales ya reconocieron que los derechos humanos y las libertades fundamentales de las personas mayores deben ser garantizados a través de las políticas, planes, estrategias y legislaciones de los Estados. Además, de acuerdo con estudios sociales sobre esta temática, la inclusión de las personas mayores en el ámbito de las políticas públicas es tanto una cuestión demográfica como social.

Por un lado, la región atraviesa un proceso sostenido de envejecimiento poblacional desde inicios del siglo XXI. Se estima que para el año 2050, el 25% de la población en América Latina y el Caribe tendrá 65 años o más. Considerando la persistente brecha digital que enfrentan en la región, esta proyección debe ser tomada como una motivación crucial para impulsar políticas de inclusión digital que reconozcan la existencia de las vejeces como parte de la sociedad y respondan a sus propias necesidades, garantizando su participación en el mundo hiperconectado que habitamos.

Por otro lado, encontramos que los problemas asociados al envejecimiento fueron históricamente considerados como asuntos a resolver en el ámbito individual y privado. Sin embargo, se envejece en un contexto social y cultural específico que habilita u obstaculiza que se haga con plenitud, inclusión y en condiciones de equidad en el ejercicio de derechos. Se envejece siendo parte de un colectivo, por lo cual incorporar  a las personas mayores en las políticas públicas digitales implica reconocer su especificidad como grupo social.

Lejos de ser espectadoras pasivas de la transformación tecnológica, las vejeces merecen ejercer plenamente sus capacidades en la era digital, con autonomía y sin obstáculos técnicos e informativos que limiten su participación. Sin embargo, la calidad, la información y los conocimientos técnicos necesarios para ello siguen siendo escasos y poco adaptados a sus realidades, situándolas en una posición de desventaja para hacer un uso seguro de las tecnologías.

Estrategias nacionales de ciberseguridad: ¿alguien quiere pensar en las personas mayores?

De forma reiterada, vemos noticas que evidencian la frecuencia y gravedad de los ciberataques en la región, dirigidos tanto a personas como a instituciones. Hace una semana, por ejemplo, la información de 20 millones de personas pensionadas del Instituto Mexicano del Seguro Social fue divulgada y puesta a la venta en foros clandestinos, dejando a una gran cantidad de personas mayores expuestas a múltiples riesgos y métodos de estafa como el phishing. Este caso ilustra  no solo  la fragilidad de los sistemas estatales de almacenamiento de datos, sino también la vulnerabilidad en cascada de las vejeces allí registradas, denotando la imperiosa tarea de reforzar marcos de Derechos Humanos en el tratamiento de la ciberseguridad.

La visión clásica de la ciberseguridad enfocó sus esfuerzos principalmente en la protección del Estado y sus infraestructuras. Sin embargo, perspectivas de género e interseccionales en esta materia sugieren un cambio sistémico urgente en su abordaje, que centre las políticas y  estrategias en las personas, e integre las diversas realidades y necesidades de  sectores sociales que enfrentan amenazas y riesgos diferenciales en el espacio digital. Este giro en el enfoque es clave para garantizar el ejercicio efectivo de los  derechos en los entornos digitales; en particular de grupos históricamente excluidos como las mujeres, las personas de la comunidad LGBTQIA+ y las personas mayores.

A la fecha, de los 21 países de América Latina, 13 ya adoptaron estrategias nacionales de ciberseguridad. Pero sólo 3 (Brasil, Chile y Uruguay) tienen menciones explícitas en sus líneas de acción a las vejeces, y sólo 1 (la reciente estrategia del Paraguay) reconoce  la edad como una de las intersecciones a considerar a la hora de ejecutar políticas de protección para la ciudadanía en el ciberespacio. Ahora bien, ¿la mera referencia a las personas mayores es suficiente para hablar de inclusión? Como buena práctica, la estrategia de Chile contempla la alfabetización básica en ciberseguridad para este sector etario. De hecho, en su plan de acción, este sector es transversal a la mayoría de medidas a implementar, lo que permite concretar objetivos y responsables para cumplir lo que se plasmó en el documento de la estrategia. No obstante, en las demás políticas públicas mencionadas se habla de forma general sobre campañas de concientización en ciberseguridad que incluyen a las personas mayores, sin contar aún con medidas específicas o preferentes que respondan a sus necesidades particulares.

La exclusión que transita la vejez en la mayoría de estos marcos normativos refleja una preocupación señalada por organismos regionales de Derechos Humanos: el edadismo. Esta  forma de discriminación por razón de edad permanece enraizada cultural y jurídicamente en América Latina, exponiendo a este grupo social a diferentes formas de violencia, incluida la que ocurre en línea.

La creciente dependencia de nuestras sociedades en las TIC, así como la digitalización de servicios básicos y fundamentales, incrementa inevitablemente la exposición a riesgos y amenazas. En el caso de las vejeces, la brecha de conocimientos frente a la naturaleza y la sofisticación de los ciberataques las deja altamente desprotegidas, convirtiéndolas en el objetivo de ataques, estafas en su mayoría, caracterizados por la suplantación de identidad para robar información personal y financiera a través de emails, páginas web falsas, llamadas telefónicas, mensajes de texto, entre otros.

Podría afirmarse que, considerando el carácter socio-técnico de las tecnologías, y ante la evolución constante tanto de éstas, como de las violencias que amplifican, el envejecimiento conlleva una condición de vulnerabilidad desde la cual las personas mayores encuentran barreras para participar del cambio tecnológico y usar plena, autónoma y efectivamente las TIC. Debe quedar claro, sin embargo, que el problema no es envejecer; no es la vejez la que dificulta el ejercicio de los Derechos Humanos en los entornos digitales, es la concepción social, cultural y jurídica que los Estados de nuestra región mantienen frente a ella. Estas concepciones se traducen en la exclusión de las personas mayores de los procesos de formulación e implementación de las políticas públicas, restringiendo el pleno goce de sus derechos y desatendiendo sus necesidades y vivencias.

Derecho a la autonomía y al cuidado en los entornos digitales

Promover, proteger y garantizar el reconocimiento y ejercicio, en condiciones de igualdad, de los Derechos Humanos y libertades fundamentales de las personas mayores a través de las políticas digitales resulta esencial. Dos derechos particulares asociados a este grupo son especialmente importantes a la hora de formular marcos de política pública inclusivos: la autonomía y el cuidado.

A menudo, en las sociedades occidentales, las vejeces se ven despojadas de su capacidad para responder a las propias necesidades, expresar sus deseos, tomar decisiones y lograr sus metas, lo que limita las posibilidades de que ejerzan control sobre sus vidas o las vivan de forma autónoma. Así, la edad avanzada es relacionada con la pérdida de funcionalidad, con la dependencia física, mental, emocional y social, el cese de la vida productiva, dejándoles de tener en cuenta para tomar decisiones en ámbitos como el financiero, familiar o político. Es por esto que, según mecanismos regionales de Derechos Humanos, cualquier instrumento de política pública sobre los derechos de las personas mayores debe, en primer lugar, garantizarles la posibilidad de ser autónomas para gestionar sus proyectos vitales.

En un mundo hiperconectado, donde cada vez más actividades se realizan usando la tecnología, contar con conocimientos suficientes para comprender los procesos que se gestan en Internet, así como  las posibilidades y los riesgos que conlleva, no es sólo un asunto de ciberseguridad, sino también, y sobretodo, un tema de Derechos Humanos y autonomía para las personas mayores. Asegurar su independencia y sus posibilidades de participar e integrarse a las comunidades a través de las TIC debe ser un eje central de las políticas digitales.

Por otra parte, la creación de entornos digitales propicios y favorables para este grupo social resulta crucial para que puedan ejercer sus derechos sociales, económicos y culturales en condiciones de igualdad. Proteger su  autonomía e independencia en el espacio digital es una práctica de cuidado en consideración de sus demandas y características específicas. En la medida que las TIC sean parte de su vida cotidiana, es necesario extender las prácticas de cuidado y prevención que tradicionalmente acompañan otras esferas de la vida, también a lo que suceda en los entornos digitales.

La dimensión del cuidado acá mencionada tiene que ver con procurar el bienestar de las personas mayores sin despojarles de su agencia sino, más bien, acompañándoles en el ejercicio y mantenimiento de su autonomía al navegar y usar las tecnologías. Esta es una concepción del cuidado basada en crear condiciones para el bienestar reconociendo las diferencias y vulnerabilidades históricas de este sector etario. Por ejemplo, si se procura el cuidado y la protección de las personas mayores a través de la creación de entornos físicos, sociales y culturales que habiliten el ejercicio de sus derechos, ¿por qué no crear condiciones y desarrollar conocimientos para el disfrute de entornos digitales seguros y favorables? Esto se traduce en bienestar, en protección de la autonomía y, por tanto, en una práctica de cuidado.

Recientemente, la Corte Interamericana de Derechos Humanos reconoció el derecho autónomo al cuidado, entendiendo que constituye una necesidad básica, ineludible y universal, fundamental para una existencia digna, en especial de las personas en situación de vulnerabilidad. En relación con el derecho de las vejeces de recibir cuidados, la Corte sostuvo que los Estados deben adoptar medidas para garantizar su acceso y permanencia en servicios de cuidados de calidad, en consonancia con sus derechos a la autonomía, independencia, seguridad y a una vida libre de violencias. Esta consideración debe extenderse también al ámbito de las políticas digitales, donde este grupo etario requiere enfoques específicos y adecuados que incluyan plenamente sus necesidades, experiencias y capacidades. Las políticas públicas deben brindar mecanismos de apoyo y acompañamiento que garanticen un uso seguro, autónomo y sostenible de las TIC por parte de las personas mayores, fortaleciendo así el ejercicio de sus derechos en entornos digitales.

Tras el telón de la Inteligencia Artificial: modelos computacionales y construcciones humanas

En el contexto del discurso público, la Inteligencia Artificial (IA) se suele presentar como si se tratara de un agente capaz de razonar con un grado elevado de complejidad y competente en la toma de decisiones autónomas, incluso cuando se habla de temas sensibles como el futuro del trabajo o la forma de vida de las personas. Sin embargo, esta visión idealista se encuentra bastante lejos de la concepción lógica propia de su construcción técnica. Esta diferencia separa la Inteligencia Artificial del razonamiento humano, del procesamiento masivo de datos, de los algoritmos y de las estructuras matemáticas diseñados previa y conscientemente por personas. En esta columna, analizamos el proceso de construcción de modelos de IA, a partir de tres etapas que determinan el comportamiento del mismo: la calidad de los modelos; los datos utilizados; y las decisiones humanas que acaban por configurarlos y guiar sus respuestas.

La IA en su estructura base 

La IA no es una mente autónoma, sino una composición de algoritmos y arquitecturas matemáticas que procesan información de formas específicas. Según la elección del modelo, se define qué tipo de relaciones pueden aprenderse y cuáles quedan por fuera de su alcance. Así, por ejemplo, los árboles de decisión organizan la información como un conjunto de reglas jerárquicas que se bifurcan en función de condiciones simples, mientras que las redes neuronales artificiales procesan datos en múltiples capas, donde cada nivel detecta patrones progresivamente más complejos. Por su parte, los modelos de lenguaje predicen la palabra más probable en una secuencia, correlacionando masivamente patrones en grandes bases de texto.

Con este antecedente, la IA debe ser entendida como una “máquina de clasificación” que opera en capas. No se trata de inteligencia en sentido humano, aunque suele ser diseñada para responder a contextos específicos. Un modelo de IA es un mecanismo que separa, ordena y categoriza información de acuerdo con los criterios que sus diseñadores establecen. Es decir, la Inteligencia Artificial no es inteligencia, sino un aparato estadístico para clasificar miles o millones de datos en tiempo récord para la capacidad humana. 

Datos, el combustible de la IA

Si los modelos conforman la arquitectura de esta tecnología, los datos se constituyen en su insumo fundamental. Mediante los datos se entiende, no solo lo que una IA puede aprender, sino también sus límites, sus sesgos y sus errores. Lejos de ser una “materia prima neutra”, los datos muestran los resultados de decisiones humanas: qué recolectar, cómo clasificar, quiénes participan en la generación y curaduría de esos datos. Cada una de estas etapas añade elecciones y valores, y es precisamente en este movimiento en el que estará la definición del comportamiento de los sistemas de IA. Por lo tanto, si esta tecnología depende de los datos que usa, ¿qué pasa si esos datos no logran reflejar una verdad universal? Por ejemplo, ChatGPT -y muchos otros proyectos de IA- son grandes modelos de lenguaje (LLM), entrenados con enormes cantidades de datos extraídos de Internet, muchos de los cuales comparten los sesgos de las personas que publican esos datos

En este sentido, la máxima técnica Garbage in, garbage out sigue vigente: si los datos de entrada están sesgados, incompletos o mal clasificados, los resultados de la IA reproducirán los mismos patrones. Existen múltiples ejemplos que ilustran este riesgo. Como  Amazon que abandonó en 2018 su sistema de reclutamiento automático al descubrir que favorecía sistemáticamente a hombres frente a mujeres, reflejando la composición histórica de su base de datos de contrataciones. En otro caso, un reportaje de DW advierte que la discriminación “viene garantizada” en muchos sistemas de IA: desde herramientas de reconocimiento facial con sesgo racial hasta algoritmos de crédito que penalizan a ciertos grupos sociales. Por su lado, ONU Mujeres subraya que la falta de diversidad en los equipos de desarrollo y en las bases de datos de entrenamiento refuerza estereotipos de género y desigualdades existentes históricamente, multiplicando sus efectos en los sistemas generativos.

Aprendizaje por refuerzo

Una vez entrenada, la IA no se detiene: en muchos casos sigue ajustándose y adaptándose a partir de la manera en que las personas la utilizan. El feedback que recibe, los ajustes de configuración y las correcciones introducidas por quienes interactúan con ella son parte de un proceso de aprendizaje continuo que modifica su desempeño con el tiempo.

Existen ejemplos que muestran hasta qué punto la intervención humana influye en los resultados. El caso de Grok, el chatbot de la empresa xAI fundada por Elon Musk, es ilustrativo: tras una actualización destinada a hacerlo más “anti-woke” y políticamente incorrecto, el sistema comenzó a producir respuestas antisemitas e incluso elogios a Hitler. Este comportamiento no surgió de un razonamiento autónomo, sino de las instrucciones y configuraciones humanas que guiaron su funcionamiento. El episodio evidencia cómo pequeñas decisiones de diseño o ajustes orientados a complacer a un público específico pueden derivar en consecuencias éticamente problemáticas, vulnerando derechos de grupos sociales y comunidades.

La IA como instrumento de lucha

Al analizar minuciosamente cómo se construyen los sistemas de IA, podemos observar que no se trata de inteligencias autónomas y racionales como lo puede ser la inteligencia humana. Aquello que llamamos IA no piensa: relaciona datos, sigue patrones y entiende que, en función de los insumos que recibe y siempre bajo instrucciones, generará unas salidas u otras. Más que inteligentes, las IA son artefactos sociotécnicos, en tanto que en ellas se entrelazan arquitecturas matemáticas, bases de datos trabajadas y realizadas por personas, y configuraciones definidas, además de la propia interacción continua que establece con las personas usuarias. Tal y como se puede ver, cada capa es el reflejo de decisiones humanas: desde la decisión sobre qué modelo escoger, hasta aquella que determina qué datos incorporar y cómo hacer las interpretaciones. Entender el carácter instrumental de la IA es fundamental para poder situarla en su debida dimensión. 

Este reconocimiento, también da paso a una agenda urgente: garantizar marcos regulatorios claros y democráticos que orienten el desarrollo de la IA a fines sociales y éticamente responsables, con pleno respeto de los derechos de las personas. Sin formas adecuadas de gobernanza, estos sistemas tendrán la capacidad de reproducir sesgos, acentuar desigualdades y fortalecer visiones tecnológicas colonialistas que implantan modelos ajenos a los contextos socioculturales locales. Además, es necesario pensar en descentralizar el desarrollo de la IA, fomentando aquellas iniciativas que puedan alimentarse de la diversidad cultural y lingüística en territorio, tal como documentamos en nuestra investigación “LatinAmerica in a Glimpse”.

En definitiva, se requiere una gobernanza de estas tecnologías en la que prevalezcan los Derechos Humanos, sustentada en la transparencia, la participación social y la justicia algorítmica. El objetivo debería ser evitar que la IA funcione como un espejo de los sesgos de siempre, y lograr que se convierta en una herramienta para sociedades más democráticas y justas.

Filtraciones de datos: el costo ciudadano de la negligencia digital

Cada nueva filtración de datos parece encontrarnos igual: con indiferencia y resignación. No es apatía, sino cansancio. “Total, no tengo nada que ocultar, no soy tan importante”, es una de las frases más repetidas, que refleja cómo se ha instalado la idea de que la privacidad no importa. Esa resignación, alimentada por la negligencia de las empresas y entidades estatales que almacenan nuestros datos, está erosionando la confianza social y normalizando la idea de que la privacidad deje de percibirse como un derecho básico.

Se trata de un fenómeno que no surge de la nada. En lo que va del año, ya podemos constatar múltiples casos en distintos países de América Latina. En Argentina una app estatal comprometió 13 mil perfiles; en Uruguay se vendió una base de datos estatal con más de medio millón de registros; en México un ataque a una boletera dejó al descubierto datos bancarios de 80 mil personas; en Paraguay se filtraron más de 7 millones de registros del Tribunal Superior de Justicia Electoral; en El Salvador una gestora de cobros perdió más de 140 gigabytes de información de sus clientes; y en Venezuela se reportó la exposición de más de 3,2 millones de personas usuarias de Movistar. En estas filtraciones suelen aparecer datos como el documento de identidad, nombres, fechas de nacimiento, direcciones, teléfonos. Muchos incidentes incluyen además información sensible como fotografías, firmas, huellas, historiales médicos, registros laborales y socioeconómicos.

Desde el tecnicismo, estos campos se presentan como simples columnas en una base de datos, pero en realidad cada una de esas columnas corresponde a fragmentos de nuestras vidas: quiénes somos, dónde vivimos, cómo trabajamos y hasta qué padecemos. Reducir la información a tablas y registros invisibiliza que detrás de cada dato hay una persona con derechos que pueden ser vulnerados si su información personal queda expuesta.

Cuando la tecnología falla, las personas lo sufren

Tanto el sector privado como el público parecen estar en una carrera sin fin hacia la “innovación”, pero ¿qué valor tiene hablar de innovación si se construye sobre la exposición constante de los datos de la ciudadanía? Innovar no debería significar coleccionar más información de la necesaria ni esconder en la letra pequeña cómo se utiliza. Tiene que incluir el diseño de sistemas no solo funcionales, sino también seguros y accesibles, que no trasladen todo el riesgo a las personas. Mientras eso no ocurra, la llamada “innovación” seguirá siendo un discurso vacío, blindado a través de comunicados tardíos que llegan cuando el daño ya está hecho.

Las filtraciones permiten que datos que parecen administrativos se transformen en herramientas de delito. Con un número de documento, y otras informaciones básicas que suelen aparecer en un carnet de identidad, un delincuente puede solicitar préstamos o abrir cuentas bancarias a nombre de otra persona. Con direcciones y teléfonos filtrados, las extorsiones y estafas se multiplican. Esa información llegó a utilizarse incluso para inscribir a personas en partidos políticos sin su consentimiento, como ocurrió en el caso de la filtración de la base de datos del Reniec en Perú, el cual facilitó afiliaciones masivas a organizaciones políticas sin autorización ciudadana.

La mayoría de los ciberataques ocurridos entre 2023 y 2024 contra organizaciones latinoamericanas derivó en filtraciones de datos, que representaron el 53% de los casos. Más de la mitad de la información robada correspondió a datos personales (32%) y credenciales de cuentas (21%), revelando cómo el contenido filtrado es insumo para el delito digital.

No todas las personas enfrentan los mismos riesgos cuando sus datos quedan al descubierto. Las mujeres suelen ser blanco de violencia digital: acosadores que utilizan sus fotos o números de teléfono para hostigarlas, amenazarlas o enviarles contenido sexual. Niñas, niños y adolescentes quedan especialmente vulnerables a engaños en línea o a ser fácilmente identificables, lo que conlleva a riesgosas situaciones de trata y violencia infantil. Las personas defensoras de Derechos Humanos o pertenecientes a la comunidad LGTBIQA+ quedan expuestas a campañas de acoso y criminalización si su información personal se hace pública. En muchos casos esto ocurre a través del doxxing, es decir, la exposición maliciosa de datos personales en Internet. Las filtraciones masivas de bases de datos que luego circulan abiertamente en la web —ya sea en foros de la Darkweb o en canales de compraventa de Telegram— alimentan estas prácticas, amplificando el hostigamiento y poniendo en riesgo la garantía de derechos en general.

Los datos socioeconómicos filtrados también agravan la desigualdad: un historial de deudas o la procedencia de un barrio estigmatizado pueden bastar para que alguien sea descartado en un proceso laboral. Entonces, si miramos estas filtraciones solo como un problema técnico, pasamos por alto que en realidad refuerzan estructuras de discriminación y amplifican violencias que ya existen históricamente en nuestra sociedad.

Medidas urgentes para resguardar la confianza

Uno de los mayores descuidos suele ubicarse en el control de accesos: se debe garantizar que solo las personas autorizadas puedan acceder a los sistemas que almacenan nuestra información y que esos permisos deban ser revisados de forma constante y eliminados cuando ya no correspondan. No hacerlo puede derivar en situaciones graves. En un caso reciente en Perú, un extrabajador de una empresa de telecomunicaciones fue investigado penalmente porque delincuentes aprovecharon un acceso a su nombre que nunca había sido desactivado para ingresar a la base de datos personales nacional y, con esa información, suplantar personas, cambiar titularidad de líneas móviles y robar cuentas bancarias.

Para prevenir estos delitos, es necesaria la aplicación del principio de “mínimo privilegio”, es decir, que cada persona que trabaja en las entidades que almacenan nuestros datos tenga únicamente los accesos que necesita para cumplir su función, y desactivar de inmediato los accesos de quienes dejan esa institución.

Asimismo, la adopción de autenticación multifactor (MFA) en todos los accesos administrativos junto al uso de gestores de contraseñas, reduce significativamente el riesgo de intrusiones. La MFA consiste en combinar al menos dos métodos distintos de verificación, como por ejemplo: algo que sabemos (una contraseña), algo que tenemos (un celular o un token físico) y algo que somos (huella digital o rasgos faciales). No obstante, este último método -la biometría- actualmente no es una solución libre de riesgos. En Brasil, por ejemplo, se investigó un esquema que vulneró los sistemas de biometría del portal gov.br mediante técnicas de manipulación de imágenes, accediendo de forma indebida a datos personales.

Otra medida indispensable es el cifrado. En pleno 2025 todavía vemos bases de datos expuestas y archivos circulando sin protección, como si fueran documentos abiertos al público. Ese tipo de fallo de seguridad permitió la intrusión fraudulenta a los registros de más de 243 millones de personas en Brasil en 2020, cuando credenciales del Ministerio de Salud quedaron expuestas en el código fuente de una página oficial durante al menos seis meses. Toda información debe almacenarse cifrada y toda transferencia de información debe viajar por canales seguros, como ocurre con las páginas web que usan HTTPS en lugar del inseguro HTTP.

La seguridad exige constancia: auditar accesos, detectar patrones anómalos como consultas masivas o fuera de horario y mantener registros verificables. Cada ingreso debe quedar trazado y cada alerta investigada a tiempo, porque no sirve reaccionar cuando el daño ya está hecho. La ciudadanía tiene derecho al resguardo de sus datos y su privacidad y no solo a que se informe livianamente después de un incidente. Cada registro ignorado o cada log sin revisar es, en realidad, una decisión sobre cuánto valoran las instituciones la confianza pública.

Tan importante como proteger los sistemas es cuestionar la cantidad de información que se recolecta. Muchas filtraciones se podrían haber evitado si las organizaciones no hubieran almacenado más datos de los necesarios. Guardar copias indefinidas de documentos, recolectar información sensible “por si acaso” o para generar publicidad, no establecer plazos claros de eliminación, todo esto multiplica los riesgos.

De todas formas, ninguna herramienta sustituye a una cultura de seguridad que ponga a las personas en el centro. Una capacitación en seguridad digital de media hora una vez al año no forma conciencia ni previene errores. Las instituciones necesitan contar con una política de seguridad digital, dotada de equipos profesionales preparados, protocolos claros y un compromiso real desde la dirección hasta el último nivel operativo. A menudo vemos gastos millonarios en sistemas de seguridad, pero la tecnología por sí sola no es suficiente si no se acompaña de procesos claros de prevención, detección y respuesta, y de especialistas capacitados que entiendan que están protegiendo a personas, no solo datos o dispositivos.

Cuando la ley no alcanza

Varios países de América Latina cuentan hoy con leyes de protección de datos personales y autoridades de regulación. Sin embargo, los casos recientes demuestran que lejos de resolverse, esta problemática se vuelve recurrente en nuestra región: tanto empresas como entidades estatales vuelven a tener filtraciones que afectan a millones de personas. El marco regulatorio, aunque necesario, se muestra insuficiente si no existe la capacidad y voluntad de hacerlo cumplir.

Proteger los datos es un deber político y ético. El Estado debe garantizar derechos y construir confianza ciudadana, y las instituciones -públicas y privadas- asumir que detrás de cada registro hay vidas humanas. Mientras nuestra región no entienda que la privacidad es parte de la dignidad, seguiremos tratando las filtraciones como simples fallas técnicas, cuando en realidad evidencian la falta de compromiso público con la protección de derechos.

La resiliencia digital del arcoiris

En medio de un mundo convulsionado por la irrupción de la IA, las personas intentan aprovechar los beneficios que estos avances tecnológicos pueden brindar pero, a la vez, buscan lidiar con aquellas consecuencias negativas que ese mismo uso puede traer, y que en ocasiones aún ni podemos identificar. Entre ellos, uno de los problemas que se ha profundizado y mutado es el de la Violencia de Género Facilitada por las Tecnologías (VGFT). Estudios de la ONU, y de personas especialistas en el tema, ya demuestran el impacto diferencial de ciertos procesos tecnológicos sobre determinados sectores sociales, grupos en situación de vulnerabilidad que pagan mucho más caro las amenazas del ámbito digital, entre los que se encuentran las mujeres y las personas de la comunidad LGBTIQA+.

Si bien las tecnologías históricamente han servido como espacio de refugio y red para los colectivos de la diversidad, hoy observamos un estrepitoso auge de los discursos de odio, hipervigilancia, persecución, acoso y violencia digital que sufren a diario estas poblaciones. ¿Cuáles son los desafíos que enfrentan ante este nuevo terreno digital hostil? ¿Qué estrategias construyen las organizaciones latinoamericanas para resguardar al colectivo LGBTIQA+ y aprovechar las tecnologías en su favor?

Resurgimiento de los discursos antiderechos

Antes de poner la lupa sobre el entorno digital, repasemos lo que las renovadas derechas de nuestro continente vienen expresando en relación a los derechos LGBTIQA+. El retorno de Trump a la Casa Blanca vino con una nueva propuesta para la derecha global: la batalla cultural radical contra lo que ellos denominan “agenda woke”. El actual gobierno de EE. UU. cerró todos los programas estatales de diversidad, equidad e inclusión (DEI) del gobierno federal, destinados principalmente a las minorías, entre otras políticas sustanciales.

Para los nuevos -viejos- paladines de los valores morales y la familia tradicional, la educación sexual en las escuelas es adoctrinamiento, el cupo laboral trans es un privilegio, el lenguaje inclusivo es una aberración para la lengua. Con esa narrativa justifican el cierre de políticas públicas e instituciones enteras y se pasean por conferencias internacionales con discursos cargados de odio contra personas LGBTIQA+.

Así lo vienen expresando los gobiernos de ultraderecha de Argentina y El Salvador. En el marco del último Foro Económico Mundial, el presidente Javier Milei, vinculó lo que catalogó como “versiones extremas de la ideología de género” con el abuso infantil. Desde que inició su gestión, Argentina está experimentando un rápido retroceso para los derechos de las mujeres y personas LGBTIQA+. Por su parte, pocos días después de asumir el poder, Nayib Bukele eliminó la Dirección de Diversidad Sexual, y en su participación en la Conferencia de Acción Política Conservadora (CPAC) de 2024, dijo: “Es importante que la currícula no lleve ideología de género”.

Sin embargo, estos escenarios regresivos no se circunscriben a países con gobiernos autoritarios de derecha. Según el Instituto Raza & Igualdad, el asesinato de personas por su orientación sexual o identidad de género es una realidad en Latinoamérica, al punto que la región se ubica como la más peligrosa en el mundo para personas trans. En ese contexto, Brasil, México y Colombia, gobernados por coaliciones progresistas y de izquierda, son los países con mayor número de casos, según el Trans Murder Monitoring. Por ejemplo, la regional América Latina y Caribe de ILGA determinó en un informe que en Brasil se asesina a una persona LGBTIQA+ cada 34 horas.

Entre las tendencias del informe anual 2024 de la Comisión Interamericana de Derechos Humanos (CIDH), se señala que, durante el año pasado, “los desafíos particulares que enfrentan las personas y grupos que padecen discriminación histórica y sistemática se intensificaron”. En particular, registran un aumento de discursos de odio, desinformación y cuestionamiento de los derechos de las personas LGBTIQA+ y mujeres, entre otros sectores sociales.

Narrativas digitales de odio

Las personas LGBTIQA+ en América Latina enfrentan diversas problemáticas en el entorno digital, que van desde la violencia en línea hasta la vulneración de datos personales, pasando por otras modalidades que configuran un escenario hostil, en lo que históricamente ha sido un espacio de red y refugio para esta comunidad.

Antes de repasarlas, hablemos de la brecha digital de géneros. Según la lista elaborada por la Internet Society sobre las tarifas de internet móvil, ocho de los diez países con los precios más elevados están en América. Más allá del costo del servicio, nuestra región cuenta con amplios territorios rurales o semiurbanos, donde se carece de energía eléctrica, así como del equipamiento de banda ancha necesarios para lograr cobertura de red. El reporte de ILGA “Acceder a la conexión: cerrando la brecha digital de las comunidades LGBTI en el mundo”, identifica que en América Latina la falta de infraestructura de red afecta especialmente a las personas LGBTIQA+, muchas de las cuales también se ven marginadas por su raza y/o condición de pertenencia a la población indígena.

La violencia digital contra las personas LGBTIQA+ viene en aumento en redes sociales como X, Facebook y YouTube, según la investigación de ILGA. Además, señala que este colectivo es más vulnerable a sufrir daños en línea que sus pares heterosexuales y cisgénero. Pero, ¿qué hacen las plataformas para regular estas agresiones y promover mayor inclusión y seguridad? Hacen poco o nada; e, incluso, en sintonía con la agenda conservadora global, permiten que estos comportamientos violentos se extiendan.

Tras los anuncios de Zuckerberg a inicios de 2025, los usuarios de las plataformas de Meta pueden denominar a personas gays o trans como “enfermos mentales”, sin restricciones. Una investigación brasilera demuestra que las personas usuarias de TikTok que se identifican como no binarias se han visto especialmente afectadas por la aplicación de las normas de las plataformas en América Latina. Las políticas de contenido y los términos de servicio tienen un impacto diferencial en su privacidad, autonomía, libertad de expresión y derechos sociales, económicos y reproductivos. Por otra parte, las principales conclusiones del “Índice de seguridad en las redes sociales” de este año, indican que las recientes revocaciones de las políticas contra el discurso de odio en Meta y YouTube representan graves amenazas para la seguridad de las personas LGBTIQA+; y que las plataformas suprimen desproporcionadamente el contenido de los colectivos de la diversidad mediante la eliminación, la desmonetización y el shadowbanning.

Para completar el diagnóstico, es importante destacar que esta población también sufre de manera desproporcionada la persecución e hipervigilancia digital, también conocida como “vigilancia queer”. Hoy es difícil que la huella digital contemple el anonimato de las y los internautas, lo que expone aún más a las comunidades LGBTIQA+ en relación con su privacidad y datos personales en la interacción digital. Los perfilamientos en redes sociales a partir de la identidad de género, no sólo se utilizan con fines comerciales y publicitarios, sino que también pueden ser una herramienta de los Estados para la vigilancia y criminalización de determinados grupos sociales.

Internet pintada con todos los colores

Si bien las personas y colectivos LGBTIQA+ reconocen estas problemáticas y sus impactos negativos, no están dispuestas a abandonar internet, sino más bien adaptarse a los tiempos que corren y construir la resiliencia digital que el contexto requiere. En la actualidad, tanto organizaciones feministas y de la diversidad, como colectivos por los Derechos Humanos en internet, se articulan y trabajan para crear espacios y herramientas que acompañen a estas comunidades a transitar de manera más justa, inclusiva y segura el ecosistema digital.

Derechos Digitales publicó una investigación que documenta la labor de tres líneas de ayuda en materia de seguridad digital operando en América Latina: el Centro S.O.S Digital de Fundación InternetBolivia.org en Bolivia, Maria d’Ajuda de Marialab en Brasil y Navegando Libres por la Red de Taller Comunicación Mujer en Ecuador. Además, a través de los Fondos que brinda la organización, se fomentan iniciativas que buscan generar resiliencia digital en los colectivos feministas y LGBTIQA+ de nuestra región, como por ejemplo un proyecto desarrollado por LatFem basado en cuidados digitales para ejercer más y mejor periodismo feminista.

Existen también plataformas digitales destinadas a documentar y archivar la historia de las diversidades, como son el Recursero Trans y el Archivo Trans de Argentina, el Colectivo Pedrina de El Salvador, el Archivo de la Memoria Transmasculina de México, y el Archivo de la Memoria Marica del Perú, así como varios proyectos de registro que fomenta el área LGBT+ de Wikimedia en plataformas abiertas. Asimismo, proliferan los medios de comunicación digitales con perspectiva feminista que prestan especial atención a la actualidad y agenda de la diversidad. Entre ellos podemos mencionar a la agencia Presentes, GenderIT.org, Volcánicas, Portal Catarinas, Wambra, Muy Waso y Altavoz LGBT+.

Con el fin de fomentar la seguridad digital de las personas y activistas LGBTIQA+, varios colectivos impulsan guías y recomendaciones: Libres y Segures de TEDIC en Paraguay, Guía de Defensa Contra la Violencia Digital de R3D e Impunidad Cero en México, y Nos Mantenemos Seguros: Guía de Seguridad Digital LGBTQ de GLAAD. Además, en la región se construyen plataformas que permiten realizar estadísticas, cifras y mapeos sobre la violencia digital contra personas de estas comunidades, como Sin Violencia, El Observatorio de Violencias LGBTIQ+ de ILGA LAC, o el Informe Anual de Derechos Humanos de la Diversidad Sexual y de Género de MOVILH Chile.

Una red inclusiva y diversa es posible

Las experiencias e iniciativas dan cuenta de una actividad dinámica y esperanzadora en lo que podríamos llamar la resiliencia digital del arcoiris. Valores históricos de la comunidad LGBTIQA+ como la solidaridad, el autocuidado colectivo, la red y la empatía, se ponen en juego también en la esfera de internet. Si bien podemos observar un giro hacia la privacidad que parece contrario a la disputa de visibilidad del movimiento, lo cierto es que las estrategias de privacidad resultan, en este contexto, una de las pocas herramientas con las que cuentan para evitar el expolio de los datos personales, y la conformación de perfiles de internautas, que implica también riesgos de vigilancia y control por fuerzas de seguridad estatales y grupos extremistas.

Pero está claro que sólo con los esfuerzos de la sociedad civil no alcanza. Se necesitan marcos regulatorios a nivel global, regional y nacional, que protejan a estos grupos en situación de vulnerabilidad y erradiquen la violencia de género digital. Los sesgos de los algoritmos y la IA se alimenta de discriminaciones y estereotipos históricos contra las minorías. Precisamos de enfoques interseccionales para abordar estos peligros, y compromisos concretos de las compañías de tecnologías para que internet vuelva a ser un espacio de fomento de los Derechos Humanos, y no todo lo contrario.

Muchas personas y activistas LGBTIQA+ abandonan las redes, o disminuyen su interacción en línea, por miedo. Es imprescindible el fomento de políticas públicas y reglas claras y transparentes para el funcionamiento de las plataformas, para que todas las personas, sin importar su identidad de género, puedan sentirse seguras en la red. Porque no volveremos al closet nunca más, ni en las calles, ni en internet.

Datos, privacidad y nuestra huella digital

Tuve la suerte de experimentar con computadoras desde niño en la década de 1980. En esa época la información se guardaba en disquetes, primero los de 5 ¼, luego los de 3 ½. El disquete de mayor capacidad no podría almacenar una sola foto de la que tomamos hoy en día con un teléfono móvil. Sin embargo, en ellos guardábamos videojuegos -lo que más me gustaba en esa época-, archivos de texto y hojas de cálculo. Si bien era poca la información que estos dispositivos almacenaban, las personas eran muy conscientes de su importancia y era común tener varias copias de un documento en distintos disquetes. Con el tiempo, la capacidad de almacenamiento se incrementó y las computadoras personales empezaron a traer discos duros donde se podía guardar mucha más información. Eso sí, era importante respaldarla en disquetes porque la computadora podía dañarse con virus o con alguna descarga eléctrica.

Ya en los 90 se popularizaron los discos compactos (CD por sus siglas en inglés), primero para música y luego para software más complejo que podía almacenar mucha más información. La capacidad de un solo CD era equivalente a la de, aproximadamente, 484 disquetes y la disponibilidad de espacio facilitó la popularización, entre las personas usuarias de ese entonces, de la grabación de multimedia, como música, fotos y videos. Durante esa época, algunas personas tuvimos la suerte de conectarnos a internet, a través de la telefonía fija de las casas utilizando el sistema de dial-up. Si bien las conexiones eran muy lentas, y el contenido multimedia limitado, algo importante empezó a cambiar en relación a la gestión de nuestra información y todavía no teníamos noción de esto: nuestros datos se comenzaban a guardar de manera remota.

En sus inicios, utilizábamos internet para aprender, investigar y comunicarnos. El correo electrónico era la principal forma de comunicación y, a finales de los 90, si no tenías un correo de Hotmail, era de Yahoo, aunque había otros también. Sin embargo, lo que tenían en común esos sistemas era que su capacidad de almacenamiento era limitada y los buzones de correo se llenaban rápidamente, por lo que había que vaciarlos y respaldar localmente la información que considerábamos importante. Esto empezó a cambiar en 2004, cuando Google creó Gmail con una capacidad extraordinaria para el guardado comparado con el resto de proveedores de correo de la época: 1GB o el equivalente a 710 disquetes de 3 ½ . En pocos años, Gmail se convirtió en uno de los proveedores más populares y borrar correos electrónicos en algo del pasado. La capacidad de almacenamiento creció de manera similar del tamaño de los archivos multimedia que hoy son tan populares.

Con la popularización de los teléfonos inteligentes, pude vivir otra gran transformación: la integración directa entre mi información –como contactos, fotos, documentos y otros – y los servidores de las gigantes tecnológicas como Apple y Google. Esta costumbre de guardar la información en línea en servidores remotos fue adoptada por otras empresas y es lo que actualmente conocemos como “la nube”.

Durante los cerca de 40 años que llevo siendo usuario de la informática pude presenciar la transición del almacenamiento de forma local a remota. Cuando la información se guardaba de forma local sabíamos dónde estaba y éramos responsables de su cuidado. Cuando apareció la nube, cedimos esta información a terceros que guardan nuestros datos bajo criterios de acceso y respaldo que no siempre conocemos.

Somos datos, ¿dónde estamos?

Somos nuestros contactos, “dime con quién andas y te diré quién eres”. Somos nuestros chats, correos, fotos y videos que describen nuestra vida personal y profesional. Somos el lugar y la hora donde nos encontramos, lo que buscamos, lo que leemos, los likes que damos y los likes que no damos. Somos los documentos de texto, las hojas de cálculo y las presentaciones que hacemos. Somos las conversaciones que tenemos con la inteligencia artificial y muchos datos más.

Todos ellos se encuentran en la nube –lo que coloquialmente conocemos como la computadora de alguien más-. Google sabe lo que buscamos, nuestros correos electrónicos, ubicación, los documentos que escribimos y con quién colaboramos. Meta conoce nuestras interacciones sociales a través de plataformas como Facebook, Instagram o WhatsApp. Aquí citamos sólo dos ejemplos, pero vale la pena preguntarnos: ¿por qué estas empresas ofrecen tanto espacio para almacenar nuestra información de forma gratuita? Si para nosotras hay una ventaja clara en no depender de dispositivos frágiles o limitados, ¿qué beneficios obtienen ellas? ¿Cuál es el costo real de esta inesperada gentileza?

Hoy sabemos que estas empresas nos regalan espacio de almacenamiento porque esos datos les dan poder. Empresas como Google y Meta nos dan servicios “gratuitos” a cambio de nuestros datos, que luego utilizan para vender publicidad dirigida o generar nuevos productos que luego serán explorados económicamente. Desde hace algunos años estamos viviendo el boom de la inteligencia artificial, en particular de los modelos largos de lenguaje. ¿Nos hemos preguntado por qué aplicaciones como Gemini y ChatGPT saben lo que saben? Es muy probable que las hayamos estado entrenando con nuestros datos sin un consentimiento explícito.

Pero el uso comercial de nuestros datos por las gigantes de tecnología no es el único riesgo del modelo de almacenamiento en nube a nuestra privacidad. En 2013, Edward Snowden filtró documentos de inteligencia de EE. UU. que revelaron cómo este país y sus aliados utilizan la infraestructura de empresas como Google, Meta, Microsoft y Yahoo, entre otras, para espiar a sus usuarios. Ya pasaron 12 años desde estas filtraciones y si bien se han incorporado algunas protecciones adicionales a la información que circula en internet, lo más probable es que los datos almacenados en la nube sigan siendo espiados. Es más: es plausible pensar que el modelo se replica en otros contextos y la información almacenada en Tik Tok, Alibaba o Temu también sean accesibles por agencias del gobierno chino.

El éxito del modelo depende de las facilidades que puedan ofrecer en un contexto de abundancia (por no decir exceso) de información, versus la dificultad de tener mayor control. Pensemos en las fotografías que tomamos en nuestros teléfonos móviles. Por defecto, cuando se toma una fotografía, esta se sube a la nube de Google o a la de Apple. Personalmente, no quiero que mis momentos personales queden almacenados en una nube a la cual tienen acceso agencias de inteligencia de diferentes países del mundo. Es verdad que tanto Android como Apple permiten desactivar la característica de sincronizar nuestras fotos. ¿Pero qué pasa con las fotos donde aparezco, que fueron tomadas desde el celular de otra persona? ¿Mi exposición personal queda entonces dependiente de la consciencia de una persona desconocida? 

¿Qué podemos hacer?

Existen datos sobre los que podemos tener control de forma individual, otros que podemos controlar de forma colectiva y otros sobre los que no tenemos control directo. Para proteger nuestra privacidad, podemos pensar en almacenar la información privada de manera local. Si pensamos en un documento de texto, podemos utilizar herramientas como LibreOffice en lugar de Office 365 o Google Docs, que están conectados a las nubes de sus proveedoras. Si pensamos en fotos tomadas en nuestro teléfono, podemos desactivar la sincronización de las mismas, tanto en Android como iPhone.

Sí, gran parte de las buenas prácticas en gestión de información personal actualmente requieren resistir a las supuestas facilidades ofrecidas por los servicios dominantes y cambiar prácticas para lograr recuperar nuestra autonomía. Al almacenar la información de manera local, ganamos en privacidad, pero puede ser que, al menos al inicio, perdamos en conveniencia.

Podemos experimentar vivir la digitalización de otras formas. Por ejemplo, para respaldar las fotos y otros documentos de un teléfono, podemos utilizar el cable de datos para transferir la información a nuestra computadora y de la computadora podemos usar un disco duro externo para respaldar nuestros datos. También se puede acceder a soluciones más sofisticadas utilizando herramientas libres como Syncthing o mediante un servidor de archivos.

También podemos utilizar aplicaciones cifradas como Signal. Si queremos compartir más documentos, podríamos buscar nubes en las que confiemos o incluso utilizar nubes en las que no confiamos pero cifrar nuestros documentos con herramientas como Veracrypt.

En organizaciones o comunidades donde se cuenta con determinados recursos, se puede utilizar infraestructura propia y autónoma con herramientas de software libre. En el caso de Derechos Digitales, compartimos nuestros documentos a través de una instancia propia de  Nextcloud, los redactamos utilizando OnlyOffice o a través de pads. Nuestras conversaciones suceden a través de nuestra propia plataforma de chat cifrada y autónoma. En el caso de los correos, si bien no controlamos nuestro servidor, sí estamos en la capacidad de cifrar correos sensibles utilizando aplicaciones como Thunderbird.

Tener control sobre el lugar donde se almacena nuestra información o cifrar la información sensible en lugares que no controlamos es una forma de ejercer nuestro derecho a la privacidad. Lamentablemente eso no siempre es una tarea sencilla o posible. Por eso es que seguimos luchando para que cualquier recolección o uso de nuestros datos se haga en base a criterios muy bien establecidos de modo que se garantice el respeto y la protección de nuestros derechos. Y una forma de resguardar nuestra privacidad es defendiendo el cifrado, el anonimato y la privacidad por diseño, intentando alinear nuestra comodidad con el ejercicio de los Derechos Humanos.

Nuestras vidas suceden en el espacio digital y, por tanto, quedan documentadas. Entender dónde se almacenan es el primer paso para poder cuidar nuestros datos y nuestra privacidad. Es fundamental que la ciudadanía tenga una visión crítica de la vida digital y poder explorar alternativas tecnológicas que nos permitan retomar el control sobre nuestra información.