A veinte años de WSIS: defender lo mínimo, disputar lo posible

Veinte años después de la Cumbre Mundial sobre la Sociedad de la Información (WSIS), la revisión WSIS+20 se desarrolla en un contexto marcado por profundas transformaciones tecnológicas y políticas. La visión de una sociedad de la información centrada en las personas, establecida en WSIS, sigue vigente, pero hoy se ve atravesada por tensiones crecientes: desigualdades persistentes, concentración de poder, retrocesos democráticos y tensiones geopolíticas que estructuran la agenda digital global. Desde la sociedad civil, participamos en este proceso con una posición clara: que el balance de estas dos décadas no se limite a un ejercicio diplomático, sino que permita responder a las urgencias del presente y sentar bases para un futuro respetuoso de los derechos humanos, la igualdad de género y la justicia ambiental.

Veinte años después de WSIS: qué se está discutiendo y por qué importa

Cuando se convocó la Cumbre Mundial sobre la Sociedad de la Información (CMSI, WSIS por sus siglas en inglés), en 2003 y 2005, no existía un marco general que orientara el desarrollo de políticas digitales ni un entendimiento común de la gobernanza de internet como campo de política pública. WSIS surgió ante el reconocimiento de que había una “necesidad urgente de aprovechar el potencial del conocimiento y la tecnología” para cumplir los objetivos de la Declaración del Milenio, con la meta de construir una sociedad de la información centrada en las personas, inclusiva y orientada al desarrollo.

Los resultados de ambas cumbres sentaron las bases de ese marco. La Declaración de Principios de Ginebra presentó una visión compartida basada en derechos; el Plan de Acción de Ginebra propuso Líneas de Acción para llevar esa visión a la práctica; y la Agenda de Túnez abordó la gobernanza de Internet, y creó el Foro de Gobernanza de Internet (IGF), esencial para el diálogo multisectorial. En ese recorrido, WSIS encaminó a la gobernanza de internet “hacia un rumbo de múltiples partes interesadas” (multistakeholder): si bien la idea de cooperación entre distintos actores no era nueva, fue durante WSIS que pasó a entenderse como un elemento indispensable para alcanzar el objetivo de una sociedad de la información verdaderamente centrada en las personas.

A veinte años de ese momento fundacional, el escenario es distinto. Las tecnologías digitales se desarrollan e implementan en sociedades atravesadas por desigualdades estructurales, y las brechas –entre países, dentro de ellos y entre grupos sociales– no solo persisten, sino que se profundizan. El desarrollo acelerado de tecnologías emergentes como la inteligencia artificial, la expansión de tecnologías y prácticas de la vigilancia, la concentración de poder corporativo y los conflictos regulatorios plantean desafíos que WSIS no había anticipado. A esto se suman dinámicas geopolíticas cambiantes que vienen generando retrocesos en materia de democracia y derechos humanos, con impactos particularmente graves en la igualdad de género.

En ese contexto, la revisión WSIS+20, que concluirá en diciembre de 2025, plantea la necesidad urgente de avanzar hacia una noción de justicia digital que responda al contexto actual y sitúe la visión fundacional de WSIS en las experiencias de comunidades históricamente excluidas, profundamente afectadas por formas de autoritarismo estatal y corporativo.

Desde Derechos Digitales participamos activamente en este proceso junto a otras organizaciones, a través de coaliciones que trabajan de manera coordinada. Somos parte de la Global Digital Rights Coalition for WSIS (GDRC-WSIS) y colaboramos con el Global Digital Justice Forum (GDJF) y la Coalición de género. Estas alianzas nos permitieron impulsar una posición común:  cumplir la visión de una sociedad de la información centrada en las personas exige situar los derechos humanos en el centro de la gobernanza digital y de la implementación de las Líneas de Acción, y garantizar que la igualdad de género ocupe un lugar central e irrenunciable. Apostamos por un marco orientado al futuro que permita un entorno digital abierto, libre y seguro y que avance hacia políticas digitales que promuevan equidad, desarrollo sostenible y una gobernanza efectivamente democrática.

El proceso: oportunidades y limitaciones

El proceso WSIS+20 avanzó mediante consultas, llamados a contribuciones y sucesivas versiones del borrador. Pero, a diferencia de la revisión WSIS+10, no contó con un proceso preparatorio como la Plataforma Preparatoria Multisectorial (MPP) impulsada por la UIT en 2015. La ausencia de un mecanismo equivalente, junto con un calendario más corto, limitó las oportunidades de participación.

En paralelo, distintas agencias del sistema de Naciones Unidas realizaron sus propios procesos de revisión: la UIT, la UNESCO y el PNUD avanzaron en evaluaciones sectoriales, mientras que la CSTD -encargada del seguimiento sistémico de WSIS- presentó su informe. Estos insumos alimentaron, en distintos momentos, la negociación intergubernamental.

Para hacer frente a esas limitaciones, desde sociedad civil impulsamos propuestas orientadas a asegurar una participación significativa. Una de ellas fue el Plan de cinco puntos para una revisión inclusiva de WSIS, que planteó medidas concretas para reforzar la transparencia y la inclusión: un calendario claro y público; registros accesibles de aportes y discusiones; oportunidades recurrentes para comentarios; criterios de acreditación más inclusivos y apoyo a grupos subrepresentados; y mecanismos que facilitaran la participación de actores no gubernamentales durante las negociaciones. El objetivo fue operacionalizar las modalidades del proceso y evitar los obstáculos de participación que enfrentamos en el Pacto Digital Mundial.

A lo largo de las distintas etapas -del documento del Elements Paper al Borrador Cero y posteriormente las versiones Rev1 y Rev2- se reflejaron las posiciones estatales en negociación, permitiendo identificar qué temas concentraban mayores consensos y dónde persistían desacuerdos. En este recorrido, el rol de los co-facilitadores fue clave para sostener referencias centrales de WSIS, equilibrar prioridades contrapuestas y mantener un proceso constructivo en un contexto político complejo.

Para complementar este esfuerzo, los cofacilitadores crearon el Consejo Multisectorial Informal de Consulta (IMSB), integrado por personas del Grupo Asesor Multisectorial (MAG) y del Panel de Liderazgo del Foro de Gobernanza de Internet (IGF). Su función fue canalizar perspectivas de actores no gubernamentales, sintetizar aportes y promover una participación más diversa.

Un hito central del proceso fue el  Evento de Alto Nivel WSIS+20, organizado por la UIT junto con la UNESCO, el PNUD y la UNCTAD. En ese marco, desde Derechos Digitales tuvimos a nuestro cargo una sesión oficial sobre la participación del Sur Global en la gobernanza digital, lo que implicó formar parte de la construcción de la agenda del foro. A partir de ese espacio de intercambio, elaboramos un documento de insumo que recogió los aportes y discusiones surgidas durante la sesión. Además, participamos activamente mediante intervenciones en otras sesiones, reuniones con delegaciones y la presentación de recomendaciones centradas en derechos humanos, igualdad de género y participación significativa.

El balance procedimental es mixto. Hubo esfuerzos por abrir espacios de participación, pero estos no alcanzaron el estándar de procesos anteriores. Al mismo tiempo, el desarrollo de las negociaciones volvió a evidenciar límites estructurales del modelo multilateral. Por un lado, las desigualdades entre Estados se traducen en distintos niveles de presencia, capacidad de incidencia y margen de influencia en los espacios de negociación, afectando especialmente a regiones como América Latina, que suelen tener una representación más acotada. Por otro, el carácter cerrado de las negociaciones intergubernamentales -que no pueden ser observadas por otros actores- reduce la transparencia del proceso y profundiza la distancia entre las decisiones que se toman y las realidades que buscan regular. A esto se suma la centralidad de Nueva York como sede de las negociaciones finales, lo que limita considerablemente las posibilidades de participación presencial, en particular para organizaciones y personas de la región, dadas las restricciones de recursos y las políticas migratorias vigentes. En este contexto, el protagonismo de los Estados vuelve a poner de relieve una tensión persistente: las posiciones gubernamentales no siempre reflejan las realidades ni las demandas de las personas y comunidades que habitan sus países, una brecha que resulta especialmente preocupante en el caso de poblaciones en situación de vulnerabilidad.

Avances y límites en un contexto político complejo

El desarrollo de la revisión WSIS+20 debe leerse a la luz de un contexto político más tenso, y quizás más inestable que en procesos anteriores. La 28° sesión de la Comisión de Ciencia y Tecnología para el Desarrollo (CSTD) funcionó como un primer termómetro de ese clima: allí se evidenciaron tanto áreas de coincidencia como desacuerdos profundos, así como cambios relevantes en las posturas estatales. En particular, la decisión de Estados Unidos de forzar una votación -vinculada a su oposición a referencias a los Objetivos de Desarrollo Sostenible y a menciones sobre género- rompió con una práctica histórica de consensos y anticipó un escenario de negociación más confrontativo.

Ese clima quedó reflejado en las contribuciones estatales al Elements Paper, que operó como un mapa inicial de prioridades. Allí se hicieron visibles profundas diferencias en cuestiones clave: el futuro de las Líneas de Acción, el alcance del modelo de múltiples partes interesadas, la cooperación reforzada, la rendición de cuentas del sector privado y el lugar que debían ocupar la inteligencia artificial y la gobernanza de datos dentro del marco de WSIS. Al mismo tiempo, se notaron ciertas coincidencias más amplias en torno al acceso, la inclusión y la importancia del ecosistema de gobernanza de internet. En varios de estos ejes, las posiciones oscilaron entre propuestas de ajustes incrementales y planteos de cambios más estructurales, incluida la creación de nuevas Líneas de Acción, entre ellas una dedicada a la igualdad de género.

El Borrador Cero (Zero Draft) representó un avance relevante respecto del Elements Paper, particularmente a la luz de las críticas formuladas en las primeras etapas del proceso. En materia de derechos humanos, el borrador incorporó referencias explícitas a tratados internacionales clave y a la obligación de adoptar mecanismos de debida diligencia, supervisión y mecanismos de reparación, fortaleciendo el anclaje del texto en el derecho internacional. En relación con la igualdad de género, el cambio fue especialmente significativo: mientras el Elements Paper se limitaba a referencias a mujeres y niñas, el Zero Draft incorporó explícitamente el concepto de género y estableció la transversalización de género como un elemento aplicable a lo largo del marco. Este avance resultó particularmente relevante en un contexto político que parecía anticipar la continuidad de un enfoque más restrictivo. El texto también reafirmó de manera clara la cooperación multisectorial como principio orientador del proceso. Una victoria particularmente significativa para la sociedad civil fue la decisión de reafirmar la permanencia del Foro de Gobernanza de Internet.

Al mismo tiempo, el texto evidenció límites importantes. Su abordaje tendió a ser excesivamente optimista y careció de un análisis estructural de las formas contemporáneas de injusticia digital. Muchas de sus promesas -en materia de financiamiento, fortalecimiento de capacidades, integración efectiva de derechos humanos o enfoque de género- no se acompañaron de estrategias claras ni recursos definidos, lo que planteó interrogantes sobre su viabilidad.

Frente a este borrador, desde la sociedad civil señalamos la importancia de preservar los avances alcanzados y de evitar que se diluyeran en las etapas siguientes de negociación. Entre varias cuestiones, propusimos incorporar un reconocimiento explícito de la obligación de los Estados de aplicar un enfoque precautorio y de abstenerse de utilizar tecnologías digitales incompatibles con el derecho internacional de los derechos humanos, así como de revisar sus marcos de vigilancia e interceptación de datos conforme a los principios de legalidad, necesidad y proporcionalidad.

También solicitamos incluir referencias claras a la responsabilidad de los Estados de exigir a las empresas la realización de procesos de debida diligencia y evaluaciones de impacto en derechos humanos, y de integrar estos estándares a lo largo de todo el ciclo de vida de las tecnologías digitales, incluidas la inteligencia artificial y la infraestructura pública digital.

Este marco, delineado entre el Elements Paper y el Zero Draft, fijó los principales ejes que atravesarían las versiones posteriores del texto, donde la disputa ya no pasaría tanto por incorporar nuevos compromisos como por sostener -o no debilitar- los ya alcanzados en un contexto político cada vez más restrictivo.

Revisiones 1 y 2: retrocesos, mejoras y tensiones abiertas

La Revisión 1 evidenció un retroceso concreto respecto del Borrador Cero en aspectos clave vinculados a derechos humanos, equidad y justicia digital global. Este retroceso se materializó en la eliminación de disposiciones específicas. Preocupantemente, se suprimió el párrafo que explicitaba la obligación de los Estados de promover un entorno tecnológico digital abierto, seguro, estable, libre, interoperable, inclusivo, accesible y pacífico, conforme al derecho internacional. También se eliminó lenguaje clave que establecía salvaguardas frente a la vigilancia masiva y exigía que la vigilancia selectiva respetara los principios de legalidad, necesidad y proporcionalidad, debilitando estándares ampliamente reconocidos.

En materia de género, se eliminó el párrafo dedicado a la violencia facilitada por la tecnología, incluida la violencia sexual y de género, lo que supuso la pérdida de referencias explícitas a la necesidad de abordar estos daños de manera integral. En conjunto, estos cambios reforzaron un tono tecno-optimista que dejó fuera las asimetrías estructurales del ecosistema digital y sus efectos desiguales, particularmente en los países y comunidades del Sur Global.

La Revisión 2 introdujo mejoras parciales frente a la versión anterior. Se preservaron principios centrales como la cooperación multisectorial y el reconocimiento de las directrices de NetMundial+10, y se restauraron referencias a la violencia facilitada por la tecnología, incluida la violencia sexual y de género, así como al manejo de residuos electrónicos. El texto también avanzó al llamar explícitamente a las plataformas de redes sociales y a las empresas de tecnologías de vigilancia a cumplir con los Principios Rectores de Naciones Unidas sobre Empresas y Derechos Humanos. Asimismo, reforzó la permanencia del Foro de Gobernanza de Internet al establecer una base estable y sostenible, con recursos y personal adecuados conforme a los procedimientos presupuestarios de la ONU, e incorporó orientaciones más claras sobre seguimiento e implementación mediante una hoja de ruta conjunta a nivel del sistema de Naciones Unidas, en articulación con el Pacto Digital Mundial.

El tramo final: riesgos y prioridades

En la etapa final del proceso, con la resolución encaminándose a la Asamblea General de Naciones Unidas, el desafío inmediato es sostener lo ya acordado. A lo largo de la revisión, gran parte del esfuerzo de la sociedad civil no se orientó a ampliar compromisos, sino a evitar retrocesos en materia de derechos humanos. Esta dinámica -defender mínimos en lugar de avanzar- refleja tanto el momento político actual como los límites del multilateralismo frente a los desafíos de la gobernanza digital.

Persisten, además, omisiones preocupantes. La inteligencia artificial es un ejemplo claro: el texto sigue evitando compromisos explícitos para que los Estados se abstengan de usar o cesen el uso de sistemas que no pueden operar en conformidad con el derecho internacional de los derechos humanos o que implican riesgos indebidos para su ejercicio, pese a la evidencia acumulada de daños reales y desproporcionados sobre comunidades marginadas y países del Sur Global. Esta falta de voluntad política ya se había evidenciado en el Pacto Digital Mundial y vuelve a repetirse aquí.

También en materia de rendición de cuentas del sector privado y de igualdad de género el texto resulta insuficiente. Las empresas tecnológicas concentran un poder significativo sobre las dinámicas de internet, pero los compromisos para exigir responsabilidades, garantizar remedios efectivos y establecer obligaciones claras de debida diligencia siguen siendo débiles. En paralelo, el enfoque de género continúa siendo frágil y disputado, lo que refuerza la necesidad de afirmar sin ambigüedades su integración transversal en todas las Líneas de Acción.

En este tramo final, la negociación avanza exclusivamente entre Estados, sin instancias formales de consulta ni posibilidad de observación por parte de otros actores. En este contexto, la expectativa está puesta en que aquellos Estados que se presentan como defensores de los derechos humanos -y, en particular, de políticas exteriores feministas- actúen en coherencia con esos compromisos y eviten nuevos retrocesos. El resultado de WSIS+20 mostrará hasta qué punto esas posiciones se traducen en decisiones concretas.

Gigantes tecnológicos en la cadena agroalimentaria: concentración corporativa y más dependencia del campesinado

Los precios de los alimentos en el mundo se incrementan día a día. Más allá de contextos específicos, como pueden ser guerras o desastres naturales, la responsabilidad de la inflación alimentaria se suele identificar fácilmente: el control monopólico de las corporaciones agroalimentarias. 

En el contexto de penetración de las Big Tech en casi todos los ámbitos de la vida, la cadena productiva de alimentos no se queda afuera, y hasta puede empeorar ese escenario. Alianzas entre gigantes del agro (Bayer, Syngenta, Cargill, por ejemplo) con gigantes del sector de tecnologías (Google, Meta, Microsoft, Amazon, entre otras) encienden alarmas y preocupaciones, especialmente entre comunidades campesinas e indígenas. Investigaciones recientes alertan sobre la profundización de su dependencia, la conversión de saberes colectivos ancestrales en mercancía y una posible exacerbación en la contaminación. En las próximas líneas, analizaremos los impactos de esta digitalización de la agricultura en los derechos campesinos.

Gigantes del agronegocio digitalizado

La concentración corporativa en el agro no es una novedad: los oligopolios ya dominan la cadena alimentaria mundial. Estas empresas controlan desde las semillas, genéticamente modificadas, hasta los llamados insumos agrícolas: agrotóxicos y fertilizantes para monocultivos, insostenibles por su impacto ambiental y deterioro de la tierra. Un sistema que genera consecuencias directas en los modos de producción campesinos, quienes sostienen la “columna vertebral” de la alimentación en nuestra región.

Esta industria ha entrado ahora en una nueva etapa. Según el nuevo reporte del Relator de la ONU sobre Derecho a la Alimentación, las empresas agroalimentarias están recurriendo cada vez más, mediante la digitalización, a las nuevas tecnologías digitales y al procesamiento de grandes cantidades de datos para desarrollar sus negocios. El documento plantea que estas innovaciones crean “nuevos desafíos en materia de derechos humanos en los sistemas alimentarios”. El último informe del Grupo ETC sobre el tema, describe al fenómeno como un “Caballo de Troya en los campos”: bajo la promesa de tecnología e innovación, esconde más control corporativo y menos autonomía para las comunidades agricultoras.

Acelerada por la pandemia del Covid-19, la digitalización del agro es promocionada por las transnacionales del sector como solución a ciertos problemas del cambio climático, y una transformación inevitable para lograr un modelo productivo más eficiente, como lo viene planteando hace años también el Banco Mundial. Con ese bombo publicitario y marketinero, florecen las startups de agricultura digitalizada (“AgriTech” en sus términos) en la región, donde Argentina y Brasil albergan casi 3/4 partes de las empresas de esta índole.

La semilla del bot en los campos

Ya no resulta extraña la presencia de drones en los cielos, sensores en los suelos, tractores guiados por GPS o productores trabajando con tablets y dispositivos donde utilizan aplicaciones y sistemas específicos para sus tareas. La digitalización en la agricultura implica el uso generalizado de herramientas como la IA, la ciencia de datos y la biotecnología para mapear tierras, almacenar información y crear nuevos sistemas digitales para gestionar los modos de producción rural.

La alianza entre Big Tech y corporaciones monopólicas de la agroindustria está promoviendo una datificación del conocimiento vinculado a agricultura y del comportamiento de los ecosistemas y bienes naturales comunes, como nunca antes. Se trata de un extractivismo masivo de datos que, además, en muchos casos están vinculados con historias y tradiciones comunitarias y colectivas. Quienes tengan mayor capacidad de recolectarlos y controlarlos, serán quienes puedan modelar los sistemas alimentarios y las políticas agrícolas para su propio beneficio, un mercado de negocios que no considera a la alimentación como un derecho humano y menos reconoce la existencia de derechos campesinos. No se trata de cuestionar la introducción de nuevas tecnologías en abstracto, sino más bien de preguntarse al servicio de quién están, quiénes las controlan, qué modelos productivos profundizan y qué tratamiento de datos hacen.

Repasemos algunos de los principales riesgos de este proceso. Suscribirse a un modo de producción gestionado a través de una plataforma digital implica para las y los agricultores una dependencia aún mayor: se vuelve un circuito en el cual desde la toma de decisión de qué semilla plantar hasta el sistema de pagos y cobros, todo debe pasar por servicios virtuales. El Relator de la ONU lo plantea con claridad: “En estas nuevas explotaciones digitales, los agricultores dejan de actuar según su libre determinación y en su lugar pasan a ser objetos de cosecha”. Como en la mayoría de los trabajos regulados por plataformas, no hay reglas claras y transparentes sobre el uso de datos ni políticas de privacidad sólidas, lo cual no sólo da lugar a la explotación de esos datos en términos mercantiles, sino que también habilita nuevas prácticas de control, que algunos grupos denominan como “agricultura de la vigilancia”. Considerando que América Latina es una de las regiones más hostiles para defensores y defensoras ambientales, esta forma de espionaje resulta preocupante.

Además, en una región con una gran brecha digital, donde muchos de nuestros países enfrentan las tarifas más elevadas de internet móvil del mundo, el acceso a la red ocasiona nuevos gastos a las comunidades, lo cual empeora sus condiciones de vida en los territorios. Más aún si consideramos los altos costos de la maquinaria inteligente. Sumado a esto, y siguiendo las conclusiones del informe de ETC, se estima que millones de puestos de trabajo en el campo serán sustituídos por drones y robots, sin planificar nuevas fuentes laborales para el sector. En algunos países, incluso se les prohíbe reparar su maquinaria porque contiene software patentado. Por último, como ya venimos planteando en Derechos Digitales, la enorme demanda de recursos naturales, como agua y energía, para alimentar toda la infraestructura digital necesaria para estos emprendimientos, es posible que traiga mayores niveles de contaminación y profundización de la crisis climática.

El big data en la agricultura se convierte así en una herramienta de dependencia, vigilancia y control que pone en riesgo la autonomía campesina y la biodiversidad agrícola.

¡A desalambrar las tecnologías!

“El mundo no necesita ni más datos ni más alimentos, sino que las personas tengan más autoridad y control sobre los datos en los sistemas alimentarios”, advierte la ONU. Como se dijo unos párrafos más arriba, no estamos poniendo en discusión la incorporación de las tecnologías digitales, sino más bien qué uso se les da y los modelos que sustentan. Las comunidades campesinas pueden hacer una utilización favorable de las herramientas tecnológicas, que aporten al bien común y no a las ganancias concentradas en unas pocas manos. ¡Y muchas ya lo vienen experimentando!

Las organizaciones que planifican integralmente modelos agroalimentarios alternativos desde los territorios, piensan en cada etapa del circuito: desde que el alimento se siembra (sus insumos, la fuerza de trabajo, etc) hasta que llega al plato de comida de las personas en sus casas (el comercio, traslados, etc). Existe una idea-frase bastante utilizada, que sintetiza muy bien esta propuesta: “Del campo a la mesa”. Por ello, las experiencias de colectivos vinculados al trabajo rural, a la defensa del ambiente, a comunidades indígenas, y a los derechos digitales, pueden abarcar distintos eslabones de este modo de producción, basado en la nociones de Agroecología y Soberanía Alimentaria.

El proyecto Territorios Libres, Tecnologías Libres, impulsado por Intervozes junto a comunidades quilombolas y rurales de Brasil, fue una iniciativa que marcó un interesante precedente en lo que respecta a analizar los usos y concepciones de las Tecnologías de la Información y las Comunicaciones (TIC) en territorios campesinos. A la vez, existe la Red de Evaluación Social de Tecnologías en América Latina (Red TECLA) que abarca algunos proyectos dedicados a la agricultura. La Herramienta de monitoreo de los pueblos para el derecho a la alimentación, proyecto de la Red Mundial por el Derecho a la Alimentación y a la Nutrición, sirve de guía a las comunidades, los movimientos, la sociedad civil, el mundo académico e incluso el funcionariado público en el monitoreo del derecho humano a una alimentación y nutrición adecuadas. Además, la Asamblea de Innovaciones de Base para la Agroecología (GIAA en inglés) es una articulación global que está fortaleciendo experiencias de tecnologías de base aplicadas a la agroecología.

Si pensamos en la cadena productiva, hay desarrollos vinculados directamente con los momentos de la siembra y los cultivos, como por ejemplo la aplicación Lunagro (FIAN Colombia), un calendario agropecuario basado en la interpretación del ciclo lunar. Además, La Mierda de Vaca brinda cursos presenciales y a distancia sobre cómo llevar adelante una agricultura orgánica.

Tanto el aislamiento y distanciamiento preventivo que impuso la pandemia del Covid-19, así como también los debates que introdujo respecto a la alimentación saludable, llevaron a un incremento exponencial en la demanda de bolsones de verduras orgánicas o agroecológicas por parte de la ciudadanía. En Argentina, Más Cerca es Más Justo, y en Brasil, Alimento de Origem, son ejemplos de las decenas de plataformas pertenecientes a redes de comercio justo existentes en América Latina, las cuales buscan nuevas formas de intercambio, evitando intermediarios y sobreprecios, y conectando más estrechamente a productores con consumidores.

Para poder aprovechar las imágenes satelitales en beneficio de la producción local y la conservación de bienes comunes naturales, muchas organizaciones trabajan con Organic Maps, una aplicación GPS y de mapas sin conexión centrada en la privacidad, desarrollada por la comunidad de código abierto. También, existen numerosos proyectos que unen activismo, sector académico y comunidades, como por ejemplo “Gobernanza Hídrica con el pueblo originario Yaqui en México”, analizado en nuestro Glimpse 2024, ideado para desarrollar estrategias efectivas de gestión comunitaria del agua.

Por último, vale destacar la importancia de sitios de información y debate que impulsan la agenda de estos movimientos y favorecen la divulgación de ideas vinculadas con modelos alimentarios alternativos. Entre ellos, podemos mencionar a Agro é Fogo, quienes difunden  “el rastro del fuego del agronegocio global”; BiodiversidadLA, desarrollado por la  Coordinadora Latinoamericana de Organizaciones del Campo – Vía Campesina; y Agencia Tierra Viva, impulsada por la Mesa Agroalimentaria Argentina, entre muchas otras iniciativas regionales.

Soberanía alimentaria y digital para vivir mejor

Los desafíos que viene planteando la digitalización en el campo son variados y complejos. Mientras se impulsan tecnologías digitales desde la sociedad civil y el Estado para el beneficio de las comunidades y los territorios, es fundamental generar marcos normativos nacionales, regionales y globales, que puedan proteger la privacidad y los datos en manos de las corporaciones que están desarrollando la datificación en el sector rural. El Estado de Brasil diseñó hace algunos años el Cadastro Ambiental Rural (CAR), como una herramienta que podría ser útil para monitorear el ambiente y los territorios, lo que dio lugar a un debate más que pertinente desde Data Privacy en relación a los datos personales de integrantes de comunidades. Incluso, algunos sectores vienen planteando como alternativa tratar los datos del sistema alimentario como un bien público para abordar esta problemática. Necesitamos que se reconozcan y protejan los saberes tradicionales del campesinado, como así también sus derechos colectivos, para potenciar herramientas tecnologías que respeten estas particularidades.

La complejidad del tema y los gigantes involucrados nos obliga a afinar los diagnósticos y, sobre todo, propiciar articulaciones entre el movimiento de los derechos digitales y las organizaciones campesinas e indígenas para dar respuestas integrales. Por ejemplo, unos años atrás, IT for Change publicó el reporte “Las oportunidades del ecosistema digital para la agricultura india” como resultado de un ciclo de encuentros de debate e intercambio entre diversos actores implicados en estos asuntos.

Podemos discutir la digitalización, la datificación, cómo se obtienen los datos, dónde se alojan y quiénes tienen control sobre ellos, pero si no abordamos las preguntas radicales sobre nuestros modos de vida y de alimentación, es probable que nos perdamos en el camino. ¿Para qué necesitamos tecnologías digitales en los sistemas agroalimentarios? ¿Qué papel tienen las comunidades campesinas e indígenas en la definición de estas nuevas herramientas a incorporar en los modos de producción? ¿Qué modelos priorizan la soberanía alimentaria y digital, y los derechos campesinos y de comunidades indígenas en su autodeterminación?

Lo que está en juego no es solo el acceso a nuevas tecnologías, y el resguardo de los datos, sino, principalmente, la soberanía alimentaria de los pueblos y el derecho humano a decidir cómo producir y consumir nuestros alimentos, de manera justa y sustentable.

Entre cuerpos y códigos: nuevos medios, viejas violencias

La violencia de género, que afecta principalmente a mujeres y personas LGBTIQA+, forma parte de la estructura del capitalismo. Se manifiesta a partir de diversas conductas y atraviesa distintos formatos que van mucho más allá de la violencia física. Históricamente, el control sobre los cuerpos ha sido una de sus expresiones más persistentes. Desde la reproducción forzada de mujeres esclavizadas para aumentar la mano de obra en las colonias, pasando por las altísimas tasas de violencia sexual -entre 2018 y 2022, se registraron más de 800 mil casos de mujeres víctimas de delitos sexuales en nuestra región, la mitad de ellas niñas con menos de 18 años-, hasta llegar a las leyes restrictivas en materia de aborto. De forma constante y sistemática, los cuerpos que no se amoldan a la lógica y la moral patriarcal, ven su autonomía limitada.

No solo el “cómo”, sino también el medio por el cual ocurre esa violación a la autonomía es reinventado constantemente. En las últimas décadas, ante el avance de la digitalización y la penetración de internet en América Latina y en todo el mundo, las tecnologías de información y comunicación pasaron también a ser soporte para esta vieja expresión de desigualdades y violencia de género.

Cuando las tecnologías reproducen el control

En 2016, la organización Coding Rights ya denunciaba fallas de seguridad en las aplicaciones de control del ciclo menstrual (las llamadas “menstruapps”), así como el uso indebido y opaco de los datos registrados por las usuarias para dirigir publicidad de acuerdo con los patrones de sus ciclos, como anuncios de toallitas, copas menstruales o termómetros. En 2020, Brasil presenció además el trágico episodio de una niña de 10 años que, al tener que ser trasladada a otro estado para ejercer su derecho al aborto legal por un embarazo producto de la violación de su tío, fue blanco de manifestaciones de grupos conservadores luego de la filtración de sus datos en redes sociales.

También forma parte de este conjunto de ejemplos lo sucedido en la provincia argentina de Salta, donde salió a la luz un proyecto del gobierno que utilizaba datos personales sensibles para “predecir” embarazos adolescentes. La iniciativa, cuestionada por organizaciones feministas y de derechos digitales debido a los sesgos del algoritmo, evidenció cómo las tecnologías pueden reforzar patrones de vigilancia y control sobre los cuerpos de niñas y adolescentes, especialmente aquellas provenientes de comunidades indígenas o de bajos recursos.

A ello se suman los constantes ataques digitales contra activistas feministas y defensoras de los derechos sexuales y reproductivos en distintos países de la región. En El Salvador, por ejemplo, organizaciones que acompañan a mujeres criminalizadas por emergencias obstétricas fueron objeto de campañas coordinadas de desinformación, acoso y discurso de odio en redes sociales, en un intento por desacreditar su labor y silenciar la denuncia sobre la penalización de la interrupción voluntaria del embarazo.

La desinformación, además, opera como un mecanismo de pánico moral: no solo ataca a quienes defienden derechos reproductivos, sino que instrumentaliza la propia agenda del aborto para generar confusión, miedo y resistencia social. En Paraguay, sectores conservadores difundieron narrativas falsas que vinculaban el Acuerdo de Escazú (un convenio sobre transparencia ambiental) con la supuesta imposición de agendas sobre aborto o “ideología de género”, en un uso estratégico de la desinformación que desvió el debate público y funcionó como cortina de humo, dificultando la discusión de un tratado clave para la protección de defensoras ambientales.

Junto a otras conductas como la difusión no consentida de imágenes íntimas y el stalkerware, estas prácticas son expresión de lo que llamamos violencia de género facilitada por las tecnologías (VG FT).

Del control a la resistencia digital

Pero si la tecnología es parte del problema, también puede -y debe- ser parte de la respuesta. En los últimos años, especialmente los colectivos feministas y LGBTIQA+ se han movilizado para hacer del entorno digital un espacio de resistencia y cuidado. Además de ofrecer servicios como líneas de ayuda para personas víctimas de violencia de género facilitada por las tecnologías, organizan campañas cuya pauta central es la autonomía sobre el propio cuerpo. Dos ejemplos importantes son: el movimiento Ni Una Menos, en Argentina, que desde 2015 articula protestas masivas tanto en las calles como en redes sociales contra los femicidios y las violencias machistas; y el movimiento colombiano Causa Justa, que utilizó estratégicamente plataformas digitales en la articulación del debate público que llevó a la despenalización del aborto por decisión de la Corte Constitucional en 2022.

El avance de la telemedicina para acceder a cuidados reproductivos seguros, como la interrupción voluntaria del embarazo, es otro ejemplo relevante de cómo las tecnologías pueden reforzar el ejercicio de la autonomía. En Brasil, dispositivos pioneros fueron clave para mitigar desigualdades territoriales en el acceso a servicios legales. De manera similar, en México, proyectos piloto demostraron que el aborto con medicamentos acompañado por telemedicina es seguro, eficaz y garantiza privacidad y autonomía para las usuarias. En países con sistemas de salud fragmentados o con profundas brechas territoriales -una característica común a toda América Latina-, estas iniciativas permitieron que más personas accedan a información confiable, acompañamiento profesional y atención oportuna, incluso en zonas donde los servicios presenciales son inexistentes o insuficientes.

La protección frente a las violencias de género facilitadas por las tecnologías

El 25 de noviembre es el Día Internacional para la Eliminación de la Violencia contra las Mujeres. El hito, instituido por la ONU en 1999, surge de la lucha feminista latinoamericana, en memoria del día del asesinato de las hermanas Mirabal en 1960, quienes se oponían a la dictadura en República Dominicana. En esta efeméride, es esencial recordar que eliminar la violencia de género implica también erradicar las violencias facilitadas por las tecnologías. Además, debe servir como un llamado urgente a fortalecer los marcos legales y las políticas públicas destinadas a enfrentar esta problemática.

Estos marcos deben partir de una perspectiva interseccional y basada en derechos humanos, e ir más allá de la criminalización y la punición de los agresores. Deben integrarse a otros encuadres preexistentes de prevención y protección frente a la violencia basada en género. También deben centrarse en las sobrevivientes y asegurar la capacitación de actores e instituciones para que puedan ofrecer respuestas sensibles y no revictimizantes a todas las personas que hayan sufrido violencias, tal como desarrolla el reporte Combating Technology-facilitated Gender-based Violence under the Lenses of International Human Rights Law, recientemente publicado por Derechos Digitales en alianza con el Fondo de Población de las Naciones Unidas (UNFPA). En el documento, analizamos marcos del derecho internacional de derechos humanos y legislaciones de ocho países sobre violencia de género facilitada por las tecnologías, para proponer directrices y caminos para enfrentar este fenómeno.

La lucha por la autonomía sobre el cuerpo y la lucha por la autonomía frente a las tecnologías de la información y comunicación están profundamente interconectadas. Ambas reivindican el derecho a decidir y experimentar entornos libres de acuerdo con esa decisión -ya sea respecto del propio cuerpo, de los datos personales o de la vida digital-. En una sociedad marcada por desigualdades de género persistentes, reconocer esta conexión es esencial para imaginar políticas que realmente protejan y amplíen las libertades y cuidados. Entre cuerpos y códigos, es necesario recordar que las tecnologías no crean las violencias de género, pero sí pueden reproducirlas o transformarlas. Que sigan siendo, entonces, cada vez más, herramientas de emancipación.

Deepfakes: cuando las tecnologías promueven la violencia de género digital

Cada vez son más las noticias sobre casos de deepfakes en América Latina. Estas tecnologías, basadas en inteligencia artificial (IA), permiten crear imágenes falsas insertando el rostro de una persona en el cuerpo de otra, simulando situaciones que nunca ocurrieron, muchas veces de carácter sexual. En varios países de la región, se registraron casos particularmente alarmantes en colegios, donde niñas fueron víctimas de sus propios compañeros. Suelen utilizar estas herramientas para generar, compartir e incluso comercializar contenido sexual de sus compañeras. En los últimos años, los medios reportaron este tipo de hechos, principalmente en colegios privados de Perú, Ecuador, Brasil, Chile, Argentina y Guatemala, entre otros. Niños y adolescentes aprenden a explotar la tecnología para vulnerar a sus compañeras, mientras ellas quedan expuestas a una violencia para la que nadie tiene respuestas concretas.

Por su parte, la cobertura mediática sigue un patrón: los casos con mayor visibilidad provienen de colegios privados en zonas urbanas, pero eso no significa que sean los únicos. En un colegio de la Región del Maule, Chile, en una comuna fuera de los grandes centros urbanos, ocurrió un caso similar, por ejemplo. A diferencia de los anteriores, esta noticia no se encuentra fácilmente en internet y fueron las propias adolescentes quienes se vieron obligadas a denunciarlo en redes sociales.

En Latinoamérica, donde la mayoría de los colegios no pertenecen a élites, lo que llega a los medios representa solo una fracción de la realidad. Mientras algunos casos generan indignación, muchos otros quedan en el olvido, y en los contextos invisibilizados, las víctimas no reciben atención ni respuesta institucional.

En esta columna nos proponemos analizar qué rol están cumpliendo las aplicaciones de deepfake en América Latina en la proliferación de nuevas formas de violencia de género digital. A partir de estudios e investigaciones especializadas, indagamos las condiciones que las habilitan y las responsabilidades técnicas, políticas y económicas detrás de su funcionamiento, sin dejar de lado los desafíos urgentes que enfrenta la región para abordarlas.

Investigar el uso de apps de deepfake en América Latina

Los casos en colegios latinoamericanos mencionados evidencian un problema que trasciende lo técnico. La irrupción de este tipo de actos responde a un ecosistema digital que facilita su expansión sin considerar sus consecuencias. Según el informe State of Deepfakes 2023, el 98% del contenido deepfake disponible en línea tiene fines sexuales y el 99% de las personas representadas son mujeres. A esto se suma que el 48% de los hombres encuestados vio este tipo de contenido al menos una vez, y que el 74% no siente culpa por hacerlo.

Frente a esta realidad, grupos de investigación están tomando nota para poder reflejar conclusiones científicas y precisas. Junto a Situada, realicé una investigación para analizar el alcance de estas aplicaciones en la región, las condiciones que lo permiten y cómo su diseño facilita la violencia de género digital.

Para ello, se estudiaron 105 aplicaciones de deepfake publicadas en Google Play (Android), identificadas mediante una herramienta especialmente desarrollada para tal fin, la cual se conectaba a la tienda a través de una API. Gracias a esta conexión automatizada, pudimos recopilar información técnica y descriptiva de cada app, permitiendo observar patrones en su diseño y funcionalidad. El análisis de software suele centrarse en la usabilidad, pero es fundamental evaluar este tipo de tecnología más allá de lo técnico-comercial, desde una perspectiva ética, crítica y feminista.

Red flag: los hallazgos más preocupantes

La investigación de Situada detectó que el 89.5% de las aplicaciones de deepfake representan un riesgo para las mujeres, al facilitar la creación de contenido sexual no consensuado. El análisis reveló una combinación preocupante de factores sociotécnicos, lo cual se refleja en los principales hallazgos del estudio.

Uno de los primeros patrones identificados fue la falta de transparencia en el desarrollo de las apps: el 42.8% no indicaban su procedencia ni en Google Play ni en sus sitios web, dificultando la rendición de cuentas y sus motivaciones. Entre quienes sí reportaban autoría, se encontraron imágenes promocionales sexualizadas que refuerzan la objetivación de las mujeres. Además, se constató una clara brecha de género en los equipos que desarrollan estas apps, que refuerza la persistente falta de diversidad en el sector tecnológico.

Los hombres -especialmente del Norte Global- históricamente dominaron la innovación tecnológica, excluyendo las experiencias y necesidades de las mujeres. Esta dinámica fue ampliamente estudiada por autoras feministas que analizan cómo el diseño y la producción tecnológica reproducen desigualdades estructurales. Entre ellas, Judy Wajcman aportó conceptos clave en su libro “Tecnofeminismo”, donde explora cómo el desarrollo técnico está atravesado por relaciones de poder. Informes recientes de la UNESCO y Randstad confirman que menos del 30% de las personas que trabajan en IA son mujeres. Esta exclusión no responde solo a la falta de acceso o a las habilidades, sino a una cultura técnica masculinizada que condiciona lo que se diseña, para quién y con qué propósito.

Otro aspecto crítico identificado fue la clasificación que Google Play otorga a las aplicaciones. Esta tienda exige que todas las apps cuenten con una etiqueta de edad, asignada a través de un sistema gestionado por la Coalición Internacional de Clasificación por Edad (IARC por sus siglas en inglés). Para ello, los desarrolladores deben completar un formulario autodeclarativo y, en función de sus respuestas, se determina la categoría correspondiente (por ejemplo, “Mayores de 17 años”). Sin embargo, este mecanismo depende exclusivamente de la honestidad de quienes publican las apps. No hay verificación activa del contenido real de las aplicaciones. El análisis mostró que el 65.7% fueron clasificadas como “Apto para todo público”, pese a que se usan para la creación de contenido sexual no consentido. Clasificaciones que deberían proteger a las personas usuarias, terminan validando tecnologías dañinas bajo rótulos engañosos.

También se evidenció cómo estas herramientas operan bajo un modelo de negocio centrado en la rentabilidad. El 67.6% requiere un pago para desbloquear funciones principales y, aunque algunas ofrecen pruebas gratuitas, restringen la descarga hasta que se pague, incentivando la compra. Este modelo prioriza la rentabilidad por encima de cualquier principio ético, facilitando la explotación digital de los cuerpos de las mujeres. A esto se suma su facilidad de uso: el 96.2% fueron calificadas como intuitivas, incluso accesibles para personas sin experiencia técnica o dominio del idioma, lo que amplía su adopción.

Por otro lado, el análisis demostró que estos servicios en línea incorporan funciones que simulan besos o abrazos, normalizando la idea de que las mujeres pueden ser expuestas en situaciones íntimas sin su consentimiento. En los anuncios de estas aplicaciones, es común ver representaciones forzadas, casi siempre protagonizadas por un hombre, que utiliza una foto propia junto con la imagen de una mujer, reforzando dinámicas de control. Además, el uso de plantillas predefinidas contribuye a su hipersexualización: las opciones femeninas abundan en categorías como “Hot Bikini”, “Latex”, “Sexy Girl” o “Body Latino” (reforzando estereotipos fetichistas sobre las mujeres latinas), mientras que las plantillas masculinas son escasas y neutras.

Por último, las empresas detrás de estas aplicaciones eluden su responsabilidad legal a través de avisos en los que prohíben el uso de material no autorizado, pero dejan la ejecución en manos de la persona usuaria. Este hallazgo refleja que la estrategia legal no impide el daño, pero sí protege a las compañías que se benefician económicamente con estas prácticas. Al trasladar la carga moral exclusivamente a quien las utiliza, las empresas evaden su responsabilidad ética como diseñadoras de tecnología con impactos previsibles.

Una tendencia global reflejada en América Latina

Las conclusiones de esta investigación se inscriben en una tendencia global, de la cual América Latina no es ajena. Diversas organizaciones de la sociedad civil vienen advirtiendo que tecnologías como la deepfake forman parte de una creciente ola de violencia de género digital. En un informe reciente presentado a la ONU, desde Derechos Digitales, junto a otros grupos, señalamos que estas prácticas silencian voces y limitan la participación pública.

En la misma línea, Coding Rights documentó cómo ciertos servicios basados en IA imponen visiones patriarcales y coloniales sobre los cuerpos y decisiones de niñas y adolescentes en nuestra región. De forma similar, el Banco Interamericano de Desarrollo (BID) viene alertando sobre el uso de deepfake con fines de extorsión y humillación sexual, advirtiendo la ausencia de políticas regionales para enfrentar esta problemática.

En el plano legal, luego de recopilar casos de deepfake porn, activistas como Olimpia Coral insisten en que “la ley es insuficiente” y que es urgente capacitar a policías y fiscales para comprender estas tecnologías y atender adecuadamente a las víctimas. La evidencia también se manifiesta en el ámbito político. Un estudio de Fundación Karisma, en colaboración con ONU Mujeres, centrado en las elecciones legislativas de 2022, concluyó que la manipulación de información -incluyendo imágenes trucadas (deepfake) y suplantaciones- se convirtió en una forma de violencia digital contra candidatas mujeres. 

En conjunto, estos informes coinciden en lo que la investigación de Situada evidencia a nivel regional: las tecnologías de IA, cuando se desarrollan sin responsabilidad ética ni supervisión pública, reproducen violencias históricas hacia las mujeres

Neutralidad falsa: tecnologías que perpetúan la violencia de género 

Los resultados de estos análisis son alarmantes, pero no se comparan con el impacto en las mujeres afectadas. Mientras estas aplicaciones generan ganancias, las mujeres y niñas ven sus imágenes manipuladas y difundidas sin su consentimiento. Algunas temen salir de sus casas, otras sufren ansiedad y depresión, o son extorsionadas y revictimizadas por quienes minimizan el daño bajo la excusa de que “es solo IA” o “no es real”, ignorando que lo online tiene consecuencias en la vida offline.

Esta masificación no puede desvincularse de una economía de la conectividad que premia lo viral y convierte la exposición en capital. El número de descargas legitima estas prácticas como aceptables, invisibilizando sus impactos dañinos. Lo que ocurre en este mercado digital constituye una prolongación de la lógica patriarcal que trata los cuerpos de las mujeres como bienes disponibles para el deseo ajeno. Es una forma estructural de violencia donde la cosificación reduce a la mujer a objeto sexual y anula su agencia al servicio del placer masculino.

Plataformas como Google Play legitiman este ecosistema al permitir la circulación masiva de tecnologías que posibilitan agresiones simbólicas y sexuales sin consentimiento, bajo esquemas comerciales lucrativos. Responsabilizar únicamente a las personas usuarias es insuficiente. Se requiere cuestionar el sistema técnico, económico y normativo que habilita estas violencias.

El desafío no es solo denunciar, sino repensar la tecnología desde su raíz: reconocer que toda herramienta implica decisiones morales y políticas. Afrontar esta problemática requiere respuestas coordinadas: regulaciones con enfoque de género que obliguen a las plataformas a retirar contenidos no consentidos, y compromisos empresariales de transparencia que incorporen evaluaciones de impacto ético antes de publicar herramientas que puedan ser usadas para dañar. También es necesario avanzar en medidas de reparación integral para las víctimas, incluyendo apoyo psicosocial, acompañamiento jurídico y garantías de no repetición. Finalmente, promover una alfabetización digital crítica -especialmente entre jóvenes- puede prevenir estos usos violentos y construir una cultura digital basada en el respeto y el consentimiento. Avanzar hacia políticas públicas con perspectiva interseccional feminista y prácticas de desarrollo ético es una urgencia para garantizar que la innovación no se construya a costa de la dignidad de las personas.

Bots y elecciones: los nuevos influencers automatizados

A fines de julio, tras varias semanas cayendo en las encuestas, Evelyn Matthei, candidata de la derecha tradicional chilena agrupada en la coalición Chile Vamos, acusó al candidato de la derecha más extrema José Kast, del Partido Republicano, por la puesta en marcha de una campaña de desinformación en su contra a través de redes sociales. La información que se hizo circular ponía en duda la salud mental de la candidata de Chile Vamos y, por ende, su capacidad para gobernar. El hecho generó un gran revuelo, pues la coalición de Matthei y el partido de Kast se encontraban en plenas negociaciones para conformar una lista parlamentaria única.

En ese contexto, un equipo periodístico del canal Chilevisión realizó un reportaje donde investigó algunas cuentas de redes sociales que reiteradamente atacaban a las candidaturas tanto de Matthei como de Jeannette Jara, candidata única de la centro izquierda que representa al oficialismo. El informe periodístico se centró en el comportamiento de cuentas anónimas que, desde hace algunos años, vienen publicando noticias falsas en contra del actual gobierno y de las candidatas. La investigación logró dar con el nombre de dos personas que estarían detrás de las cuentas investigadas, ambas ligadas al Partido Republicano.

Otro reportaje, del medio digital Reportea junto a Vergara 240, reveló más nexos: la Asociación de Administradoras de Fondos de Pensiones (AAFP) financió secretamente a la fundación “Ciudadanos en Acción”, la cual es dirigida por Bernardo Fontaine, actual integrante del comando de Kast. La investigación develó que la AAFP costea a la fundación desde 2019, a través de la agencia Artool, con el fin de articular campañas en contra de proyectos de reformas previsionales y de determinadas candidaturas presidenciales. La estrategia consistía en generar contenido digital en base a las directrices de la AAFP y con pagos en distintas direcciones para aumentar la viralización. Por un lado, a través de publicidad paga en Meta (para Facebook e Intagram) con un monto que supera los 200 millones de pesos -USD 215.000-. Además, dinero entregado a influencers para producir mensajes en contra de las reformas. Y, por otro lado, notas pagas en medios digitales, y masificación de contenidos del medio a través de una extensa red de bots, como parte del trato. Un elemento que resulta llamativo es que las personas financiadas para defender los intereses de la Asociación, tanto a través de cuentas públicas como anónimas, son las mimas denunciadas en el reportaje de Chilevisión de atacar a las candidatas presidenciales.

Estas revelaciones resultan preocupantes para los valores democráticos, no sólo en función de poder garantizar elecciones libres y transparentes, sino también desde una perspectiva de género. De las ocho candidaturas para esta votación, las únicas que sufrieron ataques cibernéticos son “casualmente” Matthei y Jara, las dos candidatas mujeres, reflejando un claro ejemplo de violencia política de género.

En el transcurso de estos meses, se estuvo hablando del uso de “bots” para describir el comportamiento mediante el cual cuentas anónimas se coordinaban para generar campañas de desinformación. Pasado un tiempo -y junto al abordaje de más medios-, se comenzó a diversificar el vocabulario, incluyendo los términos “troll” y “hater” para explicar lo que las investigaciones han develado. El objetivo de esta columna es aproximarnos a entender el funcionamiento de los bots, pero para ello primero haremos la distinción entre estos términos.

¿Qué son los trolls y los bots?

Estos conceptos ya forman parte del lenguaje propio de internet, por ello originalmente aparecen en inglés. Se aplican a redes sociales, foros y, más en general, a cualquier tipo de plataforma digital que permita la interacción entre personas usuarias, en especial si esa interacción puede dirigirse también a figuras públicas.

El término “Trolls”, originario de la mitología escandinava, se utiliza para referirse a cuentas anónimas que generalmente publican mensajes provocadores, desinformaciones o discursos de odio con la intención de perjudicar a ciertas personas o grupos, generando daños en su imagen pública. Su comportamiento es deliberado: son conscientes de que lo publicado es falso o abusivo.

Por su parte, “Bot” es un término coloquial que resulta de la abreviación de la palabra “robot”. Los bots son cuentas que funcionan de forma automatizada, mediante programación. Su accionar buscar producir mensajes o reacciones, incluso generar mayor volumen en la difusión de un mensaje, mediante interacciones que simulan ser humanas.

Los bots y su relación con internet, un poco de historia

Los bots con parte de la historia y de la arquitectura de internet: los primeros de los que se tiene registro datan de 1988. Ese año se creó el protocolo de mensajería de texto “Internet Relay Chat” (IRC), el cual fue muy popular durante sus primeras décadas y aún sigue vigente en nuestros días. Los bots que funcionaban bajo IRC consistían en programas computacionales que automatizaban algunas tareas dentro del sistema de mensajería.

A medida que internet crecía y diversificaba sus servicios, los bots se fueron adaptando a cada uno de ellos. Uno de los usos más relevantes que han tenido consiste en formar parte de los algoritmos de búsqueda a través de bots que indexan sitios web. Es así como, en 1994, se crea el primer indexador de sitios web que, un año más tarde, sería usado por AOL. Ya en 1996, una incipiente startup que hoy conocemos como Google lanzaba su bot BackRub para indexar el contenido de internet. Si bien los bots tienen un sinfín de utilidades legítimas, también se usaron para otros fines menos amables. A lo largo de la historia de internet, se han registrado numerosos ataques, de distinta índole y envergadura, a través de mecanismos como pueden ser la “denegación de servicio” o el “ransomware”.

En el mundo de las redes sociales, los bots son programas informáticos diseñados para simular interacciones humanas de forma automática. En la actualidad, es muy recurrente que las empresas generen canales de comunicación vía mensajería para responder a preguntas frecuentes -con mayor o menor éxito- mediante el uso de estos dispositivos.

En contextos donde proliferan las narrativas basadas en discursos de odio y desinformación, los bots son la herramienta predilecta para amplificar el alcance de esos mensajes. A través de la republicación de posteos o la interacción de los “me gusta”, pueden lograr la viralización de contenidos falsos o engañosos. Un ejemplo paradigmático en nuestra región fue la campaña de desinformación masiva que llevaron adelante los opositores de Evo Morales en 2019 para lavar la imagen del golpe de Estado y sumar simpatizantes. Hay evidencias que indicaron la existencia de una maniobra coordinada en redes sociales -decenas de miles de cuentas en Twitter creadas en pocas horas- para influir en la agenda pública global. El objetivo era imponer la idea de que el golpe no había sido tal y que el expresidente Morales estaba vinculado al narcotráfico y había propiciado un fraude electoral.    

Pescando bots: ¿cómo se pueden identificar interacciones artificiales?

Si bien las interacciones de estas cuentas automatizadas pueden parecer reales, existen algunos detalles que nos pueden ayudar a identificar que son artificiales. Vamos a repasar estos elementos.

  • Cuentas falsas: sus fotos de perfil no corresponden a una persona, los nombres de usuario parecen serializados con números largos luego de algún nombre o palabra.
  • Antigüedad de las cuentas: en muchos casos son cuentas que no poseen muchos años, o bien fueron creadas en un período acotado de tiempo.
  • Tendencias no orgánicas: cuando un contenido se viraliza y se convierte en tendencia de forma natural, sucede porque muchas personas lo comparten mediante una interacción distribuida entre numerosas cuentas, de forma no jerárquica. En el caso de tendencias generadas por bots, se puede notar que existe una, o un par de cuentas centrales, desde las que se cuelgan muchas otras para compartir, lo que demuestra un comportamiento mucho más jerárquico. En general identificarlo requiere de un análisis técnico pues es complejo notarlo a simple vista.
  • Comportamiento anormal: otro factor común es que muchas de estas cuentas solo comparten contenido de ciertos “usuarios” de forma reiterada. También es posible notar que al publicar comentarios, estos suelen ser inentendibles o confusos.

Los algoritmos generativos y los nuevos desafíos

Con la irrupción del uso masivo de algoritmos generativos, también llamados “Inteligencia Artificial Generativa” (GenAI), tales como ChatGPT, Gemini o DeepSeek, surgen nuevos desafíos a la hora de determinar cuándo es un programa el que está interactuando.

En marzo de este año, un estudio realizado por la Universidad de California evidenció que el modelo GPT-4.5 logró aprobar con 73% de efectividad la prueba de Turing. Esta prueba consiste esencialmente en que personas interactúan, a través de mensajería, con otras personas y con máquinas con el objetivo de determinar cuál es cual. Si la persona no logra distinguir entre la máquina y la persona, entonces se considera que el programa o la máquina pasó la evaluación.

El avance de los modelos nos propone nuevos retos al momento de reconocer cuándo un bot es el que está interactuando en las redes sociales, por lo que la tarea de generar análisis certeros se vuelve aún más compleja. Es importante considerar que el estado de desarrollo de los algoritmos generativos, no solo permite producir textos sino que también ya genera o manipula imágenes, audios y videos. Dicha gama de recursos agrega otro grado más de complejidad en la detección.

Desde el caso Cambridge Analytica, muchas organizaciones pusieron el foco en el efecto de las redes sociales sobre procesos eleccionarios. De la misma forma, podemos pensar en la influencia que tienen sobre temas sensibles de las agendas nacionales y regionales, y cómo a través de los bots determinados grupospueden lograr invisibilizarlos o atacarlos para obtener réditos en sus posturas.

Las redes sociales son un entorno complejo, por lo que encontrar una solución real al problema de los bots y la desinformación también puede resultar dificultoso. Aún así, deben existir medidas que puedan ayudar a mitigar su impacto: regulaciones efectivas que, sin la necesidad de una censura y acorde a los estándares de derechos humanos, puedan generar transparencia sobre las acciones que se deben ejercer ante las plataformas. Asimismo, es imprescindible que las corporaciones dueñas de las redes sociales tengan la voluntad de abrir canales para la colaboración con los entes encargados de velar por el cumplimiento de esas regulaciones. Desde Derechos Digitales, esperamos que “las plataformas digitales se preparen, teniendo una amplia colaboración con las autoridades, pero también con una serie de acciones proactivas que promuevan la transparencia de sus actos ante la desinformación”, tal como lo mencionamos en una columna, en virtud de las elecciones mexicanas de 2024.

Es de suma importancia que todos los actores interesados -legisladores, empresas tecnológicas, sociedad civil y academia- puedan trabajar para la construcción de ambientes eleccionarios democráticos, justos y participativos. Procesos electorales con mecanismos claros para combatir la desinformación, que no solo consideren el marco regulatorio, sino que también apunten a otras políticas como el fomento de campañas educativas que brinden a la población habilidades y herramientas para la detección de noticias falsas.

20 años defendiendo derechos digitales: aprendizajes desde el LACIGF y una mirada hacia adelante

Este año cumplimos veinte años de trabajo en la defensa, promoción y desarrollo de los derechos humanos en los entornos digitales de América Latina. Han sido dos décadas de cambios profundos, donde pasamos de una internet más descentralizada y colaborativa a un ecosistema mediado por plataformas globales, dominado por la extracción de datos y las dinámicas de vigilancia tanto estatal como corporativa. Aún así, la región sigue siendo un territorio fértil para la innovación social, la cooperación y las resistencias digitales.

En ese espíritu, decidimos aprovechar el LACIGF18, el principal espacio de encuentro multiactor de la región latinoamericana sobre gobernanza de internet, para celebrar nuestro aniversario número 20 junto a organizaciones aliadas, colegas y amistades que han acompañado este recorrido. La ciudad de Córdoba en Argentina se transformó así en un punto de encuentro entre el pasado y el futuro: un espacio para reconocer los aprendizajes que nos han traído hasta aquí y proyectar colectivamente los próximos desafíos.

Nuestra participación en el LACIGF18

El LACIGF siempre ha sido un foro donde se cruzan perspectivas diversas: sociedad civil, gobiernos, academia, sector privado y comunidad técnica, y para nosotras su valor radica en que permite debatir la política tecnológica desde el Sur Global, discutir las desigualdades que atraviesan la conectividad y construir estrategias comunes frente a los desafíos emergentes. En esta edición participamos en distintas sesiones que abordaron temas clave para la región, desde la ciberseguridad comunitaria hasta los desafíos ambientales y la protección de datos.

Una de nuestras principales actividades en el marco del foro fue estar presentes en el evento previo convocado por la comunidad juvenil de la región, el YouthLACIGF, donde formamos parte del taller “Ciberseguridad Comunitaria: Protección colectiva de nuestros entornos digitales”.

El espacio reunió a juventudes, defensoras ambientales, periodistas y personas vinculadas a organizaciones de base de distintos países. Las experiencias compartidas fueron diversas, pero coincidieron en algo esencial: la inseguridad digital se vive de manera concreta y diferenciada. Afecta a mujeres y a personas de la comunidad LGBTIQA+, a activistas, infancias, adolescencias y personas mayores, cada grupo con vulnerabilidades y formas de exposición diferentes. Se expresa en el acoso y la violencia en línea, en la difusión no consentida de datos personales, en las campañas de odio o en la vigilancia dirigida hacia quienes denuncian abusos de poder, corrupción o daño ambiental. En todos los casos, la tecnología no solo refleja las desigualdades estructurales de nuestras sociedades, sino que puede reproducirlas y profundizarlas.

A partir del intercambio surgió una afirmación clave: la seguridad digital es colectiva. No se trata únicamente de saber configurar contraseñas o instalar herramientas de cifrado, sino de construir redes de confianza, sostener conversaciones difíciles y acompañarse en los momentos de mayor exposición o riesgo. Esta perspectiva comunitaria nos invita a repensar las prácticas institucionales, los programas de formación y las políticas públicas, para situar la seguridad en un enfoque de bienestar y cuidado.

También participamos del taller llamado “Medio ambiente, tecnología y resistencias: desafíos digitales de la defensa ambiental en América Latina”, dedicado a explorar el vínculo entre crisis socioambiental y tecnología, con un enfoque situado en las personas que defienden el medio ambiente en América Latina. Nos propusimos visibilizar el rol fundamental de la tecnología frente a la emergencia climática y la crisis ecológica, y evidenciar las barreras que enfrentan las activistas para un acceso significativo a internet y a la información. La falta de conectividad en territorios rurales, la concentración de infraestructura tecnológica y las amenazas digitales, como las campañas de desinformación, el hostigamiento en línea o la violencia de género facilitada por las tecnologías, son obstáculos que inciden directamente en su capacidad de ejercer derechos y proteger el entorno.

El panel reunió a personas defensoras del medio ambiente de diferentes países, junto a representantes de la sociedad civil, la comunidad técnica, gobiernos locales y organismos de derechos humanos. Fue un espacio de diálogo multisectorial donde se compartieron experiencias concretas de resistencia, como las movilizaciones frente a la instalación de data centers o proyectos extractivos que profundizan desigualdades ambientales y digitales.

La conversación también permitió reconocer los marcos regionales que pueden fortalecer esta protección, como el Acuerdo de Escazú y los debates hacia la COP30 sobre cambio climático. Estos instrumentos abren oportunidades para incorporar la dimensión digital en la agenda ambiental y garantizar que la defensa de la naturaleza y de los derechos humanos vaya de la mano con la defensa de una tecnología justa, segura y accesible.

Finalmente, en el taller “Datos en fuga: cómo se exponen y explotan nuestros datos en internet”, presentamos avances de nuestra investigación en curso sobre explotación ilegal y comercialización de bases de datos estatales en Argentina, Brasil y Perú. En la instancia destacamos que estas filtraciones de información personal no son meras fallas de seguridad ni accidentes administrativos. Son parte de un circuito de extracción y monetización que alimenta economías ilegales, facilita extorsiones y expone a las personas a riesgos profundos, especialmente aquellas que ya enfrentan desigualdades estructurales por razones de género, clase, raza o territorio.

Frente a este escenario, la protección de datos personales debe abordarse como un componente esencial de los derechos humanos. No se trata solo de un aspecto técnico o administrativo, sino de una condición para garantizar autonomía, privacidad y seguridad. Cuando los datos personales son filtrados, vendidos o manipulados, las consecuencias pueden ser irreversibles, desde daños económicos hasta violencia física. Por eso, insistimos en la necesidad de políticas públicas sólidas, autoridades independientes, más transparencia y rendición de cuentas de las plataformas, y mecanismos efectivos de investigación y sanción.

Celebrar, recordar y proyectar: una nueva edición de Latin America in a Glimpse

En el marco del LACIGF celebramos nuestros 20 años de trabajo y presentamos la nueva edición de Latin America in a Glimpse, una publicación que reúne los hitos, aprendizajes y tensiones que han marcado dos décadas de defensa de los derechos digitales en América Latina. Más que un recuento histórico, el documento busca ser una invitación a mirar el pasado con sentido crítico y el futuro con imaginación política: una herramienta para activar memoria, conversación y acción colectiva.

La publicación está acompañada por un juego de cartas que permite reconstruir esta historia de manera participativa, conectando experiencias, hitos y desafíos. En el mazo hay también veinte cartas en blanco: no son un adorno, sino una declaración. Representan todo lo que falta contar, lo que está ocurriendo hoy y lo que aún no existe. Nos recuerdan que la historia de los derechos digitales no está cerrada, y que escribirla es una tarea compartida. Nuestro momento de celebración nos permitió reflexionar sobre algunos de esos hitos a partir de la experiencia de amigas y expertas de toda la región.

Llegar a este aniversario nos encuentra en un momento complejo. La expansión de sistemas de vigilancia automatizada, la opacidad de las infraestructuras y la concentración del poder tecnológico amenazan las bases mismas del espacio público digital. Pero también sabemos que en la región hay comunidades, movimientos y organizaciones que no han dejado de imaginar alternativas, tejer alianzas y crear tecnología con sentido de justicia social.

El futuro de los derechos digitales dependerá de nuestra capacidad de mantenernos unidas, fortalecer la cooperación regional y seguir disputando el sentido político de la tecnología. Veinte años después, seguimos convencidas de lo mismo que nos movilizó al inicio: que la tecnología puede ser una herramienta para ampliar libertades, fortalecer la democracia y proteger la dignidad de las personas.

Miente, miente, que algo(ritmo) quedará

Se acerca una nueva elección presidencial y parlamentaria altamente polarizada en la región, esta vez en Chile. En respuesta a temores sobre rumores y noticias falsas, el gobierno y el Servicio Electoral lanzaron la campaña «Chile Vota Informado 2025», pidiendo evitar «que la desinformación se propague» y reiterando, a la vez, el lema «aguanta, chequea y comparte» que el gobierno chileno ha promocionado por más de un año y difundido hasta en forma de cumbia.

Como hemos declarado, la mentira política dista de ser una anomalía reciente, siendo más bien una táctica arraigada en la historia de la propaganda. Pero la preocupación tiene sentido. Como advierte el informe de la Relatoría Especial de la ONU sobre Libertad de Expresión, «cuando la libertad de expresión es suprimida, los procesos electorales están en peligro». Esta advertencia llega en un momento crítico para la región, donde múltiples países se enfrentan a ciclos electorales en medio de una creciente polarización y desconfianza institucional, y donde la capacidad de identificar la falta de autenticidad es necesaria para interactuar en el debate público. Sin embargo, el enfoque en la conducta individual desplaza parte de la responsabilidad hacia la ciudadanía, mientras las condiciones estructurales que producen desinformación permanecen intactas.

Innovando para mentir

Las narrativas de desinformación muestran notables continuidades a lo largo del tiempo. La acusación de fraude electoral aparece cíclicamente, como quedó demostrado tras las elecciones legislativas de 2022 en Colombia, donde las narrativas de fraude se difundieron ampliamente sin pruebas. Paralelamente, en las presidenciales de 2023 de Argentina circularon frases inventadas atribuidas a candidatos, mientras en los comicios de Perú del 2021 Convoca verificó imágenes falsas de supuestos conteos rápidos. Bolivia experimentó durante sus elecciones de 2025 una campaña sucia que tomó las redes sociales, con plataformas que parecían relajar sus políticas de moderación de contenidos en el contexto boliviano.

Esta persistencia de métodos más tradicionales contrasta con la innovación en herramientas. Una realidad presente hace más de una década: el crecimiento de la sofisticación en el uso de datos para la microsegmentación de destinatarias. El fin es llegar con más precisión a votantes a través de mensajes dirigidos a sus puntos de sensibilidad más probables, amparados en vacíos regulatorios o institucionales frente al uso de datos personales. Los antecedentes en herramientas de análisis de datos han sido ofrecidos mostrando que sería posible mapear preferencias políticas mediante minería de datos. Así, la datificación de la sociedad abre camino para formas más avanzadas de influencia electoral.

A eso se suma el uso de herramientas más complejas, como destacamos, junto a otras organizaciones, en nuestra contribución al informe de la Relatora Especial de las Naciones Unidas sobre la Libertad de Expresión y Opinión, Irene Khan. Las campañas políticas ahora enfrentan el desafío de contener mensajes sintéticos que pueden difamar candidaturas o atribuirles declaraciones nunca realizadas. Brasil vivió en 2024 una campaña municipal marcada por deepfakes, lo que llevó al Tribunal Superior Electoral a aprobar una resolución que prohíbe estos contenidos sintéticos y exige etiquetar el uso de inteligencia artificial en la propaganda. Mientras tanto, en Chile es parte de la propaganda diaria de una candidatura y sin mayores consecuencias.

La industria de la desinformación ha perfeccionado sus métodos, evolucionando desde la microsegmentación de audiencias hacia la producción de deepfakes. Esta sofisticación genera ahora una asimetría aún mayor entre quienes pueden producir desinformación convincente y quienes intentan verificarla, además de poner un manto de duda sobre el debate público.

Respuestas regulatorias: entre la prevención y la censura

Reconociendo -y hasta exagerando- los riesgos de la desinformación y fenómenos asociados a ella, en la región latinoamericana tanto los Estados como las plataformas digitales han ensayado diversas respuestas, con resultados dispares. En Chile se firmó en 2025 un compromiso de integridad electoral entre la autoridad electoral y actores privados y de la sociedad civil, que establece principios de defensa de la libertad de expresión y prevención del contenido falso. En Brasil, como fue comentado más arriba, el máximo tribunal con competencia electoral aprobó sanciones contra quienes elaboren o difundan contenido manipulado con IA. El panorama regulatorio se complejiza rápidamente y nuevas iniciativas normativas aparecen, aún si no llegan a convertirse en reglas.

Sin embargo, estas propuestas enfrentan dilemas fundamentales, como los riesgos de censura al utilizar nuevas herramientas supuestamente contrarias a la mentira. En contextos con una frágil independencia judicial, las leyes ambiguas contra «fake news» podrían usarse para silenciar voces disidentes, un riesgo que se extiende con la moderación automatizada. La Electronic Frontier Foundation (EFF) advirtió que las noticias falsas ofrecen a los poderes consolidados una oportunidad para censurar oponentes.

Ante estos desafíos, las respuestas puramente tecnológicas o punitivas muestran limitaciones conocidas: peligro de censura a nivel de regulación o de implementación u observancia, transferencia de responsabilidad hacia las plataformas digitales que las obligue a moderar más, y la eventual mala definición de lo que se intenta proteger o sancionar. La Comisión contra la Desinformación chilena entregó 72 recomendaciones que reconocen la naturaleza multifacética del problema, proponiendo soluciones que van desde la educación mediática hasta la transparencia algorítmica y el fortalecimiento del ecosistema informativo, bajo un mandato que se restringía a redes digitales. Las soluciones adecuadas pasan por fortalecer las instituciones democráticas, garantizar la independencia de órganos electorales, apoyar los medios comunitarios y promover la alfabetización mediática e informativa, lo que supera por mucho lo que ocurre en internet. Es decir, la realidad obliga a observar el problema más ampliamente.

Hacia una resiliencia democrática

La desinformación en contextos electorales manifiesta problemas más grandes de la sociedad, como falta de transparencia, concentración mediática, desigualdad económica y debilidad institucional. Esto merece cuestionar el relato que atribuye el problema principalmente a las redes sociales, y que culpa a la ciudadanía por compartir noticias falsas como quien culpa a las personas enfermas por su fiebre. No se trata de una batalla técnica por la verdad, sino de un desafío político y social por el espacio cívico que requiere respuestas integrales. Las campañas de sensibilización serán insuficientes si no se enmarcan en procesos más amplios de fortalecimiento democrático.

De cara a las elecciones más próximas en Chile y las del próximo año en la región (que incluyen, entre otras, presidenciales en Costa Rica, Perú, Colombia y Brasil), es urgente integrar una estrategia de resiliencia democrática. Esto requiere tomar con seriedad recomendaciones comunes: transparencia en propaganda política y en el uso de algoritmos; educación mediática e informativa desde las escuelas hasta espacios comunitarios; pluralismo informativo que incluya apoyo financiero a medios independientes; regulación proporcional que proteja la libertad de expresión; y participación ciudadana que promueva colaboración entre autoridades, academia, sociedad civil y plataformas en la formulación, implementación y evaluación de reglas. También, reforzar la protección efectiva de los datos personales frente a la recolección masiva, el uso en algoritmos de recomendación y la capacidad creciente de crear y distribuir contenidos dirigidos a percibidas vulnerabilidades en la sociedad.

La resiliencia democrática se construye también desde abajo. Las instituciones pueden fallar, pero las redes ciudadanas de verificación, la desatención a medios, programas e influencers dedicados a narrativas antiderechos, permite construir y reforzar las defensas de la sociedad. Campañas como «Chile Vota Informado» serán útiles si se enmarcan en procesos más amplios de fortalecimiento democrático. De lo contrario, se quedará en un eslogan bien intencionado que no aborda las razones profundas por las que la ciudadanía participa en la circulación de falsedades.

El negocio del iris: Colombia marca un precedente regional al frenar las operaciones de World Foundation y Tools for Humanity

El pasado 3 de octubre, la Superintendencia de Industria y Comercio (SIC) de Colombia, autoridad en materia de protección de datos personales, ordenó el cierre inmediato y definitivo de las operaciones de World Foundation y Tools for Humanity, por incumplir la legislación nacional de protección de datos. Además, les impuso la obligación de eliminar toda la información personal sensible bajo su custodia.

World Foundation, organización sin fines de lucro, administra el sistema de verificación de identidad basado en el iris conocido como World ID. Tools for Humanity, su socio operativo y compañía privada, es la creadora del Orbe -el dispositivo esférico de escaneo ocular-, además de la billetera digital World App y la criptomoneda Worldcoin (WLD).

Estas tecnologías, impulsadas por actores -entre ellos Sam Altman, CEO de OpenAI– con intereses que van desde lo social hasta lo comercial, convergen en una misma propuesta: construir una “prueba de humanidad” segura y anónima, un sistema capaz de distinguir a las personas reales de los bots en la era de la Inteligencia Artificial Generativa (GenAI), también promovida por el propio Altman.

En 2024, World -nombre que agrupa tanto a la fundación como a su rama con fines de lucro- inició operaciones en Colombia, llegando a 17 ciudades. Su desembarco se enmarcó en un intenso lobby ante la SIC, en un intento por demostrar la compatibilidad de su modelo de negocio con la legislación local.

Sin embargo, la llamada “prueba de humanidad” ha estado lejos de ser un modelo de negocio pacífico. Autoridades de protección de datos en Argentina, Alemania, Corea del Sur, España, Francia, Filipinas, Hong Kong, Kenia, Portugal, Tailandia, Italia, Perú y más recientemente Chile y Brasil, han alertado, investigado o suspendido total o parcialmente las actividades de ambas organizaciones. Las decisiones se tomaron principalmente por deficiencias en la información proporcionada sobre las condiciones del tratamiento de datos biométricos; recolección de datos sensibles de menores de edad sin el consentimiento de sus familias o tutores; e imposibilidad para que las personas titulares retiren o revoquen su consentimiento una vez otorgado.

El registro en el Orbe: un diseño técnico con profundas implicaciones jurídicas

El proceso de entrega de datos personales a World no ocurre en un solo momento ni bajo un único responsable: los datos atraviesan distintas etapas tecnológicas y jurídicas a lo largo de su ciclo de vida.

Primero, durante el registro inicial en la billetera digital (World App), se solicitan datos personales diversos: nombre, teléfono, correo electrónico, cuenta bancaria y otros metadatos asociados al dispositivo móvil. Información que es tratada por Tools for Humanity.

El registro permite localizar el Orbe más cercano y programar una cita para el escaneo. En esta fase, el dispositivo captura el iris y el rostro de la persona. La obtención masiva de este tipo de datos es el ingrediente clave para saciar el apetito de entrenamiento del algoritmo de World, que determina si uno es o no una persona humana. De esta información personal es responsable World Foundation.

Vale la pena añadir dos cuestiones en esta fase. Por una parte, que el escaneo del iris se transforma en menos de 10 segundos: la imagen del iris y rostro se convierte en un código hash cifrado, basado en un protocolo de blockchain, o sea, en una larga hilera de números y letras. Esto es así para dar mayor seguridad y privacidad a los datos, según World. Y por otra, que el hash cifrado se fragmenta y almacena entre terceros, es decir, se descentraliza su custodia con el objetivo de dar mayor seguridad y confianza, pues evita la concentración de información en un único actor.

Cuando el registro es exitoso, la persona usuaria recibe en su billetera un depósito de 10 WLD, equivalentes a aproximadamente 50 USD (unos 200 mil pesos colombianos). De este proceso se desprenden varios puntos críticos:

  • En la descarga y registro en World App, persiste el tratamiento de datos personales. Estos datos no son anonimizados, por lo que el titular conserva el ejercicio de sus derechos de actualización, rectificación, cancelación y oposición (ARCO).
  • En el Orbe, los datos personales dejan de serlo en cuestión de segundos. Por la velocidad con que acontece dicho proceso, World ha reconocido ante otras autoridades –como la de Brasil– que resulta técnicamente imposible retractar el consentimiento después del escaneo del iris.
  • Si la imagen del iris es efectivamente anonimizada, los responsables de su tratamiento no estarían, en principio, sujetos a la legislación de protección de datos, pues los datos dejarían de identificar o hacer identificable a su titular. Eso sí, se debe probar que ese proceso es irreversible, efectivo y permanente.
  • El cifrado, que protege la información de accesos no autorizados, es un componente que debe permear todo el ciclo de vida del dato, sea personal o no.

El análisis de la SIC: políticas de tratamiento y consentimiento

La SIC evaluó la compatibilidad de las políticas de tratamiento de datos de World App y World ID con la Ley 1581 de 2012, y llegó a estas conclusiones: no están disponibles en su mayoría en idioma español, no identifican un responsable del tratamiento en Colombia, no ofrecen mecanismos claros de consulta o queja, no especifican las finalidades del tratamiento ni los tipos de datos recogidos, y no contemplan procedimientos para ejercer los derechos ARCO. En el proceso ante la SIC emergieron dudas sobre la anonimización y el cifrado de los datos extraídos por el Orbe.

World no aclaró ante la autoridad las medidas de seguridad que aplica en esa tecnología de reconocimiento facial, donde las imágenes de los iris estarían más expuestas, ni ofreció pruebas claras de que el anonimato sea irreversible y efectivo, o que el cifrado se mantenga en toda el ciclo de vida del dato.

De hecho, un reporte de auditoría de 2024 del protocolo de cifrado de World, sugirió fallas críticas de seguridad que, según la SIC, no habrían sido solucionadas.

Ahora bien, si realmente se trata de información anonimizada, ¿cómo cambia esto las obligaciones legales de World Foundation y Tools for Humanity? Y, ¿qué deberes recaen sobre los terceros en quienes se descentraliza el almacenamiento de datos? Incluso antes de la anonimización, ¿cómo podría una persona titular ejercer el retracto o cancelación de su consentimiento una vez registrado en el Orbe? Y, ¿cómo obligar a World a garantizar ese derecho?

La SIC, por su parte, sostuvo que el código hash permitiría identificar o hacer identificable al titular del dato. De ser cierta esta afirmación, el proyecto World estaría poniendo en muy grave peligro el tratamiento de datos biométricos y fallando a la promesa detrás de su modelo de negocio.

También, la entidad determinó que las y los usuarios no otorgaron un consentimiento informado ni libre, no solo en razón a los defectos de las políticas de tratamiento de datos del proyecto World, sino a vicios en la libertad de acción de las personas: “el consentimiento que otorga el titular debe responder únicamente a su propia voluntad y no a la entrega de cualquier tipo de contraprestación que pueda condicionarlo” (p. 30).

Sobre este punto, vale la pena señalar que la autoridad brasileña de datos (ANPD) suspendió en ese país recientemente la entrega de criptomonedas por el escaneo del iris. En ese caso, World se defendió al calificar la entrega del WLD como un incentivo, no como una contraprestación. Una diferencia conceptual que la ANPD desvirtuó al señalar que, tratándose de personas vulnerables, los incentivos se convierten en salvavidas que terminan explotando los datos de quienes no tienen otra alternativa económica.

Ese enfoque habría enriquecido la decisión de la SIC, pues no deja de ser cierto que el despliegue de World se concentra mayoritariamente en países de rentas media y baja, y que sin ese “incentivo” no habría obtenido para enero de 2025 el iris de más de 10 millones de personas.

La estrategia de World: disputar lo procesal y fingir demencia

La respuesta de World Foundation y Tools for Humanity fue predecible: alegar violaciones al debido proceso, o sea, supuestos errores en la notificación de las decisiones de la autoridad que fueron remitidas a World Foundation, cuando la encargada de responder era Tools for Humanity, o viceversa. En este año y medio, sí se dieron por enteradas de cada respuesta y solicitud de la autoridad, como se lee en el proceso.

Frente a los requerimientos de la SIC sobre la legalidad de sus políticas de tratamiento, su defensa fue igualmente débil: afirmaron, entre otros, que la ley no los obligaba a detallar ciertos aspectos, como las medidas de seguridad aplicadas al tratamiento de los datos, o que hacerlo resultaba demasiado costoso, como designar un responsable local en Colombia. Argumentos que se derrumbaron por su propio peso, ¿a qué argumentos habrían acudido en 2024 en las acciones de lobby donde buscaban mostrar su adherencia a la norma local?

Las preguntas que quedan abiertas

Las incógnitas tras la decisión de la SIC son numerosas. Ambas organizaciones deben eliminar todos los datos personales obtenidos a través de World App y del Orbe, pero ¿cómo garantizarán que la información -incluso la que ha sido anonimizada- haya sido completamente retirada de los conjuntos de datos utilizados para entrenar a sus algoritmos? Y, ¿cómo se comprometerán a que no queden registros del código hash en manos de los “terceros de confianza”?

El caso de World en Colombia revela algunas de las grietas en el negocio de la “prueba de humanidad” que promete protegernos de los bots pero que termina, paradójicamente, enfrentándonos a un dilema más complejo: quién controla, con qué fines y bajo qué garantías, la prueba de que somos humanos.

Como quiera que sea, la decisión de la SIC marca un precedente relevante para América Latina pues nos remite de nuevo a preguntas que dejan de ser tecnológicas y se vuelven profundamente políticas: ¿cuál es el precio estamos dispuestos a pagar por demostrar que existimos? Y sobre todo, ¿cuál es la responsabilidad ética y jurídica de quienes generan “soluciones” tecnológicas inescrutables para problemas que en parte han contribuido en crear?

Disputar las reglas del juego: métricas, comunicación y gobernanza digital

Los algoritmos de las redes sociales, diseñados para maximizar la atención y el tiempo de permanencia, determinan qué se muestra y qué se oculta, sin ofrecer transparencia sobre cómo operan. Este modelo no está pensado para fortalecer derechos ni construir ciudadanía digital, sino para capturar datos y generar interacción continua bajo la lógica comercial.

En el entorno digital, las organizaciones sociales enfrentamos una paradoja: necesitamos comprender cómo circulan nuestros mensajes y medir su impacto, pero las métricas disponibles no reflejan todo lo que importa. ¿Cómo aprendemos de los datos sin permitir que condicionen el sentido de nuestro trabajo y la forma en que construimos comunidad?

Gobernanza algorítmica: el poder invisible que decide qué se ve

En el ecosistema digital dominante, las organizaciones sociales participamos de la lógica de los números que se pueden mostrar. Los sistemas automatizados de los algoritmos refuerzan ese ciclo de estímulo y recompensa, incentivando contenidos que generen reacción antes que reflexión.

Como planteamos en nuestra columna sobre cómo comunicar más allá de las redes sociales, las plataformas moldean nuestras estrategias comunicativas a través de mecanismos opacos que privilegian la visibilidad sobre el sentido. Los algoritmos de las redes condicionan la circulación de los mensajes, sus interacciones y moldean las formas de participación. En ese escenario, la tarea no es solo mostrar mensajes, sino también disputar los marcos donde se define qué cuenta como comunicación efectiva, reconociendo que dicha disputa también es una forma de resistencia frente a la gobernanza impuesta por estas empresas de Silicon Valley y que estructuran el espacio público digital.

Nuestra investigación sobre “Resistencias digitales y gobernanza algorítmica” muestra que las organizaciones no deben limitarse a adaptarse a estas reglas, sino que pueden disputarlas activamente. No entender la lógica de los algoritmos puede llevar a que las métricas controlen la comunicación en lugar de orientarla. La resistencia no es solo el contenido que publicamos, sino la manera de medir y valorar ese contenido, aun cuando los algoritmos no lo premien con números.

En Derechos Digitales, nuestros canales digitales buscan abrir conversaciones sobre vigilancia masiva, soberanía tecnológica, y Derechos Humanos en los entornos digitales, temas que exigen atención, no consumo rápido. No buscamos adaptarnos a las lógicas algorítmicas de visibilidad, sino tensionarlas: producir contenidos que inviten a la reflexión. Para nuestro trabajo, se trata de estar ahí, manteniendo una presencia crítica que reivindique el derecho a comunicar en nuestros propios términos.

Los retos de las organizaciones sociales

Las organizaciones sociales no competimos en igualdad de condiciones. A diferencia de marcas o influencers, nuestras narrativas suelen ir a contracorriente de lo que la plataforma considera atractivo. Además, en América Latina enfrentamos desafíos adicionales: no contamos con los mismos recursos, acceso a herramientas ni visibilidad que tienen muchas organizaciones de Estados Unidos o Europa, lo que hace aún más difícil captar atención con campañas digitales y medir su alcance.

Un estudio reciente de Austral Comunicación (comunicadoras sociales en Uruguay, Ecuador y Costa Rica) sobre la medición del impacto social en la comunicación organizacional en América Latina señala que, aunque las y los profesionales reconocen la importancia de evaluar el cambio social, persisten vacíos metodológicos y una tendencia a privilegiar los datos fácilmente cuantificables sobre los procesos participativos o cualitativos. Además el International Journal of Communication cuestiona el concepto de “looking cool” como tendencia de las organizaciones a diseñar contenidos que parezcan atractivos para captar atención, más que contenidos que profundicen narrativas.

En las redes sociales, esto nos empuja a ver lo que publicamos solamente a través de números que traducen estándares y lógicas de mercado pensadas para productos, no para resistencias. Entonces, ¿reportamos lo que moviliza, o lo que suma? ¿Optimizamos el contenido para gustar o para fortalecer procesos? Un riesgo es cuando el objetivo deja de ser el contenido o el vínculo para volverse la métrica misma.

¿Si desafiamos las lógicas convencionales?

En comunicación digital muchas métricas se concentran en outputs (posts, impresiones) o engagement (clics, reacciones). Pero lo que importa para la incidencia son los procesos y transformaciones que se movilizan más allá del entorno digital: cuando un mensaje impulsa debates públicos, fortalece comunidades o contribuye a cambios concretos. Por ejemplo, presionar por una ley, instalar un tema en la agenda política o modificar una práctica institucional. Estos efectos reflejan cómo la acción digital se traduce en resultados concretos en la vida de las personas y en la esfera política. Por eso, es fundamental abrir conversaciones con otras organizaciones y dialogar sobre cómo definir qué “éxitos intermedios” podríamos medir.

Las narrativas que queremos posicionar desde los movimientos sociales exigen reflexión, cuidado y reajuste. Son conversaciones que siembran ideas y regresan, meses después, convertidas en nuevas formas colectivas de activismo. Son ejercicios que cambian la manera en que las personas se relacionan con el entorno digital, brindando contenidos políticos, educativos y reflexivos.

Organizaciones de la región están ensayando nuevas maneras de habitar el entorno digital que desafían la lógica de las mediciones convencionales. Hace algunos meses atrás en un conversatorio guiado por SocialTIC, discutimos estrategias para definir objetivos, audiencias y recursos desde la autonomía organizacional. Desde Guatemala, Andrea Ixchíu compartió la experiencia de Hackeo Cultural y la creación de Milpamérica, una red social autónoma pensada para “reforestar nuestras comunicaciones en tiempos de monocultivo”. Desde Colombia, la Fundación Karisma ha producido análisis e incidencia sobre redes comunitarias como alternativa de conectividad y producción de contenido local, explorando cómo estas infraestructuras autónomas pueden cerrar brechas digitales y fortalecer los vínculos comunitarios en el entorno digital.

Desde Derechos Digitales, gran parte de cambios concretos en la comprensión, la acción y la protección de derechos humanos en el entorno digital sucede fuera de lo que se ve en las redes sociales: cuando el Consejo Asesor de Meta cita nuestro aporte en la decisión final por caso de censura, cuando organizaciones en contextos de crisis políticas usan nuestras guías para el resguardo digital, cuando una adolescente reconoce una experiencia de violencia digital en un carrusel de las redes. Ninguna de esas acciones aparece en las estadísticas, pero son el verdadero corazón del trabajo, que debemos continuar impulsando dentro y fuera de las redes sociales.

El dato como brújula comunicacional

Las organizaciones sociales no existieron para competir en métricas digitales, nacieron para disputar sentidos, transformar realidades y construir futuro. En el contraste entre medir lo cuantitativo y acompañarlo de lo cualitativo, está el balance.  En la práctica, esto se puede recopilar a través de herramientas de monitoreo social, encuestas rápidas, entrevistas o seguimiento de interacciones en grupos y comunidades. Así, la medición se convierte en una guía para ajustar estrategias y fortalecer la comunidad.

Sabemos que en nuestra labor diaria contamos con historias de cambio, narrativas de comunidad y testimonios que no figuran en los números, pero sí dicen mucho del poder transformador. El proyecto NGO-IDEAs, que desde 2015 ha trabajado con ONGs en 11 países de la región, promueve un enfoque participativo en el monitoreo de efectos e impactos. Este enfoque destaca la importancia de involucrar a las comunidades en la definición de indicadores y en la evaluación de los resultados, reconociendo que las métricas cuantitativas deben complementarse con datos cualitativos para capturar la complejidad del trabajo en derechos humanos.

En el equipo de comunicación de Derechos Digitales, observamos métricas cuantitativas para entender cómo circulan nuestros contenidos; por otro, prestamos atención a los resultados cualitativos: quién se involucra en conversaciones, qué conexiones se generan entre participantes y cómo se consolidan espacios de colaboración y aprendizaje. Para nosotras, el éxito no está solo en los números visibles, sino en que la información y las herramientas lleguen a quienes pueden actuar y tomar decisiones informadas.

A través de aplicar estas mediciones, podemos incorporar en informes y evaluaciones que no todo puede cuantificarse, que hay efectos que escapan al dato. Un acto de honestidad que puede recuperar credibilidad política frente a quienes esperan números.

Reescribiendo las reglas impuestas

Si queremos un entorno digital más justo, las organizaciones debemos participar activamente en los espacios donde se deciden las reglas del juego. Esto incluye desde mesas de diálogo con las plataformas hasta instancias regionales e internacionales sobre políticas de internet, regulación de contenidos y estándares de transparencia algorítmica.

Exigir transparencia sobre cómo funcionan los algoritmos, qué se amplifica, qué se oculta y con qué criterios, es clave para que las métricas de las plataformas no terminen imponiendo lo que “vale” o “no vale” comunicar.

La incidencia colectiva de las organizaciones sociales se convierte en una forma de resistencia frente a la lógica de métricas impuestas por las plataformas. Participar en la gobernanza digital significa defender el derecho a comunicar.

De este modo, la comunicación deja de ser solo una estrategia para difundir mensajes: se convierte en herramienta de transformación estructural, en puente entre comunidades, derechos y espacios de decisión. Un entorno digital donde los datos nos sirvan para entender, acompañar y potenciar los procesos de cambio, no para definirlos.

Envejecer en un mundo hiperconectado: la ausencia de las personas mayores en las políticas digitales

La acelerada digitalización de nuestras sociedades trae consigo la incorporación de múltiples Tecnologías de la Información y la Comunicación (TIC) en la vida de las personas. Si bien el acceso a las mismas puede habilitar el ejercicio de nuestros derechos, existen marcadas diferencias en cómo se usan, apropian, entienden y experimentan entre la diversidad de personas usuarias. Esto genera capacidades y condiciones desiguales para su uso pleno, significativo, seguro y autónomo.

Uno de los grupos sociales que enfrenta mayores desafíos y desigualdades en el uso de las TIC son las personas mayores. Este grupo fue reconocido por la ONU como uno de los segmentos de la sociedad que requiere mayor atención, acompañamiento y cuidado para enfrentar los retos que plantea la creciente digitalización del mundo actual, y para reducir las barreras que les impiden aprovechar plenamente las herramientas tecnológicas en beneficio de su bienestar. Entre dichas barreras destacan la brecha digital y la alta exposición a ciberataques y amenazas en el ciberespacio.

En esta columna ahondaremos en la exclusión de las vejeces en políticas digitales, particularmente en las estrategias nacionales de ciberseguridad. Analizaremos las vulnerabilidades específicas que enfrentan en línea, reafirmando la importancia de proteger sus derechos a la autonomía, el cuidado y la no discriminación, esenciales para su integración y participación efectiva en la era digital.

América Latina, envejecimiento poblacional y desafíos de inclusión digital

Como hemos señalado anteriormente, desde una perspectiva interseccional la edad constituye una categoría fundamental a la hora de formular políticas sobre el diseño, despliegue y uso de las TIC. En esa línea, organismos regionales e internacionales ya reconocieron que los derechos humanos y las libertades fundamentales de las personas mayores deben ser garantizados a través de las políticas, planes, estrategias y legislaciones de los Estados. Además, de acuerdo con estudios sociales sobre esta temática, la inclusión de las personas mayores en el ámbito de las políticas públicas es tanto una cuestión demográfica como social.

Por un lado, la región atraviesa un proceso sostenido de envejecimiento poblacional desde inicios del siglo XXI. Se estima que para el año 2050, el 25% de la población en América Latina y el Caribe tendrá 65 años o más. Considerando la persistente brecha digital que enfrentan en la región, esta proyección debe ser tomada como una motivación crucial para impulsar políticas de inclusión digital que reconozcan la existencia de las vejeces como parte de la sociedad y respondan a sus propias necesidades, garantizando su participación en el mundo hiperconectado que habitamos.

Por otro lado, encontramos que los problemas asociados al envejecimiento fueron históricamente considerados como asuntos a resolver en el ámbito individual y privado. Sin embargo, se envejece en un contexto social y cultural específico que habilita u obstaculiza que se haga con plenitud, inclusión y en condiciones de equidad en el ejercicio de derechos. Se envejece siendo parte de un colectivo, por lo cual incorporar  a las personas mayores en las políticas públicas digitales implica reconocer su especificidad como grupo social.

Lejos de ser espectadoras pasivas de la transformación tecnológica, las vejeces merecen ejercer plenamente sus capacidades en la era digital, con autonomía y sin obstáculos técnicos e informativos que limiten su participación. Sin embargo, la calidad, la información y los conocimientos técnicos necesarios para ello siguen siendo escasos y poco adaptados a sus realidades, situándolas en una posición de desventaja para hacer un uso seguro de las tecnologías.

Estrategias nacionales de ciberseguridad: ¿alguien quiere pensar en las personas mayores?

De forma reiterada, vemos noticas que evidencian la frecuencia y gravedad de los ciberataques en la región, dirigidos tanto a personas como a instituciones. Hace una semana, por ejemplo, la información de 20 millones de personas pensionadas del Instituto Mexicano del Seguro Social fue divulgada y puesta a la venta en foros clandestinos, dejando a una gran cantidad de personas mayores expuestas a múltiples riesgos y métodos de estafa como el phishing. Este caso ilustra  no solo  la fragilidad de los sistemas estatales de almacenamiento de datos, sino también la vulnerabilidad en cascada de las vejeces allí registradas, denotando la imperiosa tarea de reforzar marcos de Derechos Humanos en el tratamiento de la ciberseguridad.

La visión clásica de la ciberseguridad enfocó sus esfuerzos principalmente en la protección del Estado y sus infraestructuras. Sin embargo, perspectivas de género e interseccionales en esta materia sugieren un cambio sistémico urgente en su abordaje, que centre las políticas y  estrategias en las personas, e integre las diversas realidades y necesidades de  sectores sociales que enfrentan amenazas y riesgos diferenciales en el espacio digital. Este giro en el enfoque es clave para garantizar el ejercicio efectivo de los  derechos en los entornos digitales; en particular de grupos históricamente excluidos como las mujeres, las personas de la comunidad LGBTQIA+ y las personas mayores.

A la fecha, de los 21 países de América Latina, 13 ya adoptaron estrategias nacionales de ciberseguridad. Pero sólo 3 (Brasil, Chile y Uruguay) tienen menciones explícitas en sus líneas de acción a las vejeces, y sólo 1 (la reciente estrategia del Paraguay) reconoce  la edad como una de las intersecciones a considerar a la hora de ejecutar políticas de protección para la ciudadanía en el ciberespacio. Ahora bien, ¿la mera referencia a las personas mayores es suficiente para hablar de inclusión? Como buena práctica, la estrategia de Chile contempla la alfabetización básica en ciberseguridad para este sector etario. De hecho, en su plan de acción, este sector es transversal a la mayoría de medidas a implementar, lo que permite concretar objetivos y responsables para cumplir lo que se plasmó en el documento de la estrategia. No obstante, en las demás políticas públicas mencionadas se habla de forma general sobre campañas de concientización en ciberseguridad que incluyen a las personas mayores, sin contar aún con medidas específicas o preferentes que respondan a sus necesidades particulares.

La exclusión que transita la vejez en la mayoría de estos marcos normativos refleja una preocupación señalada por organismos regionales de Derechos Humanos: el edadismo. Esta  forma de discriminación por razón de edad permanece enraizada cultural y jurídicamente en América Latina, exponiendo a este grupo social a diferentes formas de violencia, incluida la que ocurre en línea.

La creciente dependencia de nuestras sociedades en las TIC, así como la digitalización de servicios básicos y fundamentales, incrementa inevitablemente la exposición a riesgos y amenazas. En el caso de las vejeces, la brecha de conocimientos frente a la naturaleza y la sofisticación de los ciberataques las deja altamente desprotegidas, convirtiéndolas en el objetivo de ataques, estafas en su mayoría, caracterizados por la suplantación de identidad para robar información personal y financiera a través de emails, páginas web falsas, llamadas telefónicas, mensajes de texto, entre otros.

Podría afirmarse que, considerando el carácter socio-técnico de las tecnologías, y ante la evolución constante tanto de éstas, como de las violencias que amplifican, el envejecimiento conlleva una condición de vulnerabilidad desde la cual las personas mayores encuentran barreras para participar del cambio tecnológico y usar plena, autónoma y efectivamente las TIC. Debe quedar claro, sin embargo, que el problema no es envejecer; no es la vejez la que dificulta el ejercicio de los Derechos Humanos en los entornos digitales, es la concepción social, cultural y jurídica que los Estados de nuestra región mantienen frente a ella. Estas concepciones se traducen en la exclusión de las personas mayores de los procesos de formulación e implementación de las políticas públicas, restringiendo el pleno goce de sus derechos y desatendiendo sus necesidades y vivencias.

Derecho a la autonomía y al cuidado en los entornos digitales

Promover, proteger y garantizar el reconocimiento y ejercicio, en condiciones de igualdad, de los Derechos Humanos y libertades fundamentales de las personas mayores a través de las políticas digitales resulta esencial. Dos derechos particulares asociados a este grupo son especialmente importantes a la hora de formular marcos de política pública inclusivos: la autonomía y el cuidado.

A menudo, en las sociedades occidentales, las vejeces se ven despojadas de su capacidad para responder a las propias necesidades, expresar sus deseos, tomar decisiones y lograr sus metas, lo que limita las posibilidades de que ejerzan control sobre sus vidas o las vivan de forma autónoma. Así, la edad avanzada es relacionada con la pérdida de funcionalidad, con la dependencia física, mental, emocional y social, el cese de la vida productiva, dejándoles de tener en cuenta para tomar decisiones en ámbitos como el financiero, familiar o político. Es por esto que, según mecanismos regionales de Derechos Humanos, cualquier instrumento de política pública sobre los derechos de las personas mayores debe, en primer lugar, garantizarles la posibilidad de ser autónomas para gestionar sus proyectos vitales.

En un mundo hiperconectado, donde cada vez más actividades se realizan usando la tecnología, contar con conocimientos suficientes para comprender los procesos que se gestan en Internet, así como  las posibilidades y los riesgos que conlleva, no es sólo un asunto de ciberseguridad, sino también, y sobretodo, un tema de Derechos Humanos y autonomía para las personas mayores. Asegurar su independencia y sus posibilidades de participar e integrarse a las comunidades a través de las TIC debe ser un eje central de las políticas digitales.

Por otra parte, la creación de entornos digitales propicios y favorables para este grupo social resulta crucial para que puedan ejercer sus derechos sociales, económicos y culturales en condiciones de igualdad. Proteger su  autonomía e independencia en el espacio digital es una práctica de cuidado en consideración de sus demandas y características específicas. En la medida que las TIC sean parte de su vida cotidiana, es necesario extender las prácticas de cuidado y prevención que tradicionalmente acompañan otras esferas de la vida, también a lo que suceda en los entornos digitales.

La dimensión del cuidado acá mencionada tiene que ver con procurar el bienestar de las personas mayores sin despojarles de su agencia sino, más bien, acompañándoles en el ejercicio y mantenimiento de su autonomía al navegar y usar las tecnologías. Esta es una concepción del cuidado basada en crear condiciones para el bienestar reconociendo las diferencias y vulnerabilidades históricas de este sector etario. Por ejemplo, si se procura el cuidado y la protección de las personas mayores a través de la creación de entornos físicos, sociales y culturales que habiliten el ejercicio de sus derechos, ¿por qué no crear condiciones y desarrollar conocimientos para el disfrute de entornos digitales seguros y favorables? Esto se traduce en bienestar, en protección de la autonomía y, por tanto, en una práctica de cuidado.

Recientemente, la Corte Interamericana de Derechos Humanos reconoció el derecho autónomo al cuidado, entendiendo que constituye una necesidad básica, ineludible y universal, fundamental para una existencia digna, en especial de las personas en situación de vulnerabilidad. En relación con el derecho de las vejeces de recibir cuidados, la Corte sostuvo que los Estados deben adoptar medidas para garantizar su acceso y permanencia en servicios de cuidados de calidad, en consonancia con sus derechos a la autonomía, independencia, seguridad y a una vida libre de violencias. Esta consideración debe extenderse también al ámbito de las políticas digitales, donde este grupo etario requiere enfoques específicos y adecuados que incluyan plenamente sus necesidades, experiencias y capacidades. Las políticas públicas deben brindar mecanismos de apoyo y acompañamiento que garanticen un uso seguro, autónomo y sostenible de las TIC por parte de las personas mayores, fortaleciendo así el ejercicio de sus derechos en entornos digitales.