El negocio del iris: Colombia marca un precedente regional al frenar las operaciones de World Foundation y Tools for Humanity

El pasado 3 de octubre, la Superintendencia de Industria y Comercio (SIC) de Colombia, autoridad en materia de protección de datos personales, ordenó el cierre inmediato y definitivo de las operaciones de World Foundation y Tools for Humanity, por incumplir la legislación nacional de protección de datos. Además, les impuso la obligación de eliminar toda la información personal sensible bajo su custodia.

World Foundation, organización sin fines de lucro, administra el sistema de verificación de identidad basado en el iris conocido como World ID. Tools for Humanity, su socio operativo y compañía privada, es la creadora del Orbe -el dispositivo esférico de escaneo ocular-, además de la billetera digital World App y la criptomoneda Worldcoin (WLD).

Estas tecnologías, impulsadas por actores -entre ellos Sam Altman, CEO de OpenAI– con intereses que van desde lo social hasta lo comercial, convergen en una misma propuesta: construir una “prueba de humanidad” segura y anónima, un sistema capaz de distinguir a las personas reales de los bots en la era de la Inteligencia Artificial Generativa (GenAI), también promovida por el propio Altman.

En 2024, World -nombre que agrupa tanto a la fundación como a su rama con fines de lucro- inició operaciones en Colombia, llegando a 17 ciudades. Su desembarco se enmarcó en un intenso lobby ante la SIC, en un intento por demostrar la compatibilidad de su modelo de negocio con la legislación local.

Sin embargo, la llamada “prueba de humanidad” ha estado lejos de ser un modelo de negocio pacífico. Autoridades de protección de datos en Argentina, Alemania, Corea del Sur, España, Francia, Filipinas, Hong Kong, Kenia, Portugal, Tailandia, Italia, Perú y más recientemente Chile y Brasil, han alertado, investigado o suspendido total o parcialmente las actividades de ambas organizaciones. Las decisiones se tomaron principalmente por deficiencias en la información proporcionada sobre las condiciones del tratamiento de datos biométricos; recolección de datos sensibles de menores de edad sin el consentimiento de sus familias o tutores; e imposibilidad para que las personas titulares retiren o revoquen su consentimiento una vez otorgado.

El registro en el Orbe: un diseño técnico con profundas implicaciones jurídicas

El proceso de entrega de datos personales a World no ocurre en un solo momento ni bajo un único responsable: los datos atraviesan distintas etapas tecnológicas y jurídicas a lo largo de su ciclo de vida.

Primero, durante el registro inicial en la billetera digital (World App), se solicitan datos personales diversos: nombre, teléfono, correo electrónico, cuenta bancaria y otros metadatos asociados al dispositivo móvil. Información que es tratada por Tools for Humanity.

El registro permite localizar el Orbe más cercano y programar una cita para el escaneo. En esta fase, el dispositivo captura el iris y el rostro de la persona. La obtención masiva de este tipo de datos es el ingrediente clave para saciar el apetito de entrenamiento del algoritmo de World, que determina si uno es o no una persona humana. De esta información personal es responsable World Foundation.

Vale la pena añadir dos cuestiones en esta fase. Por una parte, que el escaneo del iris se transforma en menos de 10 segundos: la imagen del iris y rostro se convierte en un código hash cifrado, basado en un protocolo de blockchain, o sea, en una larga hilera de números y letras. Esto es así para dar mayor seguridad y privacidad a los datos, según World. Y por otra, que el hash cifrado se fragmenta y almacena entre terceros, es decir, se descentraliza su custodia con el objetivo de dar mayor seguridad y confianza, pues evita la concentración de información en un único actor.

Cuando el registro es exitoso, la persona usuaria recibe en su billetera un depósito de 10 WLD, equivalentes a aproximadamente 50 USD (unos 200 mil pesos colombianos). De este proceso se desprenden varios puntos críticos:

  • En la descarga y registro en World App, persiste el tratamiento de datos personales. Estos datos no son anonimizados, por lo que el titular conserva el ejercicio de sus derechos de actualización, rectificación, cancelación y oposición (ARCO).
  • En el Orbe, los datos personales dejan de serlo en cuestión de segundos. Por la velocidad con que acontece dicho proceso, World ha reconocido ante otras autoridades –como la de Brasil– que resulta técnicamente imposible retractar el consentimiento después del escaneo del iris.
  • Si la imagen del iris es efectivamente anonimizada, los responsables de su tratamiento no estarían, en principio, sujetos a la legislación de protección de datos, pues los datos dejarían de identificar o hacer identificable a su titular. Eso sí, se debe probar que ese proceso es irreversible, efectivo y permanente.
  • El cifrado, que protege la información de accesos no autorizados, es un componente que debe permear todo el ciclo de vida del dato, sea personal o no.

El análisis de la SIC: políticas de tratamiento y consentimiento

La SIC evaluó la compatibilidad de las políticas de tratamiento de datos de World App y World ID con la Ley 1581 de 2012, y llegó a estas conclusiones: no están disponibles en su mayoría en idioma español, no identifican un responsable del tratamiento en Colombia, no ofrecen mecanismos claros de consulta o queja, no especifican las finalidades del tratamiento ni los tipos de datos recogidos, y no contemplan procedimientos para ejercer los derechos ARCO. En el proceso ante la SIC emergieron dudas sobre la anonimización y el cifrado de los datos extraídos por el Orbe.

World no aclaró ante la autoridad las medidas de seguridad que aplica en esa tecnología de reconocimiento facial, donde las imágenes de los iris estarían más expuestas, ni ofreció pruebas claras de que el anonimato sea irreversible y efectivo, o que el cifrado se mantenga en toda el ciclo de vida del dato.

De hecho, un reporte de auditoría de 2024 del protocolo de cifrado de World, sugirió fallas críticas de seguridad que, según la SIC, no habrían sido solucionadas.

Ahora bien, si realmente se trata de información anonimizada, ¿cómo cambia esto las obligaciones legales de World Foundation y Tools for Humanity? Y, ¿qué deberes recaen sobre los terceros en quienes se descentraliza el almacenamiento de datos? Incluso antes de la anonimización, ¿cómo podría una persona titular ejercer el retracto o cancelación de su consentimiento una vez registrado en el Orbe? Y, ¿cómo obligar a World a garantizar ese derecho?

La SIC, por su parte, sostuvo que el código hash permitiría identificar o hacer identificable al titular del dato. De ser cierta esta afirmación, el proyecto World estaría poniendo en muy grave peligro el tratamiento de datos biométricos y fallando a la promesa detrás de su modelo de negocio.

También, la entidad determinó que las y los usuarios no otorgaron un consentimiento informado ni libre, no solo en razón a los defectos de las políticas de tratamiento de datos del proyecto World, sino a vicios en la libertad de acción de las personas: “el consentimiento que otorga el titular debe responder únicamente a su propia voluntad y no a la entrega de cualquier tipo de contraprestación que pueda condicionarlo” (p. 30).

Sobre este punto, vale la pena señalar que la autoridad brasileña de datos (ANPD) suspendió en ese país recientemente la entrega de criptomonedas por el escaneo del iris. En ese caso, World se defendió al calificar la entrega del WLD como un incentivo, no como una contraprestación. Una diferencia conceptual que la ANPD desvirtuó al señalar que, tratándose de personas vulnerables, los incentivos se convierten en salvavidas que terminan explotando los datos de quienes no tienen otra alternativa económica.

Ese enfoque habría enriquecido la decisión de la SIC, pues no deja de ser cierto que el despliegue de World se concentra mayoritariamente en países de rentas media y baja, y que sin ese “incentivo” no habría obtenido para enero de 2025 el iris de más de 10 millones de personas.

La estrategia de World: disputar lo procesal y fingir demencia

La respuesta de World Foundation y Tools for Humanity fue predecible: alegar violaciones al debido proceso, o sea, supuestos errores en la notificación de las decisiones de la autoridad que fueron remitidas a World Foundation, cuando la encargada de responder era Tools for Humanity, o viceversa. En este año y medio, sí se dieron por enteradas de cada respuesta y solicitud de la autoridad, como se lee en el proceso.

Frente a los requerimientos de la SIC sobre la legalidad de sus políticas de tratamiento, su defensa fue igualmente débil: afirmaron, entre otros, que la ley no los obligaba a detallar ciertos aspectos, como las medidas de seguridad aplicadas al tratamiento de los datos, o que hacerlo resultaba demasiado costoso, como designar un responsable local en Colombia. Argumentos que se derrumbaron por su propio peso, ¿a qué argumentos habrían acudido en 2024 en las acciones de lobby donde buscaban mostrar su adherencia a la norma local?

Las preguntas que quedan abiertas

Las incógnitas tras la decisión de la SIC son numerosas. Ambas organizaciones deben eliminar todos los datos personales obtenidos a través de World App y del Orbe, pero ¿cómo garantizarán que la información -incluso la que ha sido anonimizada- haya sido completamente retirada de los conjuntos de datos utilizados para entrenar a sus algoritmos? Y, ¿cómo se comprometerán a que no queden registros del código hash en manos de los “terceros de confianza”?

El caso de World en Colombia revela algunas de las grietas en el negocio de la “prueba de humanidad” que promete protegernos de los bots pero que termina, paradójicamente, enfrentándonos a un dilema más complejo: quién controla, con qué fines y bajo qué garantías, la prueba de que somos humanos.

Como quiera que sea, la decisión de la SIC marca un precedente relevante para América Latina pues nos remite de nuevo a preguntas que dejan de ser tecnológicas y se vuelven profundamente políticas: ¿cuál es el precio estamos dispuestos a pagar por demostrar que existimos? Y sobre todo, ¿cuál es la responsabilidad ética y jurídica de quienes generan “soluciones” tecnológicas inescrutables para problemas que en parte han contribuido en crear?

Disputar las reglas del juego: métricas, comunicación y gobernanza digital

Los algoritmos de las redes sociales, diseñados para maximizar la atención y el tiempo de permanencia, determinan qué se muestra y qué se oculta, sin ofrecer transparencia sobre cómo operan. Este modelo no está pensado para fortalecer derechos ni construir ciudadanía digital, sino para capturar datos y generar interacción continua bajo la lógica comercial.

En el entorno digital, las organizaciones sociales enfrentamos una paradoja: necesitamos comprender cómo circulan nuestros mensajes y medir su impacto, pero las métricas disponibles no reflejan todo lo que importa. ¿Cómo aprendemos de los datos sin permitir que condicionen el sentido de nuestro trabajo y la forma en que construimos comunidad?

Gobernanza algorítmica: el poder invisible que decide qué se ve

En el ecosistema digital dominante, las organizaciones sociales participamos de la lógica de los números que se pueden mostrar. Los sistemas automatizados de los algoritmos refuerzan ese ciclo de estímulo y recompensa, incentivando contenidos que generen reacción antes que reflexión.

Como planteamos en nuestra columna sobre cómo comunicar más allá de las redes sociales, las plataformas moldean nuestras estrategias comunicativas a través de mecanismos opacos que privilegian la visibilidad sobre el sentido. Los algoritmos de las redes condicionan la circulación de los mensajes, sus interacciones y moldean las formas de participación. En ese escenario, la tarea no es solo mostrar mensajes, sino también disputar los marcos donde se define qué cuenta como comunicación efectiva, reconociendo que dicha disputa también es una forma de resistencia frente a la gobernanza impuesta por estas empresas de Silicon Valley y que estructuran el espacio público digital.

Nuestra investigación sobre “Resistencias digitales y gobernanza algorítmica” muestra que las organizaciones no deben limitarse a adaptarse a estas reglas, sino que pueden disputarlas activamente. No entender la lógica de los algoritmos puede llevar a que las métricas controlen la comunicación en lugar de orientarla. La resistencia no es solo el contenido que publicamos, sino la manera de medir y valorar ese contenido, aun cuando los algoritmos no lo premien con números.

En Derechos Digitales, nuestros canales digitales buscan abrir conversaciones sobre vigilancia masiva, soberanía tecnológica, y Derechos Humanos en los entornos digitales, temas que exigen atención, no consumo rápido. No buscamos adaptarnos a las lógicas algorítmicas de visibilidad, sino tensionarlas: producir contenidos que inviten a la reflexión. Para nuestro trabajo, se trata de estar ahí, manteniendo una presencia crítica que reivindique el derecho a comunicar en nuestros propios términos.

Los retos de las organizaciones sociales

Las organizaciones sociales no competimos en igualdad de condiciones. A diferencia de marcas o influencers, nuestras narrativas suelen ir a contracorriente de lo que la plataforma considera atractivo. Además, en América Latina enfrentamos desafíos adicionales: no contamos con los mismos recursos, acceso a herramientas ni visibilidad que tienen muchas organizaciones de Estados Unidos o Europa, lo que hace aún más difícil captar atención con campañas digitales y medir su alcance.

Un estudio reciente de Austral Comunicación (comunicadoras sociales en Uruguay, Ecuador y Costa Rica) sobre la medición del impacto social en la comunicación organizacional en América Latina señala que, aunque las y los profesionales reconocen la importancia de evaluar el cambio social, persisten vacíos metodológicos y una tendencia a privilegiar los datos fácilmente cuantificables sobre los procesos participativos o cualitativos. Además el International Journal of Communication cuestiona el concepto de “looking cool” como tendencia de las organizaciones a diseñar contenidos que parezcan atractivos para captar atención, más que contenidos que profundicen narrativas.

En las redes sociales, esto nos empuja a ver lo que publicamos solamente a través de números que traducen estándares y lógicas de mercado pensadas para productos, no para resistencias. Entonces, ¿reportamos lo que moviliza, o lo que suma? ¿Optimizamos el contenido para gustar o para fortalecer procesos? Un riesgo es cuando el objetivo deja de ser el contenido o el vínculo para volverse la métrica misma.

¿Si desafiamos las lógicas convencionales?

En comunicación digital muchas métricas se concentran en outputs (posts, impresiones) o engagement (clics, reacciones). Pero lo que importa para la incidencia son los procesos y transformaciones que se movilizan más allá del entorno digital: cuando un mensaje impulsa debates públicos, fortalece comunidades o contribuye a cambios concretos. Por ejemplo, presionar por una ley, instalar un tema en la agenda política o modificar una práctica institucional. Estos efectos reflejan cómo la acción digital se traduce en resultados concretos en la vida de las personas y en la esfera política. Por eso, es fundamental abrir conversaciones con otras organizaciones y dialogar sobre cómo definir qué “éxitos intermedios” podríamos medir.

Las narrativas que queremos posicionar desde los movimientos sociales exigen reflexión, cuidado y reajuste. Son conversaciones que siembran ideas y regresan, meses después, convertidas en nuevas formas colectivas de activismo. Son ejercicios que cambian la manera en que las personas se relacionan con el entorno digital, brindando contenidos políticos, educativos y reflexivos.

Organizaciones de la región están ensayando nuevas maneras de habitar el entorno digital que desafían la lógica de las mediciones convencionales. Hace algunos meses atrás en un conversatorio guiado por SocialTIC, discutimos estrategias para definir objetivos, audiencias y recursos desde la autonomía organizacional. Desde Guatemala, Andrea Ixchíu compartió la experiencia de Hackeo Cultural y la creación de Milpamérica, una red social autónoma pensada para “reforestar nuestras comunicaciones en tiempos de monocultivo”. Desde Colombia, la Fundación Karisma ha producido análisis e incidencia sobre redes comunitarias como alternativa de conectividad y producción de contenido local, explorando cómo estas infraestructuras autónomas pueden cerrar brechas digitales y fortalecer los vínculos comunitarios en el entorno digital.

Desde Derechos Digitales, gran parte de cambios concretos en la comprensión, la acción y la protección de derechos humanos en el entorno digital sucede fuera de lo que se ve en las redes sociales: cuando el Consejo Asesor de Meta cita nuestro aporte en la decisión final por caso de censura, cuando organizaciones en contextos de crisis políticas usan nuestras guías para el resguardo digital, cuando una adolescente reconoce una experiencia de violencia digital en un carrusel de las redes. Ninguna de esas acciones aparece en las estadísticas, pero son el verdadero corazón del trabajo, que debemos continuar impulsando dentro y fuera de las redes sociales.

El dato como brújula comunicacional

Las organizaciones sociales no existieron para competir en métricas digitales, nacieron para disputar sentidos, transformar realidades y construir futuro. En el contraste entre medir lo cuantitativo y acompañarlo de lo cualitativo, está el balance.  En la práctica, esto se puede recopilar a través de herramientas de monitoreo social, encuestas rápidas, entrevistas o seguimiento de interacciones en grupos y comunidades. Así, la medición se convierte en una guía para ajustar estrategias y fortalecer la comunidad.

Sabemos que en nuestra labor diaria contamos con historias de cambio, narrativas de comunidad y testimonios que no figuran en los números, pero sí dicen mucho del poder transformador. El proyecto NGO-IDEAs, que desde 2015 ha trabajado con ONGs en 11 países de la región, promueve un enfoque participativo en el monitoreo de efectos e impactos. Este enfoque destaca la importancia de involucrar a las comunidades en la definición de indicadores y en la evaluación de los resultados, reconociendo que las métricas cuantitativas deben complementarse con datos cualitativos para capturar la complejidad del trabajo en derechos humanos.

En el equipo de comunicación de Derechos Digitales, observamos métricas cuantitativas para entender cómo circulan nuestros contenidos; por otro, prestamos atención a los resultados cualitativos: quién se involucra en conversaciones, qué conexiones se generan entre participantes y cómo se consolidan espacios de colaboración y aprendizaje. Para nosotras, el éxito no está solo en los números visibles, sino en que la información y las herramientas lleguen a quienes pueden actuar y tomar decisiones informadas.

A través de aplicar estas mediciones, podemos incorporar en informes y evaluaciones que no todo puede cuantificarse, que hay efectos que escapan al dato. Un acto de honestidad que puede recuperar credibilidad política frente a quienes esperan números.

Reescribiendo las reglas impuestas

Si queremos un entorno digital más justo, las organizaciones debemos participar activamente en los espacios donde se deciden las reglas del juego. Esto incluye desde mesas de diálogo con las plataformas hasta instancias regionales e internacionales sobre políticas de internet, regulación de contenidos y estándares de transparencia algorítmica.

Exigir transparencia sobre cómo funcionan los algoritmos, qué se amplifica, qué se oculta y con qué criterios, es clave para que las métricas de las plataformas no terminen imponiendo lo que “vale” o “no vale” comunicar.

La incidencia colectiva de las organizaciones sociales se convierte en una forma de resistencia frente a la lógica de métricas impuestas por las plataformas. Participar en la gobernanza digital significa defender el derecho a comunicar.

De este modo, la comunicación deja de ser solo una estrategia para difundir mensajes: se convierte en herramienta de transformación estructural, en puente entre comunidades, derechos y espacios de decisión. Un entorno digital donde los datos nos sirvan para entender, acompañar y potenciar los procesos de cambio, no para definirlos.

Envejecer en un mundo hiperconectado: la ausencia de las personas mayores en las políticas digitales

La acelerada digitalización de nuestras sociedades trae consigo la incorporación de múltiples Tecnologías de la Información y la Comunicación (TIC) en la vida de las personas. Si bien el acceso a las mismas puede habilitar el ejercicio de nuestros derechos, existen marcadas diferencias en cómo se usan, apropian, entienden y experimentan entre la diversidad de personas usuarias. Esto genera capacidades y condiciones desiguales para su uso pleno, significativo, seguro y autónomo.

Uno de los grupos sociales que enfrenta mayores desafíos y desigualdades en el uso de las TIC son las personas mayores. Este grupo fue reconocido por la ONU como uno de los segmentos de la sociedad que requiere mayor atención, acompañamiento y cuidado para enfrentar los retos que plantea la creciente digitalización del mundo actual, y para reducir las barreras que les impiden aprovechar plenamente las herramientas tecnológicas en beneficio de su bienestar. Entre dichas barreras destacan la brecha digital y la alta exposición a ciberataques y amenazas en el ciberespacio.

En esta columna ahondaremos en la exclusión de las vejeces en políticas digitales, particularmente en las estrategias nacionales de ciberseguridad. Analizaremos las vulnerabilidades específicas que enfrentan en línea, reafirmando la importancia de proteger sus derechos a la autonomía, el cuidado y la no discriminación, esenciales para su integración y participación efectiva en la era digital.

América Latina, envejecimiento poblacional y desafíos de inclusión digital

Como hemos señalado anteriormente, desde una perspectiva interseccional la edad constituye una categoría fundamental a la hora de formular políticas sobre el diseño, despliegue y uso de las TIC. En esa línea, organismos regionales e internacionales ya reconocieron que los derechos humanos y las libertades fundamentales de las personas mayores deben ser garantizados a través de las políticas, planes, estrategias y legislaciones de los Estados. Además, de acuerdo con estudios sociales sobre esta temática, la inclusión de las personas mayores en el ámbito de las políticas públicas es tanto una cuestión demográfica como social.

Por un lado, la región atraviesa un proceso sostenido de envejecimiento poblacional desde inicios del siglo XXI. Se estima que para el año 2050, el 25% de la población en América Latina y el Caribe tendrá 65 años o más. Considerando la persistente brecha digital que enfrentan en la región, esta proyección debe ser tomada como una motivación crucial para impulsar políticas de inclusión digital que reconozcan la existencia de las vejeces como parte de la sociedad y respondan a sus propias necesidades, garantizando su participación en el mundo hiperconectado que habitamos.

Por otro lado, encontramos que los problemas asociados al envejecimiento fueron históricamente considerados como asuntos a resolver en el ámbito individual y privado. Sin embargo, se envejece en un contexto social y cultural específico que habilita u obstaculiza que se haga con plenitud, inclusión y en condiciones de equidad en el ejercicio de derechos. Se envejece siendo parte de un colectivo, por lo cual incorporar  a las personas mayores en las políticas públicas digitales implica reconocer su especificidad como grupo social.

Lejos de ser espectadoras pasivas de la transformación tecnológica, las vejeces merecen ejercer plenamente sus capacidades en la era digital, con autonomía y sin obstáculos técnicos e informativos que limiten su participación. Sin embargo, la calidad, la información y los conocimientos técnicos necesarios para ello siguen siendo escasos y poco adaptados a sus realidades, situándolas en una posición de desventaja para hacer un uso seguro de las tecnologías.

Estrategias nacionales de ciberseguridad: ¿alguien quiere pensar en las personas mayores?

De forma reiterada, vemos noticas que evidencian la frecuencia y gravedad de los ciberataques en la región, dirigidos tanto a personas como a instituciones. Hace una semana, por ejemplo, la información de 20 millones de personas pensionadas del Instituto Mexicano del Seguro Social fue divulgada y puesta a la venta en foros clandestinos, dejando a una gran cantidad de personas mayores expuestas a múltiples riesgos y métodos de estafa como el phishing. Este caso ilustra  no solo  la fragilidad de los sistemas estatales de almacenamiento de datos, sino también la vulnerabilidad en cascada de las vejeces allí registradas, denotando la imperiosa tarea de reforzar marcos de Derechos Humanos en el tratamiento de la ciberseguridad.

La visión clásica de la ciberseguridad enfocó sus esfuerzos principalmente en la protección del Estado y sus infraestructuras. Sin embargo, perspectivas de género e interseccionales en esta materia sugieren un cambio sistémico urgente en su abordaje, que centre las políticas y  estrategias en las personas, e integre las diversas realidades y necesidades de  sectores sociales que enfrentan amenazas y riesgos diferenciales en el espacio digital. Este giro en el enfoque es clave para garantizar el ejercicio efectivo de los  derechos en los entornos digitales; en particular de grupos históricamente excluidos como las mujeres, las personas de la comunidad LGBTQIA+ y las personas mayores.

A la fecha, de los 21 países de América Latina, 13 ya adoptaron estrategias nacionales de ciberseguridad. Pero sólo 3 (Brasil, Chile y Uruguay) tienen menciones explícitas en sus líneas de acción a las vejeces, y sólo 1 (la reciente estrategia del Paraguay) reconoce  la edad como una de las intersecciones a considerar a la hora de ejecutar políticas de protección para la ciudadanía en el ciberespacio. Ahora bien, ¿la mera referencia a las personas mayores es suficiente para hablar de inclusión? Como buena práctica, la estrategia de Chile contempla la alfabetización básica en ciberseguridad para este sector etario. De hecho, en su plan de acción, este sector es transversal a la mayoría de medidas a implementar, lo que permite concretar objetivos y responsables para cumplir lo que se plasmó en el documento de la estrategia. No obstante, en las demás políticas públicas mencionadas se habla de forma general sobre campañas de concientización en ciberseguridad que incluyen a las personas mayores, sin contar aún con medidas específicas o preferentes que respondan a sus necesidades particulares.

La exclusión que transita la vejez en la mayoría de estos marcos normativos refleja una preocupación señalada por organismos regionales de Derechos Humanos: el edadismo. Esta  forma de discriminación por razón de edad permanece enraizada cultural y jurídicamente en América Latina, exponiendo a este grupo social a diferentes formas de violencia, incluida la que ocurre en línea.

La creciente dependencia de nuestras sociedades en las TIC, así como la digitalización de servicios básicos y fundamentales, incrementa inevitablemente la exposición a riesgos y amenazas. En el caso de las vejeces, la brecha de conocimientos frente a la naturaleza y la sofisticación de los ciberataques las deja altamente desprotegidas, convirtiéndolas en el objetivo de ataques, estafas en su mayoría, caracterizados por la suplantación de identidad para robar información personal y financiera a través de emails, páginas web falsas, llamadas telefónicas, mensajes de texto, entre otros.

Podría afirmarse que, considerando el carácter socio-técnico de las tecnologías, y ante la evolución constante tanto de éstas, como de las violencias que amplifican, el envejecimiento conlleva una condición de vulnerabilidad desde la cual las personas mayores encuentran barreras para participar del cambio tecnológico y usar plena, autónoma y efectivamente las TIC. Debe quedar claro, sin embargo, que el problema no es envejecer; no es la vejez la que dificulta el ejercicio de los Derechos Humanos en los entornos digitales, es la concepción social, cultural y jurídica que los Estados de nuestra región mantienen frente a ella. Estas concepciones se traducen en la exclusión de las personas mayores de los procesos de formulación e implementación de las políticas públicas, restringiendo el pleno goce de sus derechos y desatendiendo sus necesidades y vivencias.

Derecho a la autonomía y al cuidado en los entornos digitales

Promover, proteger y garantizar el reconocimiento y ejercicio, en condiciones de igualdad, de los Derechos Humanos y libertades fundamentales de las personas mayores a través de las políticas digitales resulta esencial. Dos derechos particulares asociados a este grupo son especialmente importantes a la hora de formular marcos de política pública inclusivos: la autonomía y el cuidado.

A menudo, en las sociedades occidentales, las vejeces se ven despojadas de su capacidad para responder a las propias necesidades, expresar sus deseos, tomar decisiones y lograr sus metas, lo que limita las posibilidades de que ejerzan control sobre sus vidas o las vivan de forma autónoma. Así, la edad avanzada es relacionada con la pérdida de funcionalidad, con la dependencia física, mental, emocional y social, el cese de la vida productiva, dejándoles de tener en cuenta para tomar decisiones en ámbitos como el financiero, familiar o político. Es por esto que, según mecanismos regionales de Derechos Humanos, cualquier instrumento de política pública sobre los derechos de las personas mayores debe, en primer lugar, garantizarles la posibilidad de ser autónomas para gestionar sus proyectos vitales.

En un mundo hiperconectado, donde cada vez más actividades se realizan usando la tecnología, contar con conocimientos suficientes para comprender los procesos que se gestan en Internet, así como  las posibilidades y los riesgos que conlleva, no es sólo un asunto de ciberseguridad, sino también, y sobretodo, un tema de Derechos Humanos y autonomía para las personas mayores. Asegurar su independencia y sus posibilidades de participar e integrarse a las comunidades a través de las TIC debe ser un eje central de las políticas digitales.

Por otra parte, la creación de entornos digitales propicios y favorables para este grupo social resulta crucial para que puedan ejercer sus derechos sociales, económicos y culturales en condiciones de igualdad. Proteger su  autonomía e independencia en el espacio digital es una práctica de cuidado en consideración de sus demandas y características específicas. En la medida que las TIC sean parte de su vida cotidiana, es necesario extender las prácticas de cuidado y prevención que tradicionalmente acompañan otras esferas de la vida, también a lo que suceda en los entornos digitales.

La dimensión del cuidado acá mencionada tiene que ver con procurar el bienestar de las personas mayores sin despojarles de su agencia sino, más bien, acompañándoles en el ejercicio y mantenimiento de su autonomía al navegar y usar las tecnologías. Esta es una concepción del cuidado basada en crear condiciones para el bienestar reconociendo las diferencias y vulnerabilidades históricas de este sector etario. Por ejemplo, si se procura el cuidado y la protección de las personas mayores a través de la creación de entornos físicos, sociales y culturales que habiliten el ejercicio de sus derechos, ¿por qué no crear condiciones y desarrollar conocimientos para el disfrute de entornos digitales seguros y favorables? Esto se traduce en bienestar, en protección de la autonomía y, por tanto, en una práctica de cuidado.

Recientemente, la Corte Interamericana de Derechos Humanos reconoció el derecho autónomo al cuidado, entendiendo que constituye una necesidad básica, ineludible y universal, fundamental para una existencia digna, en especial de las personas en situación de vulnerabilidad. En relación con el derecho de las vejeces de recibir cuidados, la Corte sostuvo que los Estados deben adoptar medidas para garantizar su acceso y permanencia en servicios de cuidados de calidad, en consonancia con sus derechos a la autonomía, independencia, seguridad y a una vida libre de violencias. Esta consideración debe extenderse también al ámbito de las políticas digitales, donde este grupo etario requiere enfoques específicos y adecuados que incluyan plenamente sus necesidades, experiencias y capacidades. Las políticas públicas deben brindar mecanismos de apoyo y acompañamiento que garanticen un uso seguro, autónomo y sostenible de las TIC por parte de las personas mayores, fortaleciendo así el ejercicio de sus derechos en entornos digitales.

Tras el telón de la Inteligencia Artificial: modelos computacionales y construcciones humanas

En el contexto del discurso público, la Inteligencia Artificial (IA) se suele presentar como si se tratara de un agente capaz de razonar con un grado elevado de complejidad y competente en la toma de decisiones autónomas, incluso cuando se habla de temas sensibles como el futuro del trabajo o la forma de vida de las personas. Sin embargo, esta visión idealista se encuentra bastante lejos de la concepción lógica propia de su construcción técnica. Esta diferencia separa la Inteligencia Artificial del razonamiento humano, del procesamiento masivo de datos, de los algoritmos y de las estructuras matemáticas diseñados previa y conscientemente por personas. En esta columna, analizamos el proceso de construcción de modelos de IA, a partir de tres etapas que determinan el comportamiento del mismo: la calidad de los modelos; los datos utilizados; y las decisiones humanas que acaban por configurarlos y guiar sus respuestas.

La IA en su estructura base 

La IA no es una mente autónoma, sino una composición de algoritmos y arquitecturas matemáticas que procesan información de formas específicas. Según la elección del modelo, se define qué tipo de relaciones pueden aprenderse y cuáles quedan por fuera de su alcance. Así, por ejemplo, los árboles de decisión organizan la información como un conjunto de reglas jerárquicas que se bifurcan en función de condiciones simples, mientras que las redes neuronales artificiales procesan datos en múltiples capas, donde cada nivel detecta patrones progresivamente más complejos. Por su parte, los modelos de lenguaje predicen la palabra más probable en una secuencia, correlacionando masivamente patrones en grandes bases de texto.

Con este antecedente, la IA debe ser entendida como una “máquina de clasificación” que opera en capas. No se trata de inteligencia en sentido humano, aunque suele ser diseñada para responder a contextos específicos. Un modelo de IA es un mecanismo que separa, ordena y categoriza información de acuerdo con los criterios que sus diseñadores establecen. Es decir, la Inteligencia Artificial no es inteligencia, sino un aparato estadístico para clasificar miles o millones de datos en tiempo récord para la capacidad humana. 

Datos, el combustible de la IA

Si los modelos conforman la arquitectura de esta tecnología, los datos se constituyen en su insumo fundamental. Mediante los datos se entiende, no solo lo que una IA puede aprender, sino también sus límites, sus sesgos y sus errores. Lejos de ser una “materia prima neutra”, los datos muestran los resultados de decisiones humanas: qué recolectar, cómo clasificar, quiénes participan en la generación y curaduría de esos datos. Cada una de estas etapas añade elecciones y valores, y es precisamente en este movimiento en el que estará la definición del comportamiento de los sistemas de IA. Por lo tanto, si esta tecnología depende de los datos que usa, ¿qué pasa si esos datos no logran reflejar una verdad universal? Por ejemplo, ChatGPT -y muchos otros proyectos de IA- son grandes modelos de lenguaje (LLM), entrenados con enormes cantidades de datos extraídos de Internet, muchos de los cuales comparten los sesgos de las personas que publican esos datos

En este sentido, la máxima técnica Garbage in, garbage out sigue vigente: si los datos de entrada están sesgados, incompletos o mal clasificados, los resultados de la IA reproducirán los mismos patrones. Existen múltiples ejemplos que ilustran este riesgo. Como  Amazon que abandonó en 2018 su sistema de reclutamiento automático al descubrir que favorecía sistemáticamente a hombres frente a mujeres, reflejando la composición histórica de su base de datos de contrataciones. En otro caso, un reportaje de DW advierte que la discriminación “viene garantizada” en muchos sistemas de IA: desde herramientas de reconocimiento facial con sesgo racial hasta algoritmos de crédito que penalizan a ciertos grupos sociales. Por su lado, ONU Mujeres subraya que la falta de diversidad en los equipos de desarrollo y en las bases de datos de entrenamiento refuerza estereotipos de género y desigualdades existentes históricamente, multiplicando sus efectos en los sistemas generativos.

Aprendizaje por refuerzo

Una vez entrenada, la IA no se detiene: en muchos casos sigue ajustándose y adaptándose a partir de la manera en que las personas la utilizan. El feedback que recibe, los ajustes de configuración y las correcciones introducidas por quienes interactúan con ella son parte de un proceso de aprendizaje continuo que modifica su desempeño con el tiempo.

Existen ejemplos que muestran hasta qué punto la intervención humana influye en los resultados. El caso de Grok, el chatbot de la empresa xAI fundada por Elon Musk, es ilustrativo: tras una actualización destinada a hacerlo más “anti-woke” y políticamente incorrecto, el sistema comenzó a producir respuestas antisemitas e incluso elogios a Hitler. Este comportamiento no surgió de un razonamiento autónomo, sino de las instrucciones y configuraciones humanas que guiaron su funcionamiento. El episodio evidencia cómo pequeñas decisiones de diseño o ajustes orientados a complacer a un público específico pueden derivar en consecuencias éticamente problemáticas, vulnerando derechos de grupos sociales y comunidades.

La IA como instrumento de lucha

Al analizar minuciosamente cómo se construyen los sistemas de IA, podemos observar que no se trata de inteligencias autónomas y racionales como lo puede ser la inteligencia humana. Aquello que llamamos IA no piensa: relaciona datos, sigue patrones y entiende que, en función de los insumos que recibe y siempre bajo instrucciones, generará unas salidas u otras. Más que inteligentes, las IA son artefactos sociotécnicos, en tanto que en ellas se entrelazan arquitecturas matemáticas, bases de datos trabajadas y realizadas por personas, y configuraciones definidas, además de la propia interacción continua que establece con las personas usuarias. Tal y como se puede ver, cada capa es el reflejo de decisiones humanas: desde la decisión sobre qué modelo escoger, hasta aquella que determina qué datos incorporar y cómo hacer las interpretaciones. Entender el carácter instrumental de la IA es fundamental para poder situarla en su debida dimensión. 

Este reconocimiento, también da paso a una agenda urgente: garantizar marcos regulatorios claros y democráticos que orienten el desarrollo de la IA a fines sociales y éticamente responsables, con pleno respeto de los derechos de las personas. Sin formas adecuadas de gobernanza, estos sistemas tendrán la capacidad de reproducir sesgos, acentuar desigualdades y fortalecer visiones tecnológicas colonialistas que implantan modelos ajenos a los contextos socioculturales locales. Además, es necesario pensar en descentralizar el desarrollo de la IA, fomentando aquellas iniciativas que puedan alimentarse de la diversidad cultural y lingüística en territorio, tal como documentamos en nuestra investigación “LatinAmerica in a Glimpse”.

En definitiva, se requiere una gobernanza de estas tecnologías en la que prevalezcan los Derechos Humanos, sustentada en la transparencia, la participación social y la justicia algorítmica. El objetivo debería ser evitar que la IA funcione como un espejo de los sesgos de siempre, y lograr que se convierta en una herramienta para sociedades más democráticas y justas.

Filtraciones de datos: el costo ciudadano de la negligencia digital

Cada nueva filtración de datos parece encontrarnos igual: con indiferencia y resignación. No es apatía, sino cansancio. “Total, no tengo nada que ocultar, no soy tan importante”, es una de las frases más repetidas, que refleja cómo se ha instalado la idea de que la privacidad no importa. Esa resignación, alimentada por la negligencia de las empresas y entidades estatales que almacenan nuestros datos, está erosionando la confianza social y normalizando la idea de que la privacidad deje de percibirse como un derecho básico.

Se trata de un fenómeno que no surge de la nada. En lo que va del año, ya podemos constatar múltiples casos en distintos países de América Latina. En Argentina una app estatal comprometió 13 mil perfiles; en Uruguay se vendió una base de datos estatal con más de medio millón de registros; en México un ataque a una boletera dejó al descubierto datos bancarios de 80 mil personas; en Paraguay se filtraron más de 7 millones de registros del Tribunal Superior de Justicia Electoral; en El Salvador una gestora de cobros perdió más de 140 gigabytes de información de sus clientes; y en Venezuela se reportó la exposición de más de 3,2 millones de personas usuarias de Movistar. En estas filtraciones suelen aparecer datos como el documento de identidad, nombres, fechas de nacimiento, direcciones, teléfonos. Muchos incidentes incluyen además información sensible como fotografías, firmas, huellas, historiales médicos, registros laborales y socioeconómicos.

Desde el tecnicismo, estos campos se presentan como simples columnas en una base de datos, pero en realidad cada una de esas columnas corresponde a fragmentos de nuestras vidas: quiénes somos, dónde vivimos, cómo trabajamos y hasta qué padecemos. Reducir la información a tablas y registros invisibiliza que detrás de cada dato hay una persona con derechos que pueden ser vulnerados si su información personal queda expuesta.

Cuando la tecnología falla, las personas lo sufren

Tanto el sector privado como el público parecen estar en una carrera sin fin hacia la “innovación”, pero ¿qué valor tiene hablar de innovación si se construye sobre la exposición constante de los datos de la ciudadanía? Innovar no debería significar coleccionar más información de la necesaria ni esconder en la letra pequeña cómo se utiliza. Tiene que incluir el diseño de sistemas no solo funcionales, sino también seguros y accesibles, que no trasladen todo el riesgo a las personas. Mientras eso no ocurra, la llamada “innovación” seguirá siendo un discurso vacío, blindado a través de comunicados tardíos que llegan cuando el daño ya está hecho.

Las filtraciones permiten que datos que parecen administrativos se transformen en herramientas de delito. Con un número de documento, y otras informaciones básicas que suelen aparecer en un carnet de identidad, un delincuente puede solicitar préstamos o abrir cuentas bancarias a nombre de otra persona. Con direcciones y teléfonos filtrados, las extorsiones y estafas se multiplican. Esa información llegó a utilizarse incluso para inscribir a personas en partidos políticos sin su consentimiento, como ocurrió en el caso de la filtración de la base de datos del Reniec en Perú, el cual facilitó afiliaciones masivas a organizaciones políticas sin autorización ciudadana.

La mayoría de los ciberataques ocurridos entre 2023 y 2024 contra organizaciones latinoamericanas derivó en filtraciones de datos, que representaron el 53% de los casos. Más de la mitad de la información robada correspondió a datos personales (32%) y credenciales de cuentas (21%), revelando cómo el contenido filtrado es insumo para el delito digital.

No todas las personas enfrentan los mismos riesgos cuando sus datos quedan al descubierto. Las mujeres suelen ser blanco de violencia digital: acosadores que utilizan sus fotos o números de teléfono para hostigarlas, amenazarlas o enviarles contenido sexual. Niñas, niños y adolescentes quedan especialmente vulnerables a engaños en línea o a ser fácilmente identificables, lo que conlleva a riesgosas situaciones de trata y violencia infantil. Las personas defensoras de Derechos Humanos o pertenecientes a la comunidad LGTBIQA+ quedan expuestas a campañas de acoso y criminalización si su información personal se hace pública. En muchos casos esto ocurre a través del doxxing, es decir, la exposición maliciosa de datos personales en Internet. Las filtraciones masivas de bases de datos que luego circulan abiertamente en la web —ya sea en foros de la Darkweb o en canales de compraventa de Telegram— alimentan estas prácticas, amplificando el hostigamiento y poniendo en riesgo la garantía de derechos en general.

Los datos socioeconómicos filtrados también agravan la desigualdad: un historial de deudas o la procedencia de un barrio estigmatizado pueden bastar para que alguien sea descartado en un proceso laboral. Entonces, si miramos estas filtraciones solo como un problema técnico, pasamos por alto que en realidad refuerzan estructuras de discriminación y amplifican violencias que ya existen históricamente en nuestra sociedad.

Medidas urgentes para resguardar la confianza

Uno de los mayores descuidos suele ubicarse en el control de accesos: se debe garantizar que solo las personas autorizadas puedan acceder a los sistemas que almacenan nuestra información y que esos permisos deban ser revisados de forma constante y eliminados cuando ya no correspondan. No hacerlo puede derivar en situaciones graves. En un caso reciente en Perú, un extrabajador de una empresa de telecomunicaciones fue investigado penalmente porque delincuentes aprovecharon un acceso a su nombre que nunca había sido desactivado para ingresar a la base de datos personales nacional y, con esa información, suplantar personas, cambiar titularidad de líneas móviles y robar cuentas bancarias.

Para prevenir estos delitos, es necesaria la aplicación del principio de “mínimo privilegio”, es decir, que cada persona que trabaja en las entidades que almacenan nuestros datos tenga únicamente los accesos que necesita para cumplir su función, y desactivar de inmediato los accesos de quienes dejan esa institución.

Asimismo, la adopción de autenticación multifactor (MFA) en todos los accesos administrativos junto al uso de gestores de contraseñas, reduce significativamente el riesgo de intrusiones. La MFA consiste en combinar al menos dos métodos distintos de verificación, como por ejemplo: algo que sabemos (una contraseña), algo que tenemos (un celular o un token físico) y algo que somos (huella digital o rasgos faciales). No obstante, este último método -la biometría- actualmente no es una solución libre de riesgos. En Brasil, por ejemplo, se investigó un esquema que vulneró los sistemas de biometría del portal gov.br mediante técnicas de manipulación de imágenes, accediendo de forma indebida a datos personales.

Otra medida indispensable es el cifrado. En pleno 2025 todavía vemos bases de datos expuestas y archivos circulando sin protección, como si fueran documentos abiertos al público. Ese tipo de fallo de seguridad permitió la intrusión fraudulenta a los registros de más de 243 millones de personas en Brasil en 2020, cuando credenciales del Ministerio de Salud quedaron expuestas en el código fuente de una página oficial durante al menos seis meses. Toda información debe almacenarse cifrada y toda transferencia de información debe viajar por canales seguros, como ocurre con las páginas web que usan HTTPS en lugar del inseguro HTTP.

La seguridad exige constancia: auditar accesos, detectar patrones anómalos como consultas masivas o fuera de horario y mantener registros verificables. Cada ingreso debe quedar trazado y cada alerta investigada a tiempo, porque no sirve reaccionar cuando el daño ya está hecho. La ciudadanía tiene derecho al resguardo de sus datos y su privacidad y no solo a que se informe livianamente después de un incidente. Cada registro ignorado o cada log sin revisar es, en realidad, una decisión sobre cuánto valoran las instituciones la confianza pública.

Tan importante como proteger los sistemas es cuestionar la cantidad de información que se recolecta. Muchas filtraciones se podrían haber evitado si las organizaciones no hubieran almacenado más datos de los necesarios. Guardar copias indefinidas de documentos, recolectar información sensible “por si acaso” o para generar publicidad, no establecer plazos claros de eliminación, todo esto multiplica los riesgos.

De todas formas, ninguna herramienta sustituye a una cultura de seguridad que ponga a las personas en el centro. Una capacitación en seguridad digital de media hora una vez al año no forma conciencia ni previene errores. Las instituciones necesitan contar con una política de seguridad digital, dotada de equipos profesionales preparados, protocolos claros y un compromiso real desde la dirección hasta el último nivel operativo. A menudo vemos gastos millonarios en sistemas de seguridad, pero la tecnología por sí sola no es suficiente si no se acompaña de procesos claros de prevención, detección y respuesta, y de especialistas capacitados que entiendan que están protegiendo a personas, no solo datos o dispositivos.

Cuando la ley no alcanza

Varios países de América Latina cuentan hoy con leyes de protección de datos personales y autoridades de regulación. Sin embargo, los casos recientes demuestran que lejos de resolverse, esta problemática se vuelve recurrente en nuestra región: tanto empresas como entidades estatales vuelven a tener filtraciones que afectan a millones de personas. El marco regulatorio, aunque necesario, se muestra insuficiente si no existe la capacidad y voluntad de hacerlo cumplir.

Proteger los datos es un deber político y ético. El Estado debe garantizar derechos y construir confianza ciudadana, y las instituciones -públicas y privadas- asumir que detrás de cada registro hay vidas humanas. Mientras nuestra región no entienda que la privacidad es parte de la dignidad, seguiremos tratando las filtraciones como simples fallas técnicas, cuando en realidad evidencian la falta de compromiso público con la protección de derechos.

La resiliencia digital del arcoiris

En medio de un mundo convulsionado por la irrupción de la IA, las personas intentan aprovechar los beneficios que estos avances tecnológicos pueden brindar pero, a la vez, buscan lidiar con aquellas consecuencias negativas que ese mismo uso puede traer, y que en ocasiones aún ni podemos identificar. Entre ellos, uno de los problemas que se ha profundizado y mutado es el de la Violencia de Género Facilitada por las Tecnologías (VGFT). Estudios de la ONU, y de personas especialistas en el tema, ya demuestran el impacto diferencial de ciertos procesos tecnológicos sobre determinados sectores sociales, grupos en situación de vulnerabilidad que pagan mucho más caro las amenazas del ámbito digital, entre los que se encuentran las mujeres y las personas de la comunidad LGBTIQA+.

Si bien las tecnologías históricamente han servido como espacio de refugio y red para los colectivos de la diversidad, hoy observamos un estrepitoso auge de los discursos de odio, hipervigilancia, persecución, acoso y violencia digital que sufren a diario estas poblaciones. ¿Cuáles son los desafíos que enfrentan ante este nuevo terreno digital hostil? ¿Qué estrategias construyen las organizaciones latinoamericanas para resguardar al colectivo LGBTIQA+ y aprovechar las tecnologías en su favor?

Resurgimiento de los discursos antiderechos

Antes de poner la lupa sobre el entorno digital, repasemos lo que las renovadas derechas de nuestro continente vienen expresando en relación a los derechos LGBTIQA+. El retorno de Trump a la Casa Blanca vino con una nueva propuesta para la derecha global: la batalla cultural radical contra lo que ellos denominan “agenda woke”. El actual gobierno de EE. UU. cerró todos los programas estatales de diversidad, equidad e inclusión (DEI) del gobierno federal, destinados principalmente a las minorías, entre otras políticas sustanciales.

Para los nuevos -viejos- paladines de los valores morales y la familia tradicional, la educación sexual en las escuelas es adoctrinamiento, el cupo laboral trans es un privilegio, el lenguaje inclusivo es una aberración para la lengua. Con esa narrativa justifican el cierre de políticas públicas e instituciones enteras y se pasean por conferencias internacionales con discursos cargados de odio contra personas LGBTIQA+.

Así lo vienen expresando los gobiernos de ultraderecha de Argentina y El Salvador. En el marco del último Foro Económico Mundial, el presidente Javier Milei, vinculó lo que catalogó como “versiones extremas de la ideología de género” con el abuso infantil. Desde que inició su gestión, Argentina está experimentando un rápido retroceso para los derechos de las mujeres y personas LGBTIQA+. Por su parte, pocos días después de asumir el poder, Nayib Bukele eliminó la Dirección de Diversidad Sexual, y en su participación en la Conferencia de Acción Política Conservadora (CPAC) de 2024, dijo: “Es importante que la currícula no lleve ideología de género”.

Sin embargo, estos escenarios regresivos no se circunscriben a países con gobiernos autoritarios de derecha. Según el Instituto Raza & Igualdad, el asesinato de personas por su orientación sexual o identidad de género es una realidad en Latinoamérica, al punto que la región se ubica como la más peligrosa en el mundo para personas trans. En ese contexto, Brasil, México y Colombia, gobernados por coaliciones progresistas y de izquierda, son los países con mayor número de casos, según el Trans Murder Monitoring. Por ejemplo, la regional América Latina y Caribe de ILGA determinó en un informe que en Brasil se asesina a una persona LGBTIQA+ cada 34 horas.

Entre las tendencias del informe anual 2024 de la Comisión Interamericana de Derechos Humanos (CIDH), se señala que, durante el año pasado, “los desafíos particulares que enfrentan las personas y grupos que padecen discriminación histórica y sistemática se intensificaron”. En particular, registran un aumento de discursos de odio, desinformación y cuestionamiento de los derechos de las personas LGBTIQA+ y mujeres, entre otros sectores sociales.

Narrativas digitales de odio

Las personas LGBTIQA+ en América Latina enfrentan diversas problemáticas en el entorno digital, que van desde la violencia en línea hasta la vulneración de datos personales, pasando por otras modalidades que configuran un escenario hostil, en lo que históricamente ha sido un espacio de red y refugio para esta comunidad.

Antes de repasarlas, hablemos de la brecha digital de géneros. Según la lista elaborada por la Internet Society sobre las tarifas de internet móvil, ocho de los diez países con los precios más elevados están en América. Más allá del costo del servicio, nuestra región cuenta con amplios territorios rurales o semiurbanos, donde se carece de energía eléctrica, así como del equipamiento de banda ancha necesarios para lograr cobertura de red. El reporte de ILGA “Acceder a la conexión: cerrando la brecha digital de las comunidades LGBTI en el mundo”, identifica que en América Latina la falta de infraestructura de red afecta especialmente a las personas LGBTIQA+, muchas de las cuales también se ven marginadas por su raza y/o condición de pertenencia a la población indígena.

La violencia digital contra las personas LGBTIQA+ viene en aumento en redes sociales como X, Facebook y YouTube, según la investigación de ILGA. Además, señala que este colectivo es más vulnerable a sufrir daños en línea que sus pares heterosexuales y cisgénero. Pero, ¿qué hacen las plataformas para regular estas agresiones y promover mayor inclusión y seguridad? Hacen poco o nada; e, incluso, en sintonía con la agenda conservadora global, permiten que estos comportamientos violentos se extiendan.

Tras los anuncios de Zuckerberg a inicios de 2025, los usuarios de las plataformas de Meta pueden denominar a personas gays o trans como “enfermos mentales”, sin restricciones. Una investigación brasilera demuestra que las personas usuarias de TikTok que se identifican como no binarias se han visto especialmente afectadas por la aplicación de las normas de las plataformas en América Latina. Las políticas de contenido y los términos de servicio tienen un impacto diferencial en su privacidad, autonomía, libertad de expresión y derechos sociales, económicos y reproductivos. Por otra parte, las principales conclusiones del “Índice de seguridad en las redes sociales” de este año, indican que las recientes revocaciones de las políticas contra el discurso de odio en Meta y YouTube representan graves amenazas para la seguridad de las personas LGBTIQA+; y que las plataformas suprimen desproporcionadamente el contenido de los colectivos de la diversidad mediante la eliminación, la desmonetización y el shadowbanning.

Para completar el diagnóstico, es importante destacar que esta población también sufre de manera desproporcionada la persecución e hipervigilancia digital, también conocida como “vigilancia queer”. Hoy es difícil que la huella digital contemple el anonimato de las y los internautas, lo que expone aún más a las comunidades LGBTIQA+ en relación con su privacidad y datos personales en la interacción digital. Los perfilamientos en redes sociales a partir de la identidad de género, no sólo se utilizan con fines comerciales y publicitarios, sino que también pueden ser una herramienta de los Estados para la vigilancia y criminalización de determinados grupos sociales.

Internet pintada con todos los colores

Si bien las personas y colectivos LGBTIQA+ reconocen estas problemáticas y sus impactos negativos, no están dispuestas a abandonar internet, sino más bien adaptarse a los tiempos que corren y construir la resiliencia digital que el contexto requiere. En la actualidad, tanto organizaciones feministas y de la diversidad, como colectivos por los Derechos Humanos en internet, se articulan y trabajan para crear espacios y herramientas que acompañen a estas comunidades a transitar de manera más justa, inclusiva y segura el ecosistema digital.

Derechos Digitales publicó una investigación que documenta la labor de tres líneas de ayuda en materia de seguridad digital operando en América Latina: el Centro S.O.S Digital de Fundación InternetBolivia.org en Bolivia, Maria d’Ajuda de Marialab en Brasil y Navegando Libres por la Red de Taller Comunicación Mujer en Ecuador. Además, a través de los Fondos que brinda la organización, se fomentan iniciativas que buscan generar resiliencia digital en los colectivos feministas y LGBTIQA+ de nuestra región, como por ejemplo un proyecto desarrollado por LatFem basado en cuidados digitales para ejercer más y mejor periodismo feminista.

Existen también plataformas digitales destinadas a documentar y archivar la historia de las diversidades, como son el Recursero Trans y el Archivo Trans de Argentina, el Colectivo Pedrina de El Salvador, el Archivo de la Memoria Transmasculina de México, y el Archivo de la Memoria Marica del Perú, así como varios proyectos de registro que fomenta el área LGBT+ de Wikimedia en plataformas abiertas. Asimismo, proliferan los medios de comunicación digitales con perspectiva feminista que prestan especial atención a la actualidad y agenda de la diversidad. Entre ellos podemos mencionar a la agencia Presentes, GenderIT.org, Volcánicas, Portal Catarinas, Wambra, Muy Waso y Altavoz LGBT+.

Con el fin de fomentar la seguridad digital de las personas y activistas LGBTIQA+, varios colectivos impulsan guías y recomendaciones: Libres y Segures de TEDIC en Paraguay, Guía de Defensa Contra la Violencia Digital de R3D e Impunidad Cero en México, y Nos Mantenemos Seguros: Guía de Seguridad Digital LGBTQ de GLAAD. Además, en la región se construyen plataformas que permiten realizar estadísticas, cifras y mapeos sobre la violencia digital contra personas de estas comunidades, como Sin Violencia, El Observatorio de Violencias LGBTIQ+ de ILGA LAC, o el Informe Anual de Derechos Humanos de la Diversidad Sexual y de Género de MOVILH Chile.

Una red inclusiva y diversa es posible

Las experiencias e iniciativas dan cuenta de una actividad dinámica y esperanzadora en lo que podríamos llamar la resiliencia digital del arcoiris. Valores históricos de la comunidad LGBTIQA+ como la solidaridad, el autocuidado colectivo, la red y la empatía, se ponen en juego también en la esfera de internet. Si bien podemos observar un giro hacia la privacidad que parece contrario a la disputa de visibilidad del movimiento, lo cierto es que las estrategias de privacidad resultan, en este contexto, una de las pocas herramientas con las que cuentan para evitar el expolio de los datos personales, y la conformación de perfiles de internautas, que implica también riesgos de vigilancia y control por fuerzas de seguridad estatales y grupos extremistas.

Pero está claro que sólo con los esfuerzos de la sociedad civil no alcanza. Se necesitan marcos regulatorios a nivel global, regional y nacional, que protejan a estos grupos en situación de vulnerabilidad y erradiquen la violencia de género digital. Los sesgos de los algoritmos y la IA se alimenta de discriminaciones y estereotipos históricos contra las minorías. Precisamos de enfoques interseccionales para abordar estos peligros, y compromisos concretos de las compañías de tecnologías para que internet vuelva a ser un espacio de fomento de los Derechos Humanos, y no todo lo contrario.

Muchas personas y activistas LGBTIQA+ abandonan las redes, o disminuyen su interacción en línea, por miedo. Es imprescindible el fomento de políticas públicas y reglas claras y transparentes para el funcionamiento de las plataformas, para que todas las personas, sin importar su identidad de género, puedan sentirse seguras en la red. Porque no volveremos al closet nunca más, ni en las calles, ni en internet.

Datos, privacidad y nuestra huella digital

Tuve la suerte de experimentar con computadoras desde niño en la década de 1980. En esa época la información se guardaba en disquetes, primero los de 5 ¼, luego los de 3 ½. El disquete de mayor capacidad no podría almacenar una sola foto de la que tomamos hoy en día con un teléfono móvil. Sin embargo, en ellos guardábamos videojuegos -lo que más me gustaba en esa época-, archivos de texto y hojas de cálculo. Si bien era poca la información que estos dispositivos almacenaban, las personas eran muy conscientes de su importancia y era común tener varias copias de un documento en distintos disquetes. Con el tiempo, la capacidad de almacenamiento se incrementó y las computadoras personales empezaron a traer discos duros donde se podía guardar mucha más información. Eso sí, era importante respaldarla en disquetes porque la computadora podía dañarse con virus o con alguna descarga eléctrica.

Ya en los 90 se popularizaron los discos compactos (CD por sus siglas en inglés), primero para música y luego para software más complejo que podía almacenar mucha más información. La capacidad de un solo CD era equivalente a la de, aproximadamente, 484 disquetes y la disponibilidad de espacio facilitó la popularización, entre las personas usuarias de ese entonces, de la grabación de multimedia, como música, fotos y videos. Durante esa época, algunas personas tuvimos la suerte de conectarnos a internet, a través de la telefonía fija de las casas utilizando el sistema de dial-up. Si bien las conexiones eran muy lentas, y el contenido multimedia limitado, algo importante empezó a cambiar en relación a la gestión de nuestra información y todavía no teníamos noción de esto: nuestros datos se comenzaban a guardar de manera remota.

En sus inicios, utilizábamos internet para aprender, investigar y comunicarnos. El correo electrónico era la principal forma de comunicación y, a finales de los 90, si no tenías un correo de Hotmail, era de Yahoo, aunque había otros también. Sin embargo, lo que tenían en común esos sistemas era que su capacidad de almacenamiento era limitada y los buzones de correo se llenaban rápidamente, por lo que había que vaciarlos y respaldar localmente la información que considerábamos importante. Esto empezó a cambiar en 2004, cuando Google creó Gmail con una capacidad extraordinaria para el guardado comparado con el resto de proveedores de correo de la época: 1GB o el equivalente a 710 disquetes de 3 ½ . En pocos años, Gmail se convirtió en uno de los proveedores más populares y borrar correos electrónicos en algo del pasado. La capacidad de almacenamiento creció de manera similar del tamaño de los archivos multimedia que hoy son tan populares.

Con la popularización de los teléfonos inteligentes, pude vivir otra gran transformación: la integración directa entre mi información –como contactos, fotos, documentos y otros – y los servidores de las gigantes tecnológicas como Apple y Google. Esta costumbre de guardar la información en línea en servidores remotos fue adoptada por otras empresas y es lo que actualmente conocemos como “la nube”.

Durante los cerca de 40 años que llevo siendo usuario de la informática pude presenciar la transición del almacenamiento de forma local a remota. Cuando la información se guardaba de forma local sabíamos dónde estaba y éramos responsables de su cuidado. Cuando apareció la nube, cedimos esta información a terceros que guardan nuestros datos bajo criterios de acceso y respaldo que no siempre conocemos.

Somos datos, ¿dónde estamos?

Somos nuestros contactos, “dime con quién andas y te diré quién eres”. Somos nuestros chats, correos, fotos y videos que describen nuestra vida personal y profesional. Somos el lugar y la hora donde nos encontramos, lo que buscamos, lo que leemos, los likes que damos y los likes que no damos. Somos los documentos de texto, las hojas de cálculo y las presentaciones que hacemos. Somos las conversaciones que tenemos con la inteligencia artificial y muchos datos más.

Todos ellos se encuentran en la nube –lo que coloquialmente conocemos como la computadora de alguien más-. Google sabe lo que buscamos, nuestros correos electrónicos, ubicación, los documentos que escribimos y con quién colaboramos. Meta conoce nuestras interacciones sociales a través de plataformas como Facebook, Instagram o WhatsApp. Aquí citamos sólo dos ejemplos, pero vale la pena preguntarnos: ¿por qué estas empresas ofrecen tanto espacio para almacenar nuestra información de forma gratuita? Si para nosotras hay una ventaja clara en no depender de dispositivos frágiles o limitados, ¿qué beneficios obtienen ellas? ¿Cuál es el costo real de esta inesperada gentileza?

Hoy sabemos que estas empresas nos regalan espacio de almacenamiento porque esos datos les dan poder. Empresas como Google y Meta nos dan servicios “gratuitos” a cambio de nuestros datos, que luego utilizan para vender publicidad dirigida o generar nuevos productos que luego serán explorados económicamente. Desde hace algunos años estamos viviendo el boom de la inteligencia artificial, en particular de los modelos largos de lenguaje. ¿Nos hemos preguntado por qué aplicaciones como Gemini y ChatGPT saben lo que saben? Es muy probable que las hayamos estado entrenando con nuestros datos sin un consentimiento explícito.

Pero el uso comercial de nuestros datos por las gigantes de tecnología no es el único riesgo del modelo de almacenamiento en nube a nuestra privacidad. En 2013, Edward Snowden filtró documentos de inteligencia de EE. UU. que revelaron cómo este país y sus aliados utilizan la infraestructura de empresas como Google, Meta, Microsoft y Yahoo, entre otras, para espiar a sus usuarios. Ya pasaron 12 años desde estas filtraciones y si bien se han incorporado algunas protecciones adicionales a la información que circula en internet, lo más probable es que los datos almacenados en la nube sigan siendo espiados. Es más: es plausible pensar que el modelo se replica en otros contextos y la información almacenada en Tik Tok, Alibaba o Temu también sean accesibles por agencias del gobierno chino.

El éxito del modelo depende de las facilidades que puedan ofrecer en un contexto de abundancia (por no decir exceso) de información, versus la dificultad de tener mayor control. Pensemos en las fotografías que tomamos en nuestros teléfonos móviles. Por defecto, cuando se toma una fotografía, esta se sube a la nube de Google o a la de Apple. Personalmente, no quiero que mis momentos personales queden almacenados en una nube a la cual tienen acceso agencias de inteligencia de diferentes países del mundo. Es verdad que tanto Android como Apple permiten desactivar la característica de sincronizar nuestras fotos. ¿Pero qué pasa con las fotos donde aparezco, que fueron tomadas desde el celular de otra persona? ¿Mi exposición personal queda entonces dependiente de la consciencia de una persona desconocida? 

¿Qué podemos hacer?

Existen datos sobre los que podemos tener control de forma individual, otros que podemos controlar de forma colectiva y otros sobre los que no tenemos control directo. Para proteger nuestra privacidad, podemos pensar en almacenar la información privada de manera local. Si pensamos en un documento de texto, podemos utilizar herramientas como LibreOffice en lugar de Office 365 o Google Docs, que están conectados a las nubes de sus proveedoras. Si pensamos en fotos tomadas en nuestro teléfono, podemos desactivar la sincronización de las mismas, tanto en Android como iPhone.

Sí, gran parte de las buenas prácticas en gestión de información personal actualmente requieren resistir a las supuestas facilidades ofrecidas por los servicios dominantes y cambiar prácticas para lograr recuperar nuestra autonomía. Al almacenar la información de manera local, ganamos en privacidad, pero puede ser que, al menos al inicio, perdamos en conveniencia.

Podemos experimentar vivir la digitalización de otras formas. Por ejemplo, para respaldar las fotos y otros documentos de un teléfono, podemos utilizar el cable de datos para transferir la información a nuestra computadora y de la computadora podemos usar un disco duro externo para respaldar nuestros datos. También se puede acceder a soluciones más sofisticadas utilizando herramientas libres como Syncthing o mediante un servidor de archivos.

También podemos utilizar aplicaciones cifradas como Signal. Si queremos compartir más documentos, podríamos buscar nubes en las que confiemos o incluso utilizar nubes en las que no confiamos pero cifrar nuestros documentos con herramientas como Veracrypt.

En organizaciones o comunidades donde se cuenta con determinados recursos, se puede utilizar infraestructura propia y autónoma con herramientas de software libre. En el caso de Derechos Digitales, compartimos nuestros documentos a través de una instancia propia de  Nextcloud, los redactamos utilizando OnlyOffice o a través de pads. Nuestras conversaciones suceden a través de nuestra propia plataforma de chat cifrada y autónoma. En el caso de los correos, si bien no controlamos nuestro servidor, sí estamos en la capacidad de cifrar correos sensibles utilizando aplicaciones como Thunderbird.

Tener control sobre el lugar donde se almacena nuestra información o cifrar la información sensible en lugares que no controlamos es una forma de ejercer nuestro derecho a la privacidad. Lamentablemente eso no siempre es una tarea sencilla o posible. Por eso es que seguimos luchando para que cualquier recolección o uso de nuestros datos se haga en base a criterios muy bien establecidos de modo que se garantice el respeto y la protección de nuestros derechos. Y una forma de resguardar nuestra privacidad es defendiendo el cifrado, el anonimato y la privacidad por diseño, intentando alinear nuestra comodidad con el ejercicio de los Derechos Humanos.

Nuestras vidas suceden en el espacio digital y, por tanto, quedan documentadas. Entender dónde se almacenan es el primer paso para poder cuidar nuestros datos y nuestra privacidad. Es fundamental que la ciudadanía tenga una visión crítica de la vida digital y poder explorar alternativas tecnológicas que nos permitan retomar el control sobre nuestra información.

Cooperativas tecnológicas: otra narrativa para el futuro digital

Hablar de derechos digitales en América Latina implica, muchas veces, enfrentarse a un ecosistema profundamente desigual. Las grandes empresas tecnológicas concentran poder económico y político, dictan las reglas de la comunicación en línea y, de manera sistemática precarizan la vida de millones de personas trabajadoras. Desde quienes desarrollan software sin estabilidad laboral, hasta repartidores que sostienen con su cuerpo la economía de plataformas, expandiéndose una lógica de extracción de datos, de recursos y de vidas.

Frente a eso, es posible imaginar otros futuros. Y no solo imaginar, también construirlos, poco a poco, en las decisiones cotidianas del presente. Una de esas formas ha sido reivindicar cómo trabajamos y con quién trabajamos. Elegir cooperativas, colectivos y tecnologías libres no es simplemente contratar servicios; es parte de un gesto político de coherencia. Una manera de decir que nuestros valores como la privacidad, la libertad de expresión, el trabajo colaborativo, la justicia social y la participación democrática, no se quedan en el papel, sino que atraviesan también nuestras prácticas.

Narrativas en disputa: del dominio corporativo a la cooperación

Las big tech han impuesto no solo sus plataformas, sino también sus narrativas: que el desarrollo tecnológico es inevitable, que la innovación es neutra, que el éxito depende de la escala. Ese relato invisibiliza las formas alternativas de producir tecnologías, desde economías solidarias hasta infraestructuras comunitarias, y también atraviesa debates más recientes, como los de la inteligencia artificial. En nuestro informe Latin America in a Glimpse 2024 mostramos que en la región ya existen miradas situadas que disputan esos discursos dominantes, y que impulsan una IA comunitaria, ética y decolonial, parte de un esfuerzo más amplio por pensar tecnologías desde nuestras realidades.

Allí también entran las cooperativas tecnológicas. Una cooperativa no es solo una empresa distinta, sino un intento del trabajo desde otros principios: decisiones compartidas, distribución más equitativa del valor y una mayor consideración de la vida de quienes participan. No es un modelo perfecto ni libre de tensiones, pero refleja una aspiración de alejarse de la lógica extractiva dominante y acercarse a formas de colaboración más horizontales y cuidadosas.

El informe Plataformas de propiedad de las personas trabajadoras e interseccionalidad (WOIP), realizado con cooperativas y colectivos de Brasil y Argentina que producen y gestionan tecnología desde sus propios espacios de trabajo, ya sea programando software, diseñando servicios digitales, sosteniendo infraestructuras comunitarias o creando alternativas de reparto, muestra que estas experiencias no solo enfrentan al poder corporativo, sino que también disputan la imaginación sobre lo que la tecnología puede ser. Desde la “soberanía digital popular” del Movimiento de Trabajadores Sin Techo en Brasil, hasta la “intercooperación” de la Federación Argentina de Cooperativas de Tecnología (FACTTIC), lo que aparece es un mosaico de alternativas que priorizan la diversidad, el cuidado y la dignidad laboral.

La investigación-acción de WOIP también muestra que pensar en cooperativas tecnológicas no es solo una cuestión organizativa, sino una forma distinta de ubicar la tecnología en nuestras sociedades. Uno de los aportes centrales del informe es la idea de “cuidar antes de programar”. En la práctica, esto significa incorporar principios de cuidado, diversidad e interseccionalidad en el diseño de plataformas y servicios. Cooperativas como FACTTIC en Argentina o colectivos en Brasil han mostrado que es posible organizar el trabajo tecnológico de manera que las decisiones no dependan únicamente de la eficiencia técnica, sino también de la inclusión de voces diversas y de la sostenibilidad de las comunidades involucradas.

Y no es solo el campo tecnológico. Por ejemplo, el libro CAPS LOCK: Cómo se apropió el capitalismo del diseño gráfico y cómo escapar de ello de Ruben Pater y Manuel Moreno nos recuerda que existen colectivos de diseño en distintas partes del mundo que han desafiado durante años las lógicas de competencia y explotación en su práctica profesional. Experiencias como Brave New Alps (Italia), Common Knowledge (Reino Unido), Cooperativa de Diseño (Argentina), Mídia NINJA (Brasil), Open Source Publishing (Bélgica) o The Public (Canadá) muestran que es posible sostener prácticas gráficas y culturales desde principios anticapitalistas. Sus trayectorias ofrecen aprendizajes útiles para entender las posibilidades, junto con los desafíos y obstáculos concretos que enfrentan quienes buscan cambiar la forma en que trabajamos y creamos.

La campaña internacional Hire a Coop, que comenzó animando a las universidades a contratar cooperativas para llevar a cabo servicios de desarrollo y diseño, va en la misma línea: visibilizar que existe un mundo alternativo al de Silicon Valley, un mundo donde la contratación de servicios tecnológicos puede ser un acto de justicia, una forma de redistribución y una apuesta por modelos más democráticos de innovación.

Por ello, vemos en esas experiencias y campañas un recordatorio potente: disputar el modelo de las grandes tecnológicas es regular o criticar sus excesos, y también huir de sus tentáculos y explorar y visibilizar las prácticas que ya existen en la región y el mundo. Cooperativas, colectivos y comunidades digitales están demostrando que es posible producir tecnología desde otros valores, y nuestro rol también es acompañar, amplificar y aprender de esas iniciativas.

Nuestra experiencia: prácticas que buscan coherencia

En Derechos Digitales también hemos intentado recorrer este camino. Cuando llegó el momento de crear nuestro nuevo sitio web, elegimos trabajar con el Maizal, una cooperativa de Argentina que no solo entendió nuestros criterios de privacidad y seguridad, sino que se relacionó con nosotras desde la horizontalidad y el respeto mutuo. No fue una elección meramente técnica, sino parte de un compromiso por alinear lo que defendemos en nuestra comunicación con la manera en que producimos esa comunicación.

Esta decisión se suma a otras que forman parte de nuestra práctica institucional, como optar crecientemente por software libre, mantener nuestra agencia en las comunicaciones internas, y resguardar el control sobre nuestra información y programas. Son pasos que buscan coherencia entre discurso y práctica. Y sabemos que es un camino aún en construcción, donde seguiremos aprendiendo, corrigiendo y equivocándonos.

Pero creemos que esa es la clave: atreverse a ensayar, a equivocarse y a volver a intentar. Porque disputar las narrativas sobre el futuro tecnológico no se hace solo con palabras, sino también con prácticas concretas, con elecciones cotidianas que nos recuerdan que otra tecnología es posible y que podemos demostrar a otras que no estarán solas en la exploración de ese camino. Y esa otra tecnología empieza también en cómo decidimos trabajar juntas, cómo elegimos organizarnos y cómo construimos, en colectivo, un futuro más justo.

Infancias en línea: riesgos, regulaciones y desafíos para América Latina

En 2017, el Fondo de las Naciones Unidas para la Infancia (UNICEF) publicó la estimación de que 1 de cada 3 usuarios de internet en todo el mundo era niño, niña o adolescente. A pesar de que aún existen muchos jóvenes que no tienen un acceso significativo a internet – y de que esto constituye un problema de orden primario -, es posible que hoy, casi una década después, la proporción de personas con menos de 18 años en entornos digitales sea aún mayor. En la realidad latinoamericana, estadísticas de países como Brasil, Argentina y México muestran que niños, niñas y adolescentes no solo pasan cada vez más tiempo conectados, sino que también comienzan a acceder a internet a edades cada vez más tempranas.

El punto sobre el cual UNICEF venía alertando al menos desde 2017 es que la infraestructura y las aplicaciones de internet, en esencia, no fueron diseñadas para este público, ni evolucionaron considerando la etapa de desarrollo físico, cognitivo y psicosocial que atraviesan niños, niñas y adolescentes. A esto se suma la lógica de explotación comercial sobre la cual opera internet desde hace años, muy distante de aquella idea inicial de un espacio libre, abierto y creativo. Estos factores exponen a los más jóvenes a una serie de riesgos online, considerablemente más graves que para los usuarios adultos.

En los últimos meses, la discusión sobre estos temas se intensificó. En el Reino Unido entró en vigor un paquete de medidas regulatorias que coloca en el centro la protección infantil en línea. En Brasil, el debate ganó aún más visibilidad tras una denuncia sobre la “adultización” e hipersexualización de niños y adolescentes en entornos digitales. Ambos episodios muestran cómo la agenda de protección en internet se consolidó como un tema urgente en todo el mundo. Sin embargo, es importante reflexionarlo desde una perspectiva localizada desde el contexto latinoamericano.

Niños y adolescentes están, de hecho, en riesgo en internet

La OCDE clasifica los riesgos a los que están expuestos niños, niñas y adolescentes en internet en cuatro categorías – las “4 C’s”. La primera son los riesgos de exposición a contenido inadecuado, como materiales nocivos, discursos de odio, desinformación u otros contenidos ilegales. Aquí entra, por ejemplo, la exposición a la pornografía, con consecuencias que van desde la erotización precoz hasta el estímulo a la violencia y la reproducción de estigmas de género. También entra el acceso a juegos de azar, un problema creciente en América Latina.

La segunda categoría son los riesgos de conducta, que abarcan aquellos creados por las propias interacciones de los niños en entornos digitales. Pueden manifestarse en comportamientos odiosos o nocivos, como el ciberacoso o la automutilación, muchas veces incentivados por el diseño de las plataformas y la viralización de ciertos contenidos. A comienzos de 2025, por ejemplo, una niña de 8 años murió en Brasil tras inhalar desodorante en aerosol en un reto de TikTok.

El tercer grupo son los riesgos de contacto, cuando niños y adolescentes son expuestos a interacciones dañinas o criminales con terceros adultos. Estos encuentros pueden ir desde situaciones de acoso hasta casos de explotación sexual infantil. Recientemente, en Estados Unidos, la fiscalía de Lousiana demandó a la plataforma de juegos Roblox, muy popular entre el público infantil, por no implementar mecanismos básicos de seguridad, lo que habría permitido que pedófilos se hicieran pasar por niños y entablaran interacciones malintencionadas a través del chat.

La cuarta dimensión son los riesgos de consumo, ligados al perfilado comercial y la inducción de gastos, parte estructural del modelo de negocio de las grandes plataformas digitales. Niños y adolescentes, en proceso de desarrollo, carecen hasta cierta edad de herramientas para distinguir publicidad de contenido orgánico. Incluso siendo ya un poco más viejos, no cuentan con recursos suficientes para lidiar con las presiones comerciales. Las prácticas de perfilamiento, como ya denunciaron distintos whistleblowers, han sido utilizadas por plataformas para aprovechar la vulnerabilidad emocional de adolescentes (sobre todo niñas). Entre sus prácticas está la promoción de contenidos que estimulan distorsiones corporales para mantenerlas enganchadas, aun con pleno conocimiento de sus efectos nocivos en la salud mental.

La OCDE señala, además, que existen riesgos transversales, como la pérdida de privacidad, la salud física y mental y los derivados de tecnologías digitales avanzadas o biométricas. Temas como el sharenting, los sesgos de los sistemas de inteligencia artificial y los impactos del uso excesivo de redes sociales en el sedentarismo juvenil entran en esta categoría. Casos recientes publicados en la prensa, como la denuncia de las ganancias de YouTube con contenidos abusivos sobre niños, muestran cómo estas dimensiones se combinan y retroalimentan.

Es esencial reconocer estos riesgos, así como el hecho de que pueden afectar de manera trágica el desarrollo de una persona en formación. También es importante destacar que no recaen de forma homogénea: estudios comparativos señalan que las plataformas aplican reglas más laxas en países del Sur Global. En América Latina, niños indígenas y afrodescendientes tienen menos acceso tanto a internet como a educación formal, incluida la educación digital. Además, en un contexto en el que las plataformas digitales lucran con la vulneración de derechos, la carga del cuidado recae de forma desproporcionada en las familias y, especialmente, en las madres. En una región con altas tasas de maternidad en solitario y bajos niveles de alfabetización digital, muchas mujeres no cuentan con el tiempo ni con las herramientas necesarias para acompañar la navegación segura de sus hijos, lo que los vuelve aún más vulnerables.

 La respuesta regulatoria

No es en vano que, sobre todo en los últimos cinco años, este tema comenzó a recibir creciente atención de reguladores en todo el mundo. En 2020, el Comité de los Derechos del Niño de la ONU redactó la versión final de su Observación General 25 relativa a los derechos de los niños en relación con el entorno digital, aprobándola a comienzos de 2021. El documento representó un hito en el derecho internacional de los derechos humanos, al interpretar la Convención sobre los Derechos del Niño de 1989 a la luz de los avances tecnológicos, reafirmando que todos los derechos de niños, niñas y adolescentes se extienden también al entorno digital. Conviene recordar que la Convención de 1989 es el tratado internacional más ratificado del mundo, y que instauró la doctrina de la protección integral, reconociendo a todas las personas con menos de 18 años como sujetos de derechos, con autonomía progresiva para su ejercicio, y, por lo tanto, debiendo ser promovidos y protegidos en todos los espacios.

2021 también marcó la aprobación del Age Appropriate Design Code por el ICO del Reino Unido, que estableció estándares de diseño para productos y servicios digitales destinados o con alta probabilidad de ser utilizados por niños y adolescentes. La iniciativa inspiró en los años siguientes diversas medidas por parte de autoridades de protección de datos, especialmente en Europa, como en Suecia e Irlanda. El Digital Services Act (DSA), aprobado en 2023 en la Unión Europea, también tiene reglas específicas para el grupo, señalando el principio de su mejor interés para el desarrollo de servicios digitales y reglas diferenciadas para el tratamiento de sus datos.

En 2024, Australia aprobó una ley inédita que prohíbe el acceso de personas con menos de 16 años a redes sociales y la Unión Africana adoptó directrices para la protección en línea de niños, niñas y adolescentes. La discusión también ganó fuerza en los Estados Unidos, donde ya recibió media sanción el Kids Online Safety Act (KOSA), aunque bajo apoyo desde argumentos problemáticos de políticos conservadores, como la protección de niños a “contenidos LGBT”. En 2025, nuevamente el Reino Unido, esta vez a través de la Ofcom, publicó una serie de directrices condensadas en los ya mencionados Protection of Children Codes and Guidance.

Estas iniciativas también resonaron en América Latina. En julio de 2025, Colombia aprobó la Ley 2489, “por medio de la cual se establecen disposiciones para el desarrollo de entornos digitales sanos y seguros para los niños, niñas y adolescentes del país”. En Brasil, desde 2022 se debate en el Congreso Nacional el Proyecto de Ley nº 2628,  que también establece reglas específicas para la protección de los más jóvenes en internet. El texto fue aprobado en el Senado a finales de 2024 y recién aprobado también en la Cámara de los Diputados, en agosto de 2025. Ahora vuelve al Senado para aprobación final, incluyendo dispositivos como la prohibición del uso de datos de personas con menos de 18 años para publicidad comportamental, además de previsiones sobre supervisión parental, vedación de acceso a contenidos dañinos y rendición de cuentas por parte de las aplicaciones digitales. Su tramitación recobró fuerza en agosto de este año, tras la referida denuncia del influencer Felca digital sobre la adultización e hipersexualización de niños y adolescentes en internet.

Un punto común de estas iniciativas regulatorias es establecer reglas diferenciadas para el uso de entornos digitales por parte de niños y adolescentes, ya sea en relación con los contenidos a los que pueden (o no) acceder, o en relación con prácticas de diseño y extracción de datos. Para que esa diferenciación ocurra en la práctica, gobiernos y empresas que proveen servicios digitales señalan que es necesario poder identificar quiénes son las personas con menos de 18 años en internet. En este contexto, aun cuando no aparezcan de forma explícita en todas las normativas recientes, la implementación de mecanismos de verificación de edad ha pasado a ser considerada una puerta de entrada esencial para la defensa de la infancia.

Informes de autoridades y análisis recientes hablan de una “ola global” de sistemas de verificación de edad en toda internet, donde la protección de la infancia se presenta como justificación para extender controles de identidad a todos los usuarios, incluso en aplicaciones que no son consideradas de alto riesgo. Esta tendencia recuerda al debate de la última década que oponía la defensa de la criptografía fuerte al combate contra la circulación de material de abuso sexual infantil, dividiendo en grupos opuestos, de manera simplista, a defensores de la privacidad y defensores de la infancia.

Más allá de soluciones fáciles

Esa falsa oposición plantea trampas que empobrecen el debate y dificultan la búsqueda de soluciones. Tiene, al menos, dos problemas centrales. El primero es no reconocer que niños y adolescentes, como sujetos de derechos, también tienen derecho a la privacidad y deben poder ejercerlo en el marco de su autonomía progresiva. Si pensamos en quienes viven en contextos familiares o comunitarios represivos, buscando información sobre su sexualidad o identidad de género, por ejemplo, este derecho se vuelve aún más importante.

Extender mecanismos de verificación de edad de manera indiscriminada altera la estructura de internet y puede afectar también a las propias infancias. No se trata de sacrificar las características fundamentales de la red como el acceso abierto y el anonimato relativo en nombre de su protección, porque ellas también se benefician de estas condiciones. El desafío es matizar el debate y reconocer las tensiones en juego, incluyendo en las discusiones regulatorias también agentes técnicos que puedan apoyar a desarrollar estos matices.

El segundo problema es desconsiderar que las tecnologías operan dentro de entramados sociotécnicos complejos. Así como no son, de manera aislada, la raíz de los riesgos que enfrentan niños y adolescentes, tampoco serán, de manera aislada, la solución.

Debemos discutir seriamente temas como la cultura de la violación y la ausencia de educación sexual en las escuelas, y cómo estas problemáticas atraviesan desigualdades de género y raza. En América Latina, entre 2018 y 2022, casi 490.000 niñas con menos de 18 años fueron víctimas de delitos contra su dignidad sexual, un dato que evidencia la urgencia de ese debate. Además, es necesario debatir el modelo económico que sostiene internet: el capitalismo de vigilancia. Un sistema nocivo para todos los usuarios, pero que impacta de manera particularmente severa a niños, niñas y adolescentes.

Estamos en un potencial punto de inflexión en la forma en que se estructura la internet y circulan sus usuarios. El debate sobre la protección de las infancias es indispensable, pero no puede reducirse a fórmulas simplistas ni a la falsa oposición entre privacidad y seguridad. América Latina no debe importar soluciones regulatorias prefabricadas sin crítica, sino comprometerse en un proyecto político y social que coloque a niños, niñas y adolescentes en toda su diversidad en el centro de un futuro digital verdaderamente justo.

La reforma laboral de Colombia y el trabajo por plataformas digitales: ecos de luchas previas y desafíos que persisten

Al igual que en la región y el mundo, el trabajo mediado por plataformas digitales se ha expandido aceleradamente en Colombia. Aspectos estructurales como las altas y persistentes tasas de desempleo e informalidad en el país, sumado a los flujos migratorios, han propiciado el crecimiento de esta modalidad de trabajo que, por demás, promete ficciones como el trabajo por cuenta propia y la diversificación de ingresos, que contrastan con realidades distintas en la práctica.

Tras más de una década de operación en el país de compañías tecnológicas que ofrecen servicios como transporte privado -Uber, Cabify, Didi-, reparto y mensajería -Rappi, Didi Food- e incluso servicios domésticos y de cuidado -Hogaru, AseoYa, AUX-, en junio del año en curso se aprobó una reforma laboral que extiende medidas para promover la formalización del trabajo del sector de plataformas digitales de reparto en específico. En ese contexto, es importante resaltar que esta reforma responde a años de organización sindical y lucha colectiva por parte de las personas repartidoras, quienes, a través de mesas de negociación con el gobierno y la principal plataforma de reparto en Colombia- Rappi- construyeron la antesala de las medidas que contempla la reforma actual.

Ahora bien, conforme analizaremos a lo largo de esta columna, aunque algunas demandas de este sector fueron abordadas en la normativa,  disposiciones muy relevantes relativas a la transparencia algorítmica y protección de datos, requieren de mayor profundidad considerando su influencia determinante en el ejercicio del derecho al trabajo mediante plataformas.

Las luchas del colectivo de repartidores de plataformas como piedra angular de la reforma

Los estudios de sociología destacan el rol clave de los movimientos sindicales en los procesos de reconfiguración del rumbo de las políticas estatales y empresariales. Si bien no es el único caso en el país, en esta columna nos concentraremos en la organización sindical de repartidores, un movimiento atravesado por una alta precariedad y marcado por eufemismos corporativos que encubren la condición laboral bajo etiquetas como “usuarios” o “socios”. En este contexto, las personas repartidoras carecen de garantías mínimas de protección laboral y seguridad social, de salarios dignos y de mecanismos de réplica o de debido proceso frente a decisiones tomadas por un algoritmo.

Esta situación se agrava si consideramos que, aunque el trabajo mediado por plataformas se concibió inicialmente como una fuente extra de ingresos en el tiempo libre, terminó por convertirse en la fuente principal de sustento económico de más de 600 mil personas. En ese sentido, es importante mencionar que según investigaciones sobre el tema en el país,  la fuerza laboral migrante forma una gran parte de este sector, experimentando riesgos y exclusiones diferenciadas.

Tales retos, reconocidos en varios informes de la Organización Mundial del Trabajo (OIT), han dado lugar a  múltiples iniciativas de organización colectiva que, desde 2020, han demandado la garantía de derechos laborales mínimos. Entre sus principales demandas se encuentran: el reconocimiento de una relación laboral; el pago de los aportes a salud, pensión y riesgos laborales; el reconocimiento y la garantía del derecho a la asociación colectiva; la adecuación de espacios públicos para la espera de pedidos- dada la constante exposición al sol y a la lluvia- y la transparencia algorítmica, que implica clarificar los criterios y posibles sesgos que alimentan los algoritmos, especialmente frente al bloqueo de las cuentas y las medidas de supervisión en el proceso de recogida y entrega de paquetes. La reforma tomó en cuenta algunos de los puntos de este pliego de peticiones, respondiendo – al menos en parte- a las demandas históricas de la organización sindical.  

Considerando estos antecedentes, ¿qué demandas del colectivo de trabajadores fueron incluidas en la ley de reforma laboral, y qué desafíos y zonas grises persisten?

Los logros de la reforma laboral

La reforma se nutrió de un proceso participativo que incluyó al gobierno, las plataformas digitales agrupadas en el gremio Alianza In, los sindicatos de trabajadores de plataformas de reparto Unidapp y Asdiapp, así como a la academia y la sociedad civil. El resultado se plasmó en 7 artículos, que siguen ciertas tendencias de un impulso global y regional por regular el trabajo mediante plataformas. Entre los avances más relevantes se encuentran: el reconocimiento de una relación laboral entre las plataformas y las personas repartidoras bajo dos modalidades – dependiente o autónoma-, la obligación de establecer contratos acordes y garantizar la afiliación al sistema de seguridad social, con esquemas de aportes según la modalidad de relación laboral. Además, la reforma establece mecanismos de transparencia sobre la utilización de sistemas automatizados; incluyendo la supervisión humana de las decisiones automatizadas y la claridad en el tratamiento de los datos de las personas trabajadoras.  

A la luz de las demandas de las organizaciones sindicales, la aprobación de la reforma laboral representa un avance en la lucha contra la precariedad y la elevada informalidad que ha caracterizado al trabajo de reparto por plataformas digitales en Colombia. Para el presidente de la organización sindical Unidapp, este paso supone ganar “una batalla muy importante” al incorporar, por primera vez, un  reconocimiento mínimo de la seguridad social, uno de sus reclamos históricos. Sin embargo, considerando que las plataformas digitales de trabajo, como entornos digitales que median la prestación de servicios, se apoyan de forma sustancial en decisiones algorítmicas y en el tratamiento de datos personales -incluyendo las decisiones sobre bloqueo de cuentas-  estos aspectos permanecen como puntos críticos que la reforma no abordó con la profundidad necesaria y que requieren una lectura desde los derechos humanos.

La caja negra del algoritmo y la necesidad de una política de gestión algorítmica integral

En resonancia con las discusiones respecto al trabajo decente en plataformas abordadas en la 113a Conferencia Internacional del Trabajo (CIT), y con iniciativas legislativas en países como México, Chile y Uruguay,  la reforma laboral colombiana incorpora dos artículos breves dedicados a la transparencia en el uso de sistemas automatizados que inciden en la toma de decisiones y la supervisión sobre el trabajo de las personas repartidoras. Estas disposiciones se centran en el deber de informar a las personas trabajadoras sobre los sistemas empleados por ejemplo para la asignación de pedidos o la suspensión de cuentas, mediante un documento conciso, transparente, inteligible y fácilmente accesible. Así mismo, se establece la necesidad de la supervisión humana de las decisiones automatizadas que afectan las condiciones laborales, incluyendo al evaluación constante de su impacto.

Si bien estas medidas representan un paso hacia el cumplimiento del principio de “explicabilidad” – fundamental para garantizar que las personas trabajadoras puedan impugnar decisiones tomadas de forma automatizada, persisten interrogantes sobre aspectos claves, como si esta información se entregará antes de la implementación de los algoritmos, si habrá un plazo entre la notificación y el despliegue de los sistemas, con qué periodicidad se evaluará su impacto; cuánto demorará la revisión humana prevista y cuáles serían los mecanismos para acceder a esta.

Según la asociación sindical referida, en las plataformas de reparto en Colombia los algoritmos se utilizan principalmente para decidir respecto a bloqueos y suspensiones de cuentas. Aún después de las negociaciones con plataformas como Rappi -antecedentes de las medidas de transparencia que contempla la reforma-  persiste la falta de claridad sobre todas las causales posibles de bloqueos que aplican las plataformas. Informar sobre la existencia -ya conocida- de algoritmos para la gestión del trabajo es un paso relevante, pero no suficiente para abordar la complejidad de la transparencia algorítmica como dimensión del derecho a la información y como base para la auditoría y el control democrático de las plataformas. Conforme a las orientaciones internacionales,  se requiere avanzar hacia una política de gestión algorítmica integral, interseccional y basada en el principio de no discriminación, que especifique qué datos se utilizan y con qué criterios, y que reduzca los sesgos que inciden en las condiciones de trabajo.

Por otra parte, la supervisión humana prevista en la reforma no considera las barreras que actualmente enfrentan las personas repartidoras para apelar las decisiones automatizadas. Según el sindicato referido, hoy este proceso solo ocurre como tercer paso después de un bloqueo y para acceder a éste es necesario interponer un derecho de petición o una acción de tutela. En la práctica, si un cliente presenta una queja, el algoritmo puede sancionar de forma automática a la persona repartidora sin garantizar un debido proceso. Aunque la reforma incorpora la posibilidad de una revisión humana tras una decisión automatizada, no detalla los procedimientos que deberán seguir las personas trabajadoras, ni los mecanismos a utilizar, los cuales, en la actualidad demandan tiempo, recursos y conocimientos que resultan incompatibles con las  necesidades de este grupo para quienes un día sin trabajar impacta de forma considerable su mínimo vital.

El lugar de los datos personales.

La reforma laboral incorpora algunas disposiciones relevantes sobre el tratamiento de los datos personales de las personas trabajadoras. En primer lugar, establece que las finalidades de dicho tratamiento por parte de las plataformas deben presentarse de forma clara, sencilla y transparente, contar con la autorización previa de las personas trabajadoras y respetar el derecho de hábeas data. Esta medida es clave para el sindicato Unidapp ya que, sostienen que aunque existe conocimiento sobre los datos recopilados por las plataformas, persiste la falta de claridad respecto a los usos concretos que se les da, lo que refuerza la necesidad de mayor transparencia en este ámbito.

Si bien Colombia cuenta con la ley de protección de datos (Ley 1581 de 2012), que ampara el derecho constitucional que tienen todas las personas a conocer, actualizar y rectificar las informaciones que se hayan recogido sobre ellas en bases de datos, no contiene disposiciones propias sobre el tratamiento de datos por parte de sistemas automatizados que aplican al caso del trabajo por plataformas digitales, un aspecto que será contemplado en la reforma recientemente anunciada por el gobierno actual a dicha ley.

En segundo lugar, la reforma incorpora la creación de un mecanismo “de reconocimiento de identidad plena que permita individualizar al trabajador digital en servicios de reparto” conforme al derecho de hábeas data. Sin embargo, el texto no precisa qué datos se utilizarán para esta verificación, lo cual abre interrogantes sobre aspectos relevantes como dónde se almacenará la información; si se incluirán datos sensibles, como los biométricos; bajo qué criterios de protección operará el mecanismo y si se prevén riesgos identificados en estudios previos, como la posible instrumentalización de estos datos para prácticas de vigilancia por parte de las plataformas.

Los desafíos de la reforma más allá del trabajo de reparto

En su estado actual la reforma laboral sólo contempló a trabajadores de plataformas digitales de reparto pero, no quedan claros los criterios que justifican la exclusión de sectores como el transporte privado – con más de 1 millón de conductores registrados -, el trabajo doméstico – intermediado por más de 5 aplicaciones digitales en el momento –, o las plataformas webcam – un segmento del trabajo por plataformas altamente expuesto a violaciones laborales y explotación sexual. Estos son sectores que también se encuentran en situaciones de vulnerabilidad, expuestos a decisiones algorítmicas opacas y a la falta de claridad en torno al uso de sus datos personales.

A lo largo de esta columna se han señalado aspectos que requieren revisión en la etapa de reglamentación e implementación de la reforma laboral, con la participación significativa de la sociedad civil y de organizaciones de personas trabajadoras. Eventuales avances hacia convenios internacionales vinculantes, que parten de las discusiones promovidas en el ámbito de la OIT, podrían tener un rol crucial para fomentar la cooperación e intercambio a nivel regional, nutriendo la experiencia colombiana y ofreciendo una oportunidad para cerrar brechas y avanzar hacia un trabajo en plataformas con garantías mínimas comunes en América Latina , que se extiendan a todos los sectores y servicios. Estas garantías deben de requerir a las compañías tecnológicas a implementar sistemas algorítmicos transparentes, que aseguren en todo momento la privacidad y protección de datos de las personas trabajadoras, en cumplimiento con  estándares y orientaciones internacionales, así como con la legislación nacional vigente.