Infancias en línea: riesgos, regulaciones y desafíos para América Latina

En 2017, el Fondo de las Naciones Unidas para la Infancia (UNICEF) publicó la estimación de que 1 de cada 3 usuarios de internet en todo el mundo era niño, niña o adolescente. A pesar de que aún existen muchos jóvenes que no tienen un acceso significativo a internet – y de que esto constituye un problema de orden primario -, es posible que hoy, casi una década después, la proporción de personas con menos de 18 años en entornos digitales sea aún mayor. En la realidad latinoamericana, estadísticas de países como Brasil, Argentina y México muestran que niños, niñas y adolescentes no solo pasan cada vez más tiempo conectados, sino que también comienzan a acceder a internet a edades cada vez más tempranas.

El punto sobre el cual UNICEF venía alertando al menos desde 2017 es que la infraestructura y las aplicaciones de internet, en esencia, no fueron diseñadas para este público, ni evolucionaron considerando la etapa de desarrollo físico, cognitivo y psicosocial que atraviesan niños, niñas y adolescentes. A esto se suma la lógica de explotación comercial sobre la cual opera internet desde hace años, muy distante de aquella idea inicial de un espacio libre, abierto y creativo. Estos factores exponen a los más jóvenes a una serie de riesgos online, considerablemente más graves que para los usuarios adultos.

En los últimos meses, la discusión sobre estos temas se intensificó. En el Reino Unido entró en vigor un paquete de medidas regulatorias que coloca en el centro la protección infantil en línea. En Brasil, el debate ganó aún más visibilidad tras una denuncia sobre la “adultización” e hipersexualización de niños y adolescentes en entornos digitales. Ambos episodios muestran cómo la agenda de protección en internet se consolidó como un tema urgente en todo el mundo. Sin embargo, es importante reflexionarlo desde una perspectiva localizada desde el contexto latinoamericano.

Niños y adolescentes están, de hecho, en riesgo en internet

La OCDE clasifica los riesgos a los que están expuestos niños, niñas y adolescentes en internet en cuatro categorías – las “4 C’s”. La primera son los riesgos de exposición a contenido inadecuado, como materiales nocivos, discursos de odio, desinformación u otros contenidos ilegales. Aquí entra, por ejemplo, la exposición a la pornografía, con consecuencias que van desde la erotización precoz hasta el estímulo a la violencia y la reproducción de estigmas de género. También entra el acceso a juegos de azar, un problema creciente en América Latina.

La segunda categoría son los riesgos de conducta, que abarcan aquellos creados por las propias interacciones de los niños en entornos digitales. Pueden manifestarse en comportamientos odiosos o nocivos, como el ciberacoso o la automutilación, muchas veces incentivados por el diseño de las plataformas y la viralización de ciertos contenidos. A comienzos de 2025, por ejemplo, una niña de 8 años murió en Brasil tras inhalar desodorante en aerosol en un reto de TikTok.

El tercer grupo son los riesgos de contacto, cuando niños y adolescentes son expuestos a interacciones dañinas o criminales con terceros adultos. Estos encuentros pueden ir desde situaciones de acoso hasta casos de explotación sexual infantil. Recientemente, en Estados Unidos, la fiscalía de Lousiana demandó a la plataforma de juegos Roblox, muy popular entre el público infantil, por no implementar mecanismos básicos de seguridad, lo que habría permitido que pedófilos se hicieran pasar por niños y entablaran interacciones malintencionadas a través del chat.

La cuarta dimensión son los riesgos de consumo, ligados al perfilado comercial y la inducción de gastos, parte estructural del modelo de negocio de las grandes plataformas digitales. Niños y adolescentes, en proceso de desarrollo, carecen hasta cierta edad de herramientas para distinguir publicidad de contenido orgánico. Incluso siendo ya un poco más viejos, no cuentan con recursos suficientes para lidiar con las presiones comerciales. Las prácticas de perfilamiento, como ya denunciaron distintos whistleblowers, han sido utilizadas por plataformas para aprovechar la vulnerabilidad emocional de adolescentes (sobre todo niñas). Entre sus prácticas está la promoción de contenidos que estimulan distorsiones corporales para mantenerlas enganchadas, aun con pleno conocimiento de sus efectos nocivos en la salud mental.

La OCDE señala, además, que existen riesgos transversales, como la pérdida de privacidad, la salud física y mental y los derivados de tecnologías digitales avanzadas o biométricas. Temas como el sharenting, los sesgos de los sistemas de inteligencia artificial y los impactos del uso excesivo de redes sociales en el sedentarismo juvenil entran en esta categoría. Casos recientes publicados en la prensa, como la denuncia de las ganancias de YouTube con contenidos abusivos sobre niños, muestran cómo estas dimensiones se combinan y retroalimentan.

Es esencial reconocer estos riesgos, así como el hecho de que pueden afectar de manera trágica el desarrollo de una persona en formación. También es importante destacar que no recaen de forma homogénea: estudios comparativos señalan que las plataformas aplican reglas más laxas en países del Sur Global. En América Latina, niños indígenas y afrodescendientes tienen menos acceso tanto a internet como a educación formal, incluida la educación digital. Además, en un contexto en el que las plataformas digitales lucran con la vulneración de derechos, la carga del cuidado recae de forma desproporcionada en las familias y, especialmente, en las madres. En una región con altas tasas de maternidad en solitario y bajos niveles de alfabetización digital, muchas mujeres no cuentan con el tiempo ni con las herramientas necesarias para acompañar la navegación segura de sus hijos, lo que los vuelve aún más vulnerables.

 La respuesta regulatoria

No es en vano que, sobre todo en los últimos cinco años, este tema comenzó a recibir creciente atención de reguladores en todo el mundo. En 2020, el Comité de los Derechos del Niño de la ONU redactó la versión final de su Observación General 25 relativa a los derechos de los niños en relación con el entorno digital, aprobándola a comienzos de 2021. El documento representó un hito en el derecho internacional de los derechos humanos, al interpretar la Convención sobre los Derechos del Niño de 1989 a la luz de los avances tecnológicos, reafirmando que todos los derechos de niños, niñas y adolescentes se extienden también al entorno digital. Conviene recordar que la Convención de 1989 es el tratado internacional más ratificado del mundo, y que instauró la doctrina de la protección integral, reconociendo a todas las personas con menos de 18 años como sujetos de derechos, con autonomía progresiva para su ejercicio, y, por lo tanto, debiendo ser promovidos y protegidos en todos los espacios.

2021 también marcó la aprobación del Age Appropriate Design Code por el ICO del Reino Unido, que estableció estándares de diseño para productos y servicios digitales destinados o con alta probabilidad de ser utilizados por niños y adolescentes. La iniciativa inspiró en los años siguientes diversas medidas por parte de autoridades de protección de datos, especialmente en Europa, como en Suecia e Irlanda. El Digital Services Act (DSA), aprobado en 2023 en la Unión Europea, también tiene reglas específicas para el grupo, señalando el principio de su mejor interés para el desarrollo de servicios digitales y reglas diferenciadas para el tratamiento de sus datos.

En 2024, Australia aprobó una ley inédita que prohíbe el acceso de personas con menos de 16 años a redes sociales y la Unión Africana adoptó directrices para la protección en línea de niños, niñas y adolescentes. La discusión también ganó fuerza en los Estados Unidos, donde ya recibió media sanción el Kids Online Safety Act (KOSA), aunque bajo apoyo desde argumentos problemáticos de políticos conservadores, como la protección de niños a “contenidos LGBT”. En 2025, nuevamente el Reino Unido, esta vez a través de la Ofcom, publicó una serie de directrices condensadas en los ya mencionados Protection of Children Codes and Guidance.

Estas iniciativas también resonaron en América Latina. En julio de 2025, Colombia aprobó la Ley 2489, “por medio de la cual se establecen disposiciones para el desarrollo de entornos digitales sanos y seguros para los niños, niñas y adolescentes del país”. En Brasil, desde 2022 se debate en el Congreso Nacional el Proyecto de Ley nº 2628,  que también establece reglas específicas para la protección de los más jóvenes en internet. El texto fue aprobado en el Senado a finales de 2024 y recién aprobado también en la Cámara de los Diputados, en agosto de 2025. Ahora vuelve al Senado para aprobación final, incluyendo dispositivos como la prohibición del uso de datos de personas con menos de 18 años para publicidad comportamental, además de previsiones sobre supervisión parental, vedación de acceso a contenidos dañinos y rendición de cuentas por parte de las aplicaciones digitales. Su tramitación recobró fuerza en agosto de este año, tras la referida denuncia del influencer Felca digital sobre la adultización e hipersexualización de niños y adolescentes en internet.

Un punto común de estas iniciativas regulatorias es establecer reglas diferenciadas para el uso de entornos digitales por parte de niños y adolescentes, ya sea en relación con los contenidos a los que pueden (o no) acceder, o en relación con prácticas de diseño y extracción de datos. Para que esa diferenciación ocurra en la práctica, gobiernos y empresas que proveen servicios digitales señalan que es necesario poder identificar quiénes son las personas con menos de 18 años en internet. En este contexto, aun cuando no aparezcan de forma explícita en todas las normativas recientes, la implementación de mecanismos de verificación de edad ha pasado a ser considerada una puerta de entrada esencial para la defensa de la infancia.

Informes de autoridades y análisis recientes hablan de una “ola global” de sistemas de verificación de edad en toda internet, donde la protección de la infancia se presenta como justificación para extender controles de identidad a todos los usuarios, incluso en aplicaciones que no son consideradas de alto riesgo. Esta tendencia recuerda al debate de la última década que oponía la defensa de la criptografía fuerte al combate contra la circulación de material de abuso sexual infantil, dividiendo en grupos opuestos, de manera simplista, a defensores de la privacidad y defensores de la infancia.

Más allá de soluciones fáciles

Esa falsa oposición plantea trampas que empobrecen el debate y dificultan la búsqueda de soluciones. Tiene, al menos, dos problemas centrales. El primero es no reconocer que niños y adolescentes, como sujetos de derechos, también tienen derecho a la privacidad y deben poder ejercerlo en el marco de su autonomía progresiva. Si pensamos en quienes viven en contextos familiares o comunitarios represivos, buscando información sobre su sexualidad o identidad de género, por ejemplo, este derecho se vuelve aún más importante.

Extender mecanismos de verificación de edad de manera indiscriminada altera la estructura de internet y puede afectar también a las propias infancias. No se trata de sacrificar las características fundamentales de la red como el acceso abierto y el anonimato relativo en nombre de su protección, porque ellas también se benefician de estas condiciones. El desafío es matizar el debate y reconocer las tensiones en juego, incluyendo en las discusiones regulatorias también agentes técnicos que puedan apoyar a desarrollar estos matices.

El segundo problema es desconsiderar que las tecnologías operan dentro de entramados sociotécnicos complejos. Así como no son, de manera aislada, la raíz de los riesgos que enfrentan niños y adolescentes, tampoco serán, de manera aislada, la solución.

Debemos discutir seriamente temas como la cultura de la violación y la ausencia de educación sexual en las escuelas, y cómo estas problemáticas atraviesan desigualdades de género y raza. En América Latina, entre 2018 y 2022, casi 490.000 niñas con menos de 18 años fueron víctimas de delitos contra su dignidad sexual, un dato que evidencia la urgencia de ese debate. Además, es necesario debatir el modelo económico que sostiene internet: el capitalismo de vigilancia. Un sistema nocivo para todos los usuarios, pero que impacta de manera particularmente severa a niños, niñas y adolescentes.

Estamos en un potencial punto de inflexión en la forma en que se estructura la internet y circulan sus usuarios. El debate sobre la protección de las infancias es indispensable, pero no puede reducirse a fórmulas simplistas ni a la falsa oposición entre privacidad y seguridad. América Latina no debe importar soluciones regulatorias prefabricadas sin crítica, sino comprometerse en un proyecto político y social que coloque a niños, niñas y adolescentes en toda su diversidad en el centro de un futuro digital verdaderamente justo.

Privacidad en la mensajería: ¿cómo asegurarse de eliminar mensajes ante el riesgo de intrusión?

En la actualidad, más de 3 mil millones de personas usan activamente aplicaciones de mensajería en todo el mundo, y las cifran van en aumento. Si bien existe una gran variedad de alternativas con distintas características y funciones, la mayoría comparte elementos en común. Su popularidad varía geográficamente por regiones y también por países. A continuación, analizamos tres de las más relevantes: Signal, WhatsApp y Telegram.

Antecedentes: de la ausencia de privacidad hacia «alguna» privacidad

Más allá de su popularidad, las preocupaciones con la privacidad de las aplicaciones de mensajería –y las respuestas a tales preocupaciones– se han ido incrementando a lo largo del tiempo. Las revelaciones de Edward Snowden sobre vigilancia masiva son un hito clave en esta breve historia, una vez que ayudaron a popularizar el cifrado y otras medidas de protección como estándar.

En este contexto, y como fusión de los proyectos TextSecure y RedPhone, en 2014 nace Signal. El espíritu de esta nueva herramienta se centraba en proteger la privacidad de las comunicaciones, y en ese esfuerzo introdujeron el esquema de seguridad de cifrado de extremo a extremo. Si bien esta aplicación está delimitada por su uso en pequeños nichos o determinadas regiones del mundo (incluso al día de hoy muchas personas la desconocen), ella fue crucial para la introducción de un sistema de protección similar en WhatsApp, la aplicación de mensajería más popular en América Latina. Ante la creciente demanda por resguardar los intercambios de mensajes, la empresa más pujante del rubro tuvo la necesidad de aplicar un mecanismo de cifrado a la altura de las necesidades para no quedar obsoleta. Por ello, en 2016 WhatsApp integra el protocolo Signal para el cifrado de extremo a extremo por defecto para todas las personas usuarias.

Por su parte, Telegram, creada en 2013, no posee este esquema de cifrado de extremo a extremo por defecto en sus conversaciones, solo lo utiliza para los chats secretos. Esta plataforma aplica por defecto el cifrado entre cliente-servidor, lo que significa que, si bien los mensajes viajan cifrados, pueden ser legibles por la empresa o quien tenga acceso a sus servidores. En este sentido, el uso de canales comunes en Telegram es desaconsejado desde un punto de vista de protección de la privacidad.

Desafíos que persisten

El cifrado de extremo a extremo busca dar cuenta de la privacidad de las comunicaciones en tránsito, o sea, de cómo se protegen en el camino de un origen a un destino. Pero, ¿cómo garantizar la privacidad de las comunicaciones en aplicaciones de mensajería ante una intrusión física en el dispositivo?

La pregunta es válida para situaciones simples de extravío o pérdida, pero también en contextos de intervención policial o de intrusión a dispositivos por medio de software diseñado para eso. Ante el reporte de situaciones de abuso en tales acciones en la región y su riesgo para el ejercicio de Derechos Humanos, es fundamental conocer mecanismos para hacer valer el derecho a la privacidad en el uso de herramientas de mensajería.

Existen una serie de medidas que se pueden aplicar para mitigar estos riesgos, que abordamos anteriormente. Algunas son: utilizar contraseña en el dispositivo, contar con una clave de acceso para la aplicación, configurar el chat para mensajes temporales, entre otras. Presentes desde 2016 en Signal y desde 2020 en WhatsApp, los mensajes temporales pueden resultar una estrategia segura, pero solo funcionarán desde el momento en que el chat haya sido configurado para tal efecto.

Entonces, ante el peligro de intervención de un equipo, ¿cómo asegurarnos de que no puedan acceder a las conversaciones o, al menos, a algunas de ellas? La respuesta es simple, pero su implementación no tanto: eliminando esos mensajes. Si estuviéramos hablando de una carta que podemos destruir físicamente quizás la recomendación fuera obvia, pero en dispositivos digitales surge la legítima duda: ¿existe la posibilidad de recuperar un mensaje eliminado? Sí, bajo ciertas circunstancias se pueden restablecer conversaciones eliminadas. De ahí la necesidad de abordar algunos aspectos técnicos para garantizar que el ejercicio del derecho a la privacidad, en este caso, sea más efectivo.

WhatsApp: cómo eliminar mensajes de forma definitiva

Actualmente, existen dos formas de recuperar los chats eliminados: la recuperación de los respaldos en línea por un lado, y la copia de seguridad local de la aplicación, por el otro.

Una instalación típica de WhatsApp ofrece la opción de configurar un respaldo en línea utilizando Google Drive, para usuarios Android, o iCloud, en el caso de Iphone. Los respaldos de Android en Google Drive son únicos y se sobrescriben, es decir, no existen versiones históricas de los archivos. Si se desea que los mensajes no se puedan restablecer, es necesario eliminar el archivo en cuestión desde Google Drive.  

En el caso de Android se debe acceder a la cuenta en Google Drive, ir al apartado “Almacenamiento” y luego a “Copias de seguridad”. Ahí se encuentra el archivo de respaldo de la cuenta de WhatsApp identificado por el número telefónico. Si se desea que los mensajes no se puedan recuperar, se debe eliminar el archivo en cuestión. Es fundamental asegurarse de que el archivo eliminado no quede en la papelera de reciclaje; de ser así, también debe borrarse desde allí.

Además del respaldo en línea, WhatsApp utiliza copias de seguridad locales para posibles restauraciones. El esquema de respaldo local es incremental, es decir utiliza varios archivos para guardar el historial de las conversaciones de forma periódica. Las copias pueden ser encontradas en una carpeta cifrada ubicada en “Android/media/com.whatsapp/WhatsApp/Databases”. Dentro de este directorio encontraremos una serie de archivos cuya nomenclatura es “msgstore.db.crypt14*”. Para eliminar estos archivos de respaldo locales, y que estos no puedan ser recuperables, se debe usar una herramienta de borrado seguro como iShredder o bien conectar el dispositivo al computador y utilizar herramientas como Shred, disponible en la mayoría de las distribuciones GNU/Linux, Eraser para Windows o srm para macOS.

Cabe mencionar que todos estos procedimientos explicados solo aplican al dispositivo donde se ejecute el proceso. Es decir, si la otra persona a quien se dirigen los mensajes no los elimina, seguirá teniendo acceso a los mismos y permanecerán disponibles para terceros en el caso de una extracción o intrusión al dispositivo. También es necesario prestar atención a los mensajes temporales, cuya duración puede ser de 1, 7 o 90 días, pues, según explica WhatsApp, si crea una copia de seguridad antes de que desaparezca un mensaje, este se incluirá en la copia de seguridad.

Eliminar mensajes de WhatsApp definitivamente requiere de al menos esos tres pasos e implementarlos o no depende de la percepción de riesgo que pueda tener cada persona de estar sujeta a una intrusión indebida a sus comunicaciones personales. Aún así, como se ve, hay fragilidades que son intrínsecas al uso de este tipo de aplicaciones y la confianza en la empresa por detrás de la aplicación y en las terceras personas con quienes compartimos nuestras informaciones.

Borrar mensajes, resguardar derechos

Aunque pueda resultar una tarea compleja, y que requiere de varios pasos a seguir, la posibilidad de borrar mensajes de manera segura es una acción concreta hacia una mayor autonomía digital y una defensa efectiva de nuestros derechos. Así como en la vida real, es necesario que los entornos digitales nos provean de herramientas que nos permitan resguardar nuestro derecho a la privacidad en línea y que están accesibles para todas las personas.

Desde Derechos Digitales, sostenemos que la privacidad de las comunicaciones no es un lujo ni una cuestión meramente técnica: es una condición indispensable para el ejercicio de otros derechos, como la libertad de expresión, la organización social y la defensa de los Derechos Humanos. En América Latina, donde diversos Estados han desplegado prácticas de vigilancia sin control ciudadano ni garantías adecuadas, proteger nuestras comunicaciones digitales se vuelve urgente.

El desafío de construir el futuro de los derechos humanos

La historia de Derechos Digitales comenzó hace dos décadas apostando a una idea común: que las tecnologías permitirían democratizar el ejercicio de un conjunto de derechos humanos de los cuales buena parte de nuestras poblaciones se veían excluidas. En particular, los derechos a acceder y compartir libremente contenidos artísticos, culturales y científico-académicos, así como noticias y opiniones sobre una amplia variedad de temas. Iniciamos nuestro activismo luchando por garantías a estas libertades en el ámbito tecnológico: que no se impusieran barreras técnicas ni jurídicas al acceso. Al contrario, que los nuevos marcos protegieran y desarrollaran nuestros derechos digitales.

Si bien nuestros orígenes se enmarcan más de una década después de que la apertura democrática en la mayoría de los países del Cono Sur abriera espacio a las primeras iniciativas sociales similares, construimos nuestro trabajo a partir de sus luchas y logros, y de las reflexiones y avances de movimientos iniciados años antes. No partimos desde cero, sino desde un mapa que ya mostraba zonas de conflicto, alianzas posibles y caminos por ensayar.

Una historia construida sobre sueños de libertad

Nuestra relación más obvia, al haber sido responsables de la adaptación y difusión de las licencias Creative Commons a Chile, es con el movimiento de “cultura libre”: con el que compartimos la resistencia al avance desenfrenado de la propiedad intelectual como mecanismo para controlar la circulación de contenidos digitales y proteger antiguos monopolios culturales y mediáticos. Sin embargo, este también nace con fuerte inspiración en dos movimientos previos: el que se construye alrededor del software libre, y aquel que se origina de las disputas por el acceso libre al conocimiento, en particular el acceso a la literatura científica.

El primer texto de nuestra actual página web, con fecha de 5 de mayo de 2005 refleja esta vinculación fundante. Su título: “¿Qué es el software libre?”. Su conclusión:

Considerando las políticas de licenciamiento impuestas por soluciones propietarias, las que suelen socavar las libertades ciudadanas, los beneficios que reporta el trabajo colaborativo y el aliciente para el desarrollo nacional, y los costes asociados a la implementación de soluciones informáticas de código abierto, Derechos Digitales manifiesta su decidida opción por el software libre u open source”.

Otro ejemplo del mismo mes, que apunta al vínculo con movimientos más tradicionales de derechos humanos, es el texto de Daniel Álvarez Valenzuela, fundador y entonces director de Derechos Digitales. Según él, internet podría “conferir a los ciudadanos ‘de a pie’ las mismas posibilidades de ejercer su derecho a la libertad de expresión que los grandes grupos económicos”.

Así, al argumentar sobre cómo la propiedad intelectual representaba una “mordaza” a la libertad de expresión, Álvarez recupera las reivindicaciones del fuerte activismo por la libertad de expresión y el derecho a la comunicación en América Latina. Movimientos responsables por denunciar la censura estatal y cuestionar el monopolio económico de los medios de comunicación en nuestra región.

Nuestros primeros textos reflejan otras relaciones con temáticas de interés de distintos grupos: transparencia y acceso a la información, acceso a la justicia, protección de datos, entre otras. Si bien esas referencias ampliaban el marco conceptual desde el cual abordábamos lo digital, nuestras alianzas y formas de trabajo siguieron, durante bastante tiempo, ligadas sobre todo a comunidades técnicas y jurídicas. Así, por mucho tiempo nuestro trabajo se enmarcó en un nicho dentro del amplio espectro del activismo en derechos humanos.

Promesas secuestradas

En 20 años de actuación, maduramos nuestra concepción sobre estas bases, siempre buscando proteger el ejercicio de derechos facilitado por las tecnologías de intentos de captura, criminalización y vigilancia. Pero lo que antes tomaba la forma de una discusión técnica, jurídica y delimitada a un ambiente digital accesible a una pequeña élite regional, hoy está en el centro de las preocupaciones cotidianas de un sinnúmero de personas afectadas de diferentes formas por las tecnologías digitales.

Primero porque el acceso a internet se ha incrementado significativamente en la región, aunque de manera desigual y a menudo en condiciones precarias. Las brechas no son solo de infraestructura, sino también de calidad, asequibilidad y autonomía. Muchas conexiones son lentas, inestables o costosas, y buena parte del acceso ocurre exclusivamente vía móvil, con planes que restringen contenidos y vulneran el principio de neutralidad de la red. Además, persiste una desigualdad profunda en el acceso a dispositivos adecuados y en las competencias necesarias para usar internet de forma segura, crítica y orientada al ejercicio de derechos. La desconexión ya no es el único problema: también lo es una conectividad limitada, subordinada y sin garantías.

Segundo porque ya no es necesario “estar” en internet para sentir los efectos de la digitalización que –a pesar de la eterna promesa de eficiencia– parece haber traído más riesgos que ventajas. La digitalización atraviesa hoy el acceso a servicios esenciales como salud, educación o justicia, sin que existan garantías adecuadas para todas las personas. Estas transformaciones, impulsadas muchas veces por actores privados sin transparencia ni control democrático, o embelesadas por la promesa de la inteligencia artificial, terminan agravando desigualdades y generando nuevas formas de exclusión. Si antes una preocupación central era con el filtrado de datos y la ciberseguridad, a ella se suman también las consecuencias tangibles de los mismos, la violencia y la manipulación del debate público digital a nuestras vidas y sociedades. Ya no hablamos solo de acceso a información, sino de la posibilidad misma de participar en la esfera pública sin ser invisibilizadas, acosadas o manipuladas.

Tercero, porque nuestros cuerpos son capturados y transformados en rastros digitales explotables para distintos fines ajenos a nuestra voluntad, a medida que las tecnologías digitales se aplican para mediar nuestro acceso a espacios y derechos. La expansión de sistemas de identificación biométrica, el monitoreo de actividades y el análisis predictivo han convertido nuestra vida en datos a explotar y nuestras huellas digitales en materia prima para el control social, la discriminación automatizada y la extracción de valor. Lo que alguna vez se entendió como mediación tecnológica, hoy opera como filtro, barrera o condición de acceso a la vida en sociedad.

Las promesas de apertura, descentralización y acceso que inspiraron el nacimiento del campo han sido sistemáticamente desplazadas por dinámicas de concentración, extracción y control que definen las infraestructuras digitales contemporáneas.

En estas condiciones, el entorno digital ya no parece un espacio naturalmente propicio para el ejercicio de derechos. Lo que comenzó como un terreno fértil para imaginar nuevas libertades, hoy plantea desafíos más urgentes, más desiguales, más difíciles de revertir. Pero si algo hemos aprendido en estos veinte años, es que el conflicto no clausura la posibilidad, sino que nos obliga a repensar nuestro trabajo.

Por el derecho a soñar

A pesar de estos patentes cambios y de un contexto geopolítico internacional refractario a las narrativas de derechos humanos, hoy más que nunca nos parece central reivindicar nuestra misión. No como una consigna repetida, sino como una tarea que se redefine constantemente frente a amenazas más sofisticadas, actores más poderosos y exclusiones más profundas. El escenario que enfrentamos es a menudo hostil, pero también más disputado: cada vez hay más fisuras que visibilizan una diversidad de voces que reclaman por justicia. Voces que requieren ambientes seguros para seguir manifestándose y entornos habilitantes, incluso a nivel digital.

A 20 años de nuestra fundación, seguimos apostando en el software libre para garantizar libertad, autonomía y protección. Mantenemos nuestra convicción en la necesidad de democratizar las comunicaciones y romper con los monopolios que se actualizan cada día a costa de la libertad de nuestras comunidades. Confiamos, más que nunca, en que los derechos humanos son una herramienta viva para enfrentar las crisis del presente y construir el futuro.

Los próximos años exigirán más que resistencia: necesitaremos nuevas alianzas, nuevas formas de incidencia y una comprensión más amplia de qué significa hoy defender derechos en entornos digitales. Necesitaremos resiliencia y solidaridad. Desde los márgenes donde trabajamos como sociedad civil latinoamericana y en toda la región, sabemos que no basta con reaccionar, sino que debemos proponer el futuro que queremos. Este seguirá siendo nuestro lugar.

Cuando la ciberseguridad es cooptada por la inteligencia estatal

La ciberseguridad se ha consolidado como un tema primordial para los Estados latinoamericanos en los últimos años. Entre la creciente digitalización y las amenazas cibernéticas, se ha impulsado la formulación de estrategias nacionales y otras políticas públicas que establecen tanto los objetivos de los gobiernos en la materia, como, en muchos casos, las entidades responsables de su implementación. En ese contexto, y como señalamos en una reciente publicación, es fundamental abordar a las políticas de ciberseguridad desde enfoques basados en derechos humanos que coloquen a las personas al centro de las acciones de prevención y respuesta a los ciberataques contemplando sus riesgos específicos y necesidades, priorizando el ejercicio de derechos fundamentales. En las últimas semanas, Argentina ha captado la atención del ámbito de la ciberseguridad debido a una serie de decisiones gubernamentales que han encendido varias alarmas.

¿Qué fue lo que ocurrió?

En septiembre de 2023, Argentina aprobó su Segunda Estrategia Nacional de Ciberseguridad, un documento que, a primera vista, representó un avance significativo en la región al incorporar principios de derechos humanos y perspectiva de género. No obstante, ese enfoque ha quedado en entredicho tras una serie de decisiones adoptadas por el gobierno actual. En julio de 2024, la reestructuración del Sistema de Inteligencia Nacional -que disolvió la Agencia Federal de Inteligencia y restituyó sus funciones a la vieja Secretaría de Inteligencia del Estado (SIDE), restablecida bajo el control directo y exclusivo del Poder Ejecutivo- marcó el primer giro. Luego, en abril de 2025, con el Decreto 274/2025, la preocupación se intensificó: la SIDE pasó a controlar la Agencia Federal de Ciberseguridad y, con ello, la implementación de la Estrategia Nacional y la operación del CERT.ar. Este modelo de gobernanza en la política de ciberseguridad no tiene precedentes, ni dentro ni fuera de América Latina.

A la par de dichas reformas, en mayo de 2025 la SIDE aprobó el Plan de Inteligencia Nacional (PIN). Este es un documento definido por el gobierno como “secreto”, que establece los lineamientos del Sistema de Inteligencia para “promover los intereses estratégicos” del gobierno. Al PIN sólo tienen acceso el presidente, la SIDE y la Comisión Bicameral Permanente de Fiscalización de los Organismos de Inteligencia. Esta restricción para la consulta del documento siembra de entrada preocupaciones no solo sobre su opacidad sino sobre los retrocesos que pueda representar para las libertades y los derechos fundamentales de la ciudadanía. Más aún, y según lo señalado por medios como La Nación que ha logrado acceder al documento extraoficialmente, el PIN otorga facultades a la SIDE para recabar información sobre todas aquellas personas que, a criterio de la entidad, “erosionen” o “manipulen” la confianza de la opinión pública sobre las políticas de seguridad y económicas del gobierno actual; una práctica prohibida por la propia Ley de Inteligencia Nacional

La aprobación del PIN despertó las alarmas del gremio periodístico y del sector de la sociedad civil argentina, pues la ampliación de las facultades operativas de la SIDE básicamente legitima la persecución y vigilancia a quienes expresen opiniones críticas, un pilar fundamental para el debate democrático. De hecho, el periodista de la Nación que reveló la existencia del nuevo documento de inteligencia estatal reportó ataques a sus cuentas de redes sociales, así como amenazas recibidas a través de estas. La gravedad de este caso visibiliza un patrón sistemático en el país y en la región que amenaza la libertad de expresión así como el derecho de acceso a la información pública, aspectos que hemos documentado en otros artículos.

Los peligros del cambio en la gobernanza de la ciberseguridad

Designar la ciberseguridad al mando de organismos de inteligencia implica un retroceso en la medida que desplaza el enfoque centrado en las personas, limita la participación social y profundiza riesgos de vigilancia. Este cambio se alinea con una concepción conservadora de la ciberseguridad, anclada en una visión técnica centrada exclusivamente en la protección de infraestructuras críticas del Estado, puesto que las agencias de inteligencia tienen como núcleo la protección de los intereses estatales desde el ámbito de la seguridad nacional. Es importante destacar que este enfoque ha sido paulatinamente superado por marcos más integrales y centrados en derechos humanos, que colocan a las personas en el núcleo de las políticas de prevención y respuesta.

Sumado a lo anterior, disponer el desarrollo y la implementación de políticas de ciberseguridad bajo la estructura oculta de la inteligencia estatal, lejos de ser un detalle técnico, reactiva una lógica peligrosa y ya conocida en la región: la priorización discursiva de la seguridad nacional como justificación para restringir libertades fundamentales. A saber, a lo largo del siglo pasado, esta narrativa fue utilizada por regímenes dictatoriales para vigilar, censurar y reprimir a la disidencia bajo la «doctrina de seguridad nacional».

Ahora bien, uno de los pilares en los procesos de Memoria, Verdad y Justicia en la superación de las dictaduras de la región ha sido precisamente la exigencia de límites democráticos al accionar de las agencias de inteligencia. La persistencia de mecanismos opacos y sin controles –como es el caso argentino– no solo es un problema de transparencia, sino una evidencia de que las prácticas y finalidades mismas de dichas agencias siguen siendo incompatibles con los principios democráticos, lo que va en contramano de fallos históricos recientes en la región.

En el escenario argentino, el rediseño del sistema de inteligencia y el traspaso del control de la ciberseguridad a la SIDE no son hechos menores ni aislados, sino parte de un proyecto político del actual gobierno. Este proyecto impulsa discursos y medidas abiertamente regresivas en temas como género, diversidad, protesta social y acceso a la información pública, que han sido denunciados por organismos y organizaciones internacionales como la Relatoría Especial para la Libertad de Expresión de la OEA y Reporteros Sin Fronteras. Esta agenda antiderechos tiene graves impactos especialmente sobre grupos históricamente vulnerables, entre ellos mujeres y personas LGBTQIA+, que además son un blanco frecuente y desproporcionado de las prácticas de vigilancia y los ataques digitales, particularmente quienes ejercen liderazgos políticos, sociales o periodísticos. Precisamente, quienes deberían estar en el centro de las políticas de ciberseguridad son quienes más riesgos enfrentan con los recientes giros autoritarios.

El cambio de gobernanza en cuestión se articula, además, con decisiones geopolíticas de alineamiento expreso con los intereses de Estados Unidos e Israel, países mencionados explícitamente como referentes estratégicos en el nuevo PIN argentino. Esta alineación no solo refuerza una lógica de seguridad nacional que pone en tensión los derechos fundamentales, sino que también reproduce un modelo caracterizado por la concentración de poder y la falta de controles democráticos efectivos. En el caso argentino, donde no existen mecanismos efectivos institucionales de fiscalización sobre las agencias de inteligencia, la pregunta que se impone con fuerza es ¿quién vigila a quienes vigilan?

Implicancias del caso argentino para nuestra región

El caso argentino hace eco en hechos históricos y expone cómo los marcos legales pueden ser utilizados para habilitar prácticas autoritarias. Además, y tomando como referencia un informe reciente de Derechos Digitales, junto a otras acciones realizadas por el gobierno argentino el último tiempo, como la Resolución 428/2024, el caso consolida un rumbo para el despliegue de prácticas de vigilancia bajo normas poco claras, un camino que el Estado ya venía trazando desde 2020. Lo ocurrido en las últimas semanas formaliza dichas actividades y habilita otras como el monitoreo masivo en redes, bajo una estructura que convierte la ciberseguridad en un instrumento político para vigilar y silenciar a la disidencia.

Como vemos, el problema no es nuevo; lo nuevo es que se legitiman la persecución y la vigilancia por vía legal. Estamos ante una disputa política que requiere respuestas claras por parte de los Estados. La región evidencia un panorama en el cual crece la tolerancia hacia formas autoritarias de gobierno. Argentina, un país considerado históricamente como referente en materia de derechos humanos, se ha venido alejando de ese lugar. Este retroceso insta a la activación de compromisos concretos del resto de los países de la región, no solo para construir y defender estándares comunes, sino para impedir que un modelo de ciberseguridad como este sea replicado.

La preocupación es aún mayor considerando que Argentina es uno de los países de América Latina con las estructuras institucionales más robustas en esta área. Cuenta con más recursos técnicos, capacidades operativas y fuerza política que muchos otros. En una región marcada por profundas asimetrías entre países —donde muchos carecen de marcos sólidos, personal capacitado y financiamiento adecuado para la ciberseguridad—, existe el riesgo real de que modelos autoritarios como el argentino influyan negativamente en el diseño de políticas públicas en otros Estados.

Reafirmar un enfoque en ciberseguridad basado en derechos humanos no es una aspiración técnica, sino una urgencia democrática. La protección de la privacidad, la libertad de expresión y la inclusión digital debe estar en el centro de toda política pública en la materia. Fortalecer la gobernanza democrática -con participación multisectorial, perspectiva de género y atención a las desigualdades estructurales cómo las de género- es una tarea impostergable. Solo así podremos construir resiliencia digital sin ceder las libertades que sostienen nuestras democracias.

Curso de seguridad digital: aprende a protegerte en línea

Desde Derechos Digitales presentamos un curso abierto de seguridad digital, pensado para quienes quieren fortalecer su privacidad y protegerse frente a los riesgos del entorno digital.

A través de 11 videos breves y prácticos, este curso recorre herramientas y recomendaciones esenciales: desde cómo navegar de forma segura y anónima, hasta configurar adecuadamente tus dispositivos y conocer buenas prácticas para resguardar tu información personal.

Nuestro objetivo es que cualquier persona, sin importar su nivel de conocimiento técnico, pueda incorporar hábitos y recursos que mejoren su seguridad digital cotidiana.

Revisa la playlist completa acá:

Ciberpatrullaje: cuando vigilar se justifica en nombre de la seguridad

Seguridad digital ≠ Seguridad nacional

La narrativa de seguridad ha justificado el despliegue de vigilancia digital en varios países de América Latina. En Argentina, una resolución habilitó a las fuerzas de seguridad a monitorear redes sociales y otras fuentes abiertas, incluso con inteligencia artificial, bajo criterios ambiguos que permiten investigar “cualquier delito”. En Perú, se firmaron convenios para entrenar cibersoldados, en alianza con una empresa israelí, país cuestionado por sus tecnologías de vigilancia, importando modelos de guerra digital sin debate. En Colombia, el ciberpatrullaje es una práctica oficial de la Policía Judicial para recolectar información pública, sin garantías de proporcionalidad.

Aunque se presentan como medidas para prevenir delitos, estas prácticas han sido utilizadas para vigilar, judicializar o intimidar a personas por ejercer su libertad de expresión. En Argentina, un joven fue procesado por un tuit; en Bolivia, 37 personas fueron condenadas por supuesta participación en protestas; en Brasil, una sátira sobre Bolsonaro terminó en detención; en Uruguay, un adolescente fue arrestado por error tras una confusión en redes; y en México, la Guardia Nacional usó software israelí para rastrear a críticos del ejército. Todos estos casos documentados en el informe Perfilamiento en redes sociales y ciberpatrullaje como nuevas modalidades de la vigilancia masiva desplegada por los Estados: casos relevantes en América Latina, evidencian cómo el discurso de protección ha servido para legitimar formas de vigilancia contrarias a los derechos humanos.

El caso más reciente ocurrió en Venezuela, tras las protestas por los resultados electorales, el monitoreo de redes también fue utilizado para perseguir e intimidar a manifestantes y activistas.

OSINT y ciberpatrullaje: entre la búsqueda abierta y la vigilancia encubierta

Para entender cómo se aplican hoy las prácticas de vigilancia, es necesario observar el uso de la inteligencia de fuentes abiertas (OSINT por sus siglas en inglés) y su implementación en el ciberpatrullaje. La metodología OSINT consiste en recolectar y analizar información pública, como publicaciones en redes sociales, sitios web, imágenes, videos o metadatos, con fines investigativos. Su expansión se debe a que no requiere vulnerar sistemas protegidos: todo está a la vista. Pero esa accesibilidad no implica que su uso esté libre de consecuencias.

Si bien existen usos responsables y útiles de esta herramienta como el de Trace Labs -una organización que usa OSINT en plataformas colaborativas para ayudar a encontrar personas desaparecidas bajo protocolos y fines humanitarios- este tipo de iniciativas son excepcionales.  En la mayoría de países de la región, OSINT ha sido adoptado por fuerzas de seguridad bajo el argumento de proteger a la ciudadanía o prevenir amenazas, pero en realidad se usa para vigilar y perfilar a personas críticas del poder, periodistas y activistas. El perfilamiento implica recolectar, clasificar e interpretar datos para construir hipótesis sobre una persona: qué piensa, con quién se vincula o qué podría hacer.

El ciberpatrullaje amplifica esta lógica: es la práctica estatal del monitoreo del discurso en línea (y de las personas) con técnicas OSINT, en la mayoría de las veces sin notificación, sin supervisión ni protocolos claros. Su implementación no está orientada a la identificación de personas vinculadas a causas judiciales, sino que opera de forma masiva, permitiendo el perfilamiento de individuos por sus opiniones, afiliaciones políticas o participación en espacios sociales.  Sin embargo, tanto los perfilamientos como el ciberpatrullaje pueden derivar posteriormente en la apertura de causas judiciales. En contextos de desigualdad, estas prácticas golpean con más fuerza a mujeres activistas, comunidades indígenas, personas defensoras de derechos humanos o sectores populares. ¿Qué criterios se usan?, ¿cuáles son los límites? El problema no es OSINT en sí, sino cómo, para qué y contra quién se utiliza.

El Consejo de Derechos Humanos de la ONU aprobó en 2022 el informe “Sobre el derecho a la privacidad en la era digital” que por primera vez explora las prácticas de inteligencia en redes sociales y de monitoreo del discurso en línea como nuevas modalidades de vigilancia masiva estatal. Al reconocer que son actividades que tienen serios impactos en los derechos humanos, sostiene que esta observación del espacio público es casi siempre desproporcionada. En ese sentido, recomendó a los Estados adoptar marcos legales adecuados para regular la recolección, análisis y compartición de inteligencia obtenida de redes sociales que delimite claramente los escenarios en que ésta se encuentra permitida, sus prerrequisitos, las autorizaciones y procedimientos, así como los mecanismos para garantizar su supervisión adecuada.

En la región, identificamos que es una práctica que pretende ampararse en la legalidad, pero que en realidad se despliega a partir de interpretaciones arbitrarias de ciertas facultades como la prevención del delito. Estas facultades, originalmente pensadas para otros fines, están siendo extendidas sin regulación específica al ámbito digital, incluyendo la detección temprana de delitos supuestamente vinculados a la actividad de quienes presuntamente desinforman. Este escenario genera una profunda inseguridad jurídica y un efecto amedrentador, dificultando que las personas ejerzan libremente sus derechos en línea.

¿Cómo cuidarnos frente al ciberpatrullaje?

Aunque la responsabilidad principal frente a la vigilancia digital recae tanto en los Estados como en las plataformas y empresas que permiten o ejecutan estas actividades, también es cierto que históricamente grupos de la sociedad civil hemos generado estrategias de autoprotección para sobrevivir en entornos hostiles. Protegernos significa responder con conciencia crítica y cuidado colectivo mientras exigimos marcos legales que limiten la vigilancia y garanticen nuestros derechos en línea. 

Para reducir la exposición, hay algunas acciones básicas que se pueden adoptar en las redes sociales. Por un lado, evitar el uso del nombre real completo (nombre y apellido) como nombre de usuario o nombre visible, y procurar no repetir el mismo @alias en todas las redes. También es recomendable configurar las cuentas como privadas o restringidas, de modo que solo los perfiles aprobados puedan acceder al contenido. Otra medida clave es desactivar los permisos de ubicación en los dispositivos móviles, para que las aplicaciones no puedan rastrear ni compartir los movimientos.

Cuando la idea es publicar fotos desde un lugar específico, es recomendable esperar algunas horas o días antes de subirlas, así no se revela la ubicación en tiempo real. Además, se sugiere conversar con contactos y amistades sobre la importancia de no etiquetar ni compartir datos privados sin previo consentimiento. Por otro lado, es importante considerar la selección de una foto de perfil que no sea fácilmente rastreable, ya que existen herramientas OSINT que permiten buscar imágenes en otras plataformas y vincularlas con la identidad de las personas usuarias. Por último, aceptar solo solicitudes de personas que realmente resulten conocidas, ya que muchas veces el ciberpatrullaje empieza con perfiles ficticios que buscan establecer contacto directo.

La vigilancia no es cuidar, es poner en riesgo nuestros derechos

Estas actividades se despliegan sin reglas, sin control y sin justificación pública, y eso ha permitido que se normalicen prácticas autoritarias bajo la retórica de la seguridad. En esta parte del mundo, donde muchas democracias son frágiles y la capacidad de la ciudadanía para fiscalizar al Estado es débil, el uso de estas tecnologías crece sin transparencia, sin debate público y con una preocupante opacidad.

Los Estados adquieren herramientas de monitoreo de redes sociales mientras persisten -y en algunos casos se profundizan- las barreras para acceder a información básica sobre su licitación, adquisición, funcionamiento, responsables, bases de datos involucradas y el gasto público asociado. Incluso cuando la sociedad civil ha recurrido a solicitudes de acceso a la información, muchas autoridades se amparan en argumentos de seguridad nacional para obstaculizar el escrutinio democrático.

¿Con qué criterios se decide comprar tecnologías a empresas extranjeras como las israelíes, cuestionadas internacionalmente por su papel en la vigilancia masiva?

Proteger no puede seguir siendo un argumento aceptable para la vigilancia masiva, mientras la ciudadanía, la misma a la que supuestamente se quiere cuidar, se siente más vigilada que segura. Estas prácticas suponen riesgos concretos para la libertad de expresión -especialmente en contextos de protesta social o frente a discursos críticos o incómodos- al generar estigmatización, autocensura e incluso incitación a la violencia contra quienes son catalogadas como opositoras. A la luz de los casos expuestos, queda claro que la vigilancia no es protección: es poder sin control.

Debe ratificarse la inocencia de Ola Bini

DECLARACIÓN TÉCNICA

En el marco de RightsCon Taipéi-2025 la Misión de Observación del caso Ola Bini y Tor Project organizaron una sesión virtual para analizar el proceso seguido contra el experto informático en Ecuador y abordar en qué medida y con qué implicancias se está criminalizando el uso de la herramienta digital Tor.1 En dicha sesión, donde participaron organizaciones y ponentes de sociedad civil de diversos países, se llegó a las siguientes conclusiones y consensos técnicos:

  1. El caso penal contra Bini fue iniciado por motivaciones y actores políticos, y ha sido atravesado por decenas de irregularidades e ilegalidades que afectan su legitimidad jurídica y viabilidad técnica. Antes que un caso penal, estamos frente a una persecución.
  1. La forma de establecer los elementos de convicción del caso genera un peligroso antecedente para la vigencia de los derechos digitales y el conocimiento experto en el ámbito digital en Ecuador y la región. 
  1. La construcción del caso y los elementos presentados como evidencias por parte de la Fiscalía General del Estado (FGE) ecuatoriana están atravesados por graves distorsiones procesales y/o por gruesos errores técnicos en la materia.2
  1. Adicionalmente, para dar cuenta del delito supuestamente investigado la FGE ni siquiera ha requerido de una pericia digital forense que dé cuenta del cometimiento de un potencial acceso no consentido a algún tipo de sistema (sea informático, telemático o de telecomunicaciones).
  1. La argumentación usada por el Tribunal de Apelación, para justificar su sentencia de condena, carece de elementos suficientes que demuestren que Ola Bini cometió el delito imputado. Esto, además de violar los derechos del experto informático, crea antecedentes de arbitrariedad que son riesgosos para el Estado de Derechos.3
  1. Más en concreto, producto de la sentencia condenatoria parte de la justicia ecuatoriana está generando un precedente preocupante para el ejercicio de los derechos a la seguridad y privacidad en línea, al sostener que el mero uso de la herramienta Tor es un indicio suficiente para demostrar el cometimiento de una conducta criminal. 
  1. Además, al contrario de la tendencia que debe primar globalmente, esta sentencia incluso puede inspirar a las cortes a criminalizar el uso de otras herramientas digitales utilizadas para la defensa de los derechos humanos en internet, como es el caso de las VPNs, particularmente útiles para actores clave -como periodistas, defensores de derechos humanos, académicos y otros- en contextos políticos autoritarios. 
  1. Alrededor del mundo, millones de personas, incluidas agencias estatales de seguridad utilizan Tor para desarrollar sus actividades.4 En este marco, si bien el uso de Tor no es materia central de análisis del presente caso, la sentencia condenatoria actual, que forma parte de un proceso motivado políticamente y que carece de sustentos técnicos, constituye una interpretación judicial que puede tener impacto en la garantía del ejercicio de los derechos previamente mencionados

Por lo expuesto, y a 6 años del inicio del caso de referencia, las organizaciones de sociedad civil firmantes demandamos a las autoridades judiciales ecuatorianas correspondientes ratificar el estado de inocencia de Bini en la instancia procesal oportuna, tal como se demostró en primera instancia.

La Misión de Observación seguirá monitoreando el desarrollo del caso hasta su culminación, con el fin de asegurar el cumplimiento de las garantías de debido proceso y alertar sobre las implicancias de este para la vigencia de los derechos digitales.

FIRMANTES

Access Now

ARTICLE 19

Association for Progressive Communications (APC)

Asociación de Software Libre del Ecuador (ASLE)

Brasil de Fato

Comité Permanente por la Defensa de los Derechos Humanos (CDH)

CSMM

Derechos Digitales

Ecuador Today

Electronic Frontier Foundation

FUNDACIÓN Acceso

Fundación Karisma

Indymedia Ecuador

INREDH

intervozes brasil

LaLibre

Marcha

Observatorio Derechos y Justicia

Tor


La IA y los nuevos riesgos para la privacidad

La inteligencia artificial (IA) es mucho más que los sistemas de chat que se popularizaron desde inicios de esta década. Si bien ahora se está viviendo el boom de esta tecnología, no hay que olvidar que la IA es una rama de las ciencias de la Computación que ha estado presente desde sus inicios. En el pasado, existieron hitos importantes en relación a esto. Por ejemplo, en el año 1997 la computadora Deep Blue, creada por IBM, fue capaz de vencer en ajedrez al entonces campeón del mundo Gary Kasparov. También, hace poco menos de 10 años, el software Alpha Go de Google logró ganarle a varios campeones internacionales del juego de estrategia Go.

El boom que se vive en la actualidad tiene que ver principalmente con los modelos grandes de lenguaje (LLM por sus siglas en inglés). Se trata de un programa de la IA que permite tener aplicaciones con las cuales nos podemos comunicar de forma natural como si estuviéramos hablando con personas. Para que estos sistemas puedan tener una conversación con humanos se los debe entrenar con cantidades extraordinarias de datos y además se requiere de mucha capacidad de cómputo.

Dime qué datos utilizas y te diré quién eres

Si se piensa en los LLM desde una perspectiva de privacidad, lo primero que nos deberíamos preguntar es ¿de dónde salen los datos que entrenan el modelo? Según OpenAI, utilizan 3 fuentes para entrenar los modelos de ChatGPT: información pública, información compartida por socios e información provista por humanos.

En la primera opción, se puede pensar en la internet pública con sitios como Wikipedia, Github, Archivo de internet y otras similares. Desde un punto de vista de privacidad, esta información está públicamente accesible y se puso a disposición con la intención de compartir conocimiento libremente. Se podría decir que entrenar LLM con esta información, haría más accesible el conocimiento a la mayoría de la gente.

Pero este no es el caso para todos los sitios web. Existen casos como las redes sociales, donde las personas -por error- pudieron haber publicado información personal sin intención y esta se hizo pública. Incluso se podría haber subido contenido con el propósito de que sea accesible para el público, pero no necesariamente para entrenar modelos de inteligencia artificial.  Evidentemente, hay problemas relacionados con derechos de autor, pero en esta columna no nos vamos a detener en esa cuestión.

En el segundo caso, no es claro cuáles son los socios que proveen información a OpenAI. En su página web mencionan una colaboración con al gobierno de Islandia para mejorar el soporte del idioma islandés, y también hablan de colaborar con la organización Free Law Project. Sin embargo, no queda claro con qué otros grupos hacen alianzas para la provisión de datos.

Desde el punto de vista económico, el principal aliado de OpenAI es Microsoft. Una empresa que en 2023 realizó un acuerdo de 10 mil millones de dólares con OpenAI por varios años, y que incluye el uso de la infraestructura Azure. Esta infraestructura es la “nube” que oferta Microsoft para que terceros puedan ejecutar sus aplicaciones. En este caso, Azure es la principal infraestructura de ChatGPT y otros productos de OpenAI.

¿Será que OpenAI utiliza información de las aplicaciones de Microsoft como Bing, Outlook, Office 360, entre otros? ¿Estará Microsoft entregando información personal de sus usuarios para entrenar al ChatGPT? No hay forma de saberlo, salvo que se haga una auditoría y se transparente la forma en la que OpenAI entrena sus modelos.

Si pensamos en las otras empresas líderes como Google con Gemini, Meta con MetaAI o X con Grok, podemos, al menos, sospechar que utilizan los datos de sus sistemas para entrenar sus modelos grandes de lenguaje. Todas estas empresas tienen algo en común, muchos datos y gran capacidad de procesamiento de información, lo que las pone en la élite de la IA.

Nube y privacidad: malos amigos

Ya se analizó la privacidad al momento de entrenar los modelos LLM. Ahora bien, ¿qué pasa con nuestra privacidad al utilizar estos chat bots? El principal problema que se presenta al utilizar estas herramientas de IA es que se encuentran en la nube, a quien le entregamos todos nuestros datos.

Si se utiliza la IA para que nos responda nuestras preguntas cotidianas, estas preguntas se asocian a nuestro perfil y sirven para perfilarnos como individuos. Si se usa la IA para que resuma una llamada de Zoom, entonces estamos entregando la transcripción de la conversación y el resumen a la plataforma. Si la utilizamos para escribir un correo electrónico, entonces el sistema que lo redacta tendrá el contenido de nuestro correo. Si le pedimos que nos sintetice un documento confidencial, le servimos en bandeja esa información. Toda esta interacción servirá para entrenar los futuros modelos de lenguaje. En teoría, gente con la capacidad de hacer las preguntas correctas a la IA podría extraer información de nuestros archivos confidenciales.

Por otra parte, el uso de IA en aplicaciones de chat cifrado también resulta un problema muy grave para la privacidad de la ciudadanía. El cifrado extremo a extremo protege nuestras comunicaciones para que nadie, excepto las personas que participan en la misma, las pueda leer. Un adversario particularmente importante del cual nos protege este tipo de cifrado es el proveedor del servicio. Si se piensa en WhatsApp, entonces su cifrado nos debe proteger para que WhatsApp no lea nuestras conversaciones. Sin embargo, desde algún tiempo atrás tenemos entre nuestros contactos al bot de @MetaAI. A este bot lo podemos invocar desde cualquier conversación para hacerle consultas. Cuando eso sucede, el cifrado extremo a extremo pierde su valor ya que Meta debe leer nuestras conversaciones para interactuar.

En general, los problemas de privacidad de la IA están asociados a la utilización de plataformas en “la nube”. En otras columnas, hemos visto algunos ejemplos del uso de infraestructura propia con software libre para poder tener una oficina virtual, sistemas de videoconferencia seguras, incluso instancias de redes sociales descentralizadas como el Fediverso.  ¿Se puede hacer lo mismo con la inteligencia artificial?

La respuesta es sí, y de hecho existen varios LLMs que se pueden utilizar sin costo y de forma local o incluso en infraestructura propia. A diferencia de sistemas como una nube propia o sistemas de chat seguro, con inteligencia artificial se va a necesitar mayor capacidad de cómputo o versiones más pequeñas de los LLM. Al usar modelos más cortos, probablemente no sirvan para preguntar cualquier cosa, pero sí podrían ser muy útiles para tener un bot con un propósito específico. Por ejemplo, para resumir documentos confidenciales o traducir textos.

IA al servicio de las personas, no de las corporaciones

En nuestros días, es común que la gente utilice IA para apoyarse en sus tareas cotidianas y, seguramente, en el futuro esta herramienta se usará aún más. Es sumamente importante que como sociedad podamos reflexionar acerca de los propósitos para los cuales se seguirá utilizando la IA y los riesgos que eso trae aparejado. No es lo mismo recurrir a ella para traducir un documento público, redactar un correo electrónico o resumir un documento confidencial. Habrá casos en los que se pueda considerar aceptable utilizar IA a cambio de sacrificar la privacidad y habrá otros en los que no.

La autonomía en la IA es algo que la sociedad debe explorar. Para tareas y actividades donde se trabaja sobre información sensible, tener un sistema tecnológico que no reporte esa información a terceros sería una herramienta muy poderosa. Incluso varias organizaciones podrían unirse entre sí para compartir infraestructura y poder ejecutar colectivamente mejores modelos de lenguaje. Las regulaciones sobre esta herramienta tecnológica deben velar por el respeto de nuestra privacidad, nuestros datos y nuestra información. Solo de esa forma podremos imaginar un futuro digital seguro para todas y todos.

El Festival Latinoamericano de Instalación de Software Libre cumple 20 años y se renuevan los desafíos

El 2005 fue un año de cambios, a solo unos meses de la primera edición del Software Freedom Day (Día de la libertad de software) y a un año y medio del primer Festival de Instalación de Software Libre Colibrí (FISLC) en Colombia, un grupo de apasionados y apasionadas por la cultura abierta celebraron el 2 de abril la primera edición del Flisol que superó las expectativas de sus impulsores. La propia imagen del Festival representó la intención de unión regional que fue, sin duda, el resultado alcanzado: se celebró en más de 100 ciudades de 13 países de forma simultánea.

A veces, pareciera que los efectos a largo plazo son los que menos se ven y aprecian. Así fue que luego de una primera edición exitosa de Flisol, con muchos países fortaleciendo comunidades tecnológicas, organizándose y encontrándose para hablar de libertad, comenzaron a gestarse cambios importantes como políticas nacionales que implementan software libre desde el Estado o la activa contribución de nuevos miembros a proyectos de código abierto.

Mandrake (que después pasó a llamarse Mandriva) fue el sistema operativo que se instaló en los inicios del festival representando grandes desafíos y requiriendo de mucho tiempo de preparación antes de tener los CDs instalables que se preparaban uno a uno. Era un momento de la historia en que “quemar” discos parecía una misión a la Luna dadas las condiciones de infraestructura tecnológica y calidad de conexión a Internet, una época en que la comunicación era mucho más lenta, los medios de difusión eran listas de correo, los mensajes de texto eran escasos, las redes sociales y el mundo del streaming que hoy conocemos no habían dado sus primeros pasos aún.

En la actualidad, el Flisol se celebra en más de 200 ciudades, lo que da cuenta de una expansión territorial importante: en relación a los inicios duplicó la cantidad de lugares donde se realiza.  Si bien en su mayoría son espacios de América Latina, poco a poco la comunidad lo va llevando a otras latitudes del mundo.

Además, este evento se ha ido adaptando a lo largo de los años. Por ejemplo en 2008, cuando la comunidad acordó el cuarto sábado de abril como la fecha oficial de este evento; hasta el desafío que representó la pandemia en 2020 y la realización del festival en modalidad virtual. Incluso la velocidad con la que la tecnología ha traído facilidades y nuevos retos, moldeando así la conferencia actual y promoviendo activamente el software libre.

Y quién diría que lo mismo que facilita el alcance y difusión del festival sería también aquello que dificulta prácticas más libres y soberanas cuando de tecnologías se trata. Desde 2013, luego de las revelaciones Snowden, el mundo quedó sacudido por la sorpresa, la incertidumbre, la duda e incluso la incredulidad frente a la vigilancia gubernamental y nuestra falta de privacidad. En los años siguientes, se daría cuenta de lo que ocurre tras bastidores en los servicios que utilizamos  en Internet, desde redes sociales hasta plataformas que facilitan miles de operaciones diarias. Ante esto, el software libre surgió como una solución a la incertidumbre, promoviendo la  soberanía tecnológica y un código abierto que cualquier persona técnica puede auditar. Un modelo que prioriza libertades fundamentales que contribuyan a la construcción de un entorno informado para la toma de decisiones y las elecciones sobre qué herramientas usar. Especialmente en América Latina, donde las libertades han costado tanto a lo largo de los siglos, este enfoquedemocrático de la tecnología se presenta cada vez más como un ideal necesario.

El Flisol pasó de ser un evento que solo aspiraba llegar a la comunidad de Software Libre a ser una convocatoria de mayor alcance, que busca atraer a nuevos públicos para interpelarlos y presentarles la filosofía de la cultura libre. Los medios digitales han facilitado la comunicación, pasando de listas de correos a publicaciones en redes sociales. Además, se han realizado aspiraciones iniciales de los promotores del Festival en 2006, con transmisiones en vivo de los eventos, permitiendo llegar a quienes no habían podido asistir de forma presencial. Estas transmisiones, utilizando herramientas libres y gestionadas por la comunidad, se convirtieron  en 2020, debido a la pandemia, en el único medio de realización y participación.

Transmisiones y publicidades digitales cumplieron el anhelo del activismo por celebrar su edición del festival en un contexto sanitario sumamente difícil. Esto sin duda tuvo un alto impacto en la logística y los componentes que caracterizaron por más de una década a los encuentros presenciales. Así, el Install Fest no se pudo realizar, y los eventos se transformaron en charlas virtuales ofrecidas por activistas, académicos y apasionados por la filosofía del Flisol.

En adelante, y considerando la facilidad con la que se instala software y sistemas operativos, se han priorizado charlas, talleres, paneles, demostraciones y otras dinámicas que buscan sembrar curiosidad en quienes asisten. La comunidad tecnológica que se reunía para organizar Flisol encontró otras formas de interacción y de fortalecer lazos a lo largo del año previo a cada edición.

Hoy, como hace 20 años, se sigue celebrando Flisol. La fecha oficial sigue siendo el cuarto sábado de abril, sin embargo la comunidad puede decidir su propia fecha en función a características propias de cada sede. Sigue existiendo una figura de Coordinación Nacional, pero cada localidad decide y gestiona detalles específicos de su evento, sin dejar de lado la práctica de compartir recursos como diseños gráficos y, por supuesto, la wiki oficial del festival que se ha mantenido desde 2006 y que aloja la historia de 20 años de organización, celebración y trabajo conjunto y comunitario.

La 21va edición del Flisol, que se celebrará el próximo sábado 26 de abril, muestra grandes cambios comparada con las ediciones del 2005 o 2011. Pero la emoción, el compromiso y la alegría siguen uniendo al creciente movimiento que retomó la presencialidad de sus eventos durante 2022. El objetivo se mantiene intacto: compartir en comunidad y hacer frente a las desigualdades y sesgos facilitados por la tecnología. Formar criterio e intercambiar experiencias entre activistas, estudiantes y todas las personas ávidas de conocimiento sobre cómo Internet y sus derivados pueden comprometer tanto la privacidad individual como la colectiva, en un ecosistema dominado por gigantes tecnológicos que aguardan por nuestras vulnerabilidades. Te invitamos a contribuir a esta importante conversación y a tomar acción para un futuro digital más libre y seguro.

Ciberseguridad en América Latina: Estrategia nacionales en 2024

Este informe da cuenta de las políticas y estrategias nacionales de ciberseguridad en América Latina, identificando los puntos comunes y desafíos que persisten en su implementación. El documento muestra la diversidad de enfoques que existen en la región y destaca la urgencia para generar mayor colaboración internacional, fortalecer las capacidades locales y alinear las estrategias nacionales con los estándares internacionales.