Ciberpatrullaje: cuando vigilar se justifica en nombre de la seguridad

Seguridad digital ≠ Seguridad nacional

La narrativa de seguridad ha justificado el despliegue de vigilancia digital en varios países de América Latina. En Argentina, una resolución habilitó a las fuerzas de seguridad a monitorear redes sociales y otras fuentes abiertas, incluso con inteligencia artificial, bajo criterios ambiguos que permiten investigar “cualquier delito”. En Perú, se firmaron convenios para entrenar cibersoldados, en alianza con una empresa israelí, país cuestionado por sus tecnologías de vigilancia, importando modelos de guerra digital sin debate. En Colombia, el ciberpatrullaje es una práctica oficial de la Policía Judicial para recolectar información pública, sin garantías de proporcionalidad.

Aunque se presentan como medidas para prevenir delitos, estas prácticas han sido utilizadas para vigilar, judicializar o intimidar a personas por ejercer su libertad de expresión. En Argentina, un joven fue procesado por un tuit; en Bolivia, 37 personas fueron condenadas por supuesta participación en protestas; en Brasil, una sátira sobre Bolsonaro terminó en detención; en Uruguay, un adolescente fue arrestado por error tras una confusión en redes; y en México, la Guardia Nacional usó software israelí para rastrear a críticos del ejército. Todos estos casos documentados en el informe Perfilamiento en redes sociales y ciberpatrullaje como nuevas modalidades de la vigilancia masiva desplegada por los Estados: casos relevantes en América Latina, evidencian cómo el discurso de protección ha servido para legitimar formas de vigilancia contrarias a los derechos humanos.

El caso más reciente ocurrió en Venezuela, tras las protestas por los resultados electorales, el monitoreo de redes también fue utilizado para perseguir e intimidar a manifestantes y activistas.

OSINT y ciberpatrullaje: entre la búsqueda abierta y la vigilancia encubierta

Para entender cómo se aplican hoy las prácticas de vigilancia, es necesario observar el uso de la inteligencia de fuentes abiertas (OSINT por sus siglas en inglés) y su implementación en el ciberpatrullaje. La metodología OSINT consiste en recolectar y analizar información pública, como publicaciones en redes sociales, sitios web, imágenes, videos o metadatos, con fines investigativos. Su expansión se debe a que no requiere vulnerar sistemas protegidos: todo está a la vista. Pero esa accesibilidad no implica que su uso esté libre de consecuencias.

Si bien existen usos responsables y útiles de esta herramienta como el de Trace Labs -una organización que usa OSINT en plataformas colaborativas para ayudar a encontrar personas desaparecidas bajo protocolos y fines humanitarios- este tipo de iniciativas son excepcionales.  En la mayoría de países de la región, OSINT ha sido adoptado por fuerzas de seguridad bajo el argumento de proteger a la ciudadanía o prevenir amenazas, pero en realidad se usa para vigilar y perfilar a personas críticas del poder, periodistas y activistas. El perfilamiento implica recolectar, clasificar e interpretar datos para construir hipótesis sobre una persona: qué piensa, con quién se vincula o qué podría hacer.

El ciberpatrullaje amplifica esta lógica: es la práctica estatal del monitoreo del discurso en línea (y de las personas) con técnicas OSINT, en la mayoría de las veces sin notificación, sin supervisión ni protocolos claros. Su implementación no está orientada a la identificación de personas vinculadas a causas judiciales, sino que opera de forma masiva, permitiendo el perfilamiento de individuos por sus opiniones, afiliaciones políticas o participación en espacios sociales.  Sin embargo, tanto los perfilamientos como el ciberpatrullaje pueden derivar posteriormente en la apertura de causas judiciales. En contextos de desigualdad, estas prácticas golpean con más fuerza a mujeres activistas, comunidades indígenas, personas defensoras de derechos humanos o sectores populares. ¿Qué criterios se usan?, ¿cuáles son los límites? El problema no es OSINT en sí, sino cómo, para qué y contra quién se utiliza.

El Consejo de Derechos Humanos de la ONU aprobó en 2022 el informe “Sobre el derecho a la privacidad en la era digital” que por primera vez explora las prácticas de inteligencia en redes sociales y de monitoreo del discurso en línea como nuevas modalidades de vigilancia masiva estatal. Al reconocer que son actividades que tienen serios impactos en los derechos humanos, sostiene que esta observación del espacio público es casi siempre desproporcionada. En ese sentido, recomendó a los Estados adoptar marcos legales adecuados para regular la recolección, análisis y compartición de inteligencia obtenida de redes sociales que delimite claramente los escenarios en que ésta se encuentra permitida, sus prerrequisitos, las autorizaciones y procedimientos, así como los mecanismos para garantizar su supervisión adecuada.

En la región, identificamos que es una práctica que pretende ampararse en la legalidad, pero que en realidad se despliega a partir de interpretaciones arbitrarias de ciertas facultades como la prevención del delito. Estas facultades, originalmente pensadas para otros fines, están siendo extendidas sin regulación específica al ámbito digital, incluyendo la detección temprana de delitos supuestamente vinculados a la actividad de quienes presuntamente desinforman. Este escenario genera una profunda inseguridad jurídica y un efecto amedrentador, dificultando que las personas ejerzan libremente sus derechos en línea.

¿Cómo cuidarnos frente al ciberpatrullaje?

Aunque la responsabilidad principal frente a la vigilancia digital recae tanto en los Estados como en las plataformas y empresas que permiten o ejecutan estas actividades, también es cierto que históricamente grupos de la sociedad civil hemos generado estrategias de autoprotección para sobrevivir en entornos hostiles. Protegernos significa responder con conciencia crítica y cuidado colectivo mientras exigimos marcos legales que limiten la vigilancia y garanticen nuestros derechos en línea. 

Para reducir la exposición, hay algunas acciones básicas que se pueden adoptar en las redes sociales. Por un lado, evitar el uso del nombre real completo (nombre y apellido) como nombre de usuario o nombre visible, y procurar no repetir el mismo @alias en todas las redes. También es recomendable configurar las cuentas como privadas o restringidas, de modo que solo los perfiles aprobados puedan acceder al contenido. Otra medida clave es desactivar los permisos de ubicación en los dispositivos móviles, para que las aplicaciones no puedan rastrear ni compartir los movimientos.

Cuando la idea es publicar fotos desde un lugar específico, es recomendable esperar algunas horas o días antes de subirlas, así no se revela la ubicación en tiempo real. Además, se sugiere conversar con contactos y amistades sobre la importancia de no etiquetar ni compartir datos privados sin previo consentimiento. Por otro lado, es importante considerar la selección de una foto de perfil que no sea fácilmente rastreable, ya que existen herramientas OSINT que permiten buscar imágenes en otras plataformas y vincularlas con la identidad de las personas usuarias. Por último, aceptar solo solicitudes de personas que realmente resulten conocidas, ya que muchas veces el ciberpatrullaje empieza con perfiles ficticios que buscan establecer contacto directo.

La vigilancia no es cuidar, es poner en riesgo nuestros derechos

Estas actividades se despliegan sin reglas, sin control y sin justificación pública, y eso ha permitido que se normalicen prácticas autoritarias bajo la retórica de la seguridad. En esta parte del mundo, donde muchas democracias son frágiles y la capacidad de la ciudadanía para fiscalizar al Estado es débil, el uso de estas tecnologías crece sin transparencia, sin debate público y con una preocupante opacidad.

Los Estados adquieren herramientas de monitoreo de redes sociales mientras persisten -y en algunos casos se profundizan- las barreras para acceder a información básica sobre su licitación, adquisición, funcionamiento, responsables, bases de datos involucradas y el gasto público asociado. Incluso cuando la sociedad civil ha recurrido a solicitudes de acceso a la información, muchas autoridades se amparan en argumentos de seguridad nacional para obstaculizar el escrutinio democrático.

¿Con qué criterios se decide comprar tecnologías a empresas extranjeras como las israelíes, cuestionadas internacionalmente por su papel en la vigilancia masiva?

Proteger no puede seguir siendo un argumento aceptable para la vigilancia masiva, mientras la ciudadanía, la misma a la que supuestamente se quiere cuidar, se siente más vigilada que segura. Estas prácticas suponen riesgos concretos para la libertad de expresión -especialmente en contextos de protesta social o frente a discursos críticos o incómodos- al generar estigmatización, autocensura e incluso incitación a la violencia contra quienes son catalogadas como opositoras. A la luz de los casos expuestos, queda claro que la vigilancia no es protección: es poder sin control.

Por un trabajo digno en la era de los algoritmos

El legado del primero de mayo en el entorno digital latinoamericano

Cada Primero de Mayo, el mundo conmemora la histórica lucha por los derechos laborales, recordando las demandas por derechos como una jornada justa, salarios dignos y condiciones de trabajo seguras. Esta fecha, arraigada en las movilizaciones obreras del siglo XIX, nos invita a reflexionar sobre el estado actual del mercado laboral y los desafíos que aún persisten, especialmente en un contexto global marcado por la rápida incidencia de las tecnologías digitales.

El mercado laboral latinoamericano, si bien diverso en sus matices nacionales, comparte desafíos comunes en cuanto a la protección de los derechos laborales. La persistencia de la informalidad –promediando casi la mitad de la población empleada en la región– continúa erosionando la capacidad de las personas trabajadoras para acceder a protecciones básicas como seguridad social, vacaciones pagadas y estabilidad en el empleo. En este escenario, la promesa de flexibilidad y autonomía ofrecida por las plataformas digitales de trabajo bajo demanda ha encontrado un terreno fértil para su expansión, presentando alternativas prácticas de generación de ingresos para poblaciones en situación de vulnerabilidad. Sin embargo, como exploramos en nuestra columna sobre la «paradoja de la flexibilidad», esta aparente libertad a menudo enmascara una realidad de precariedad, inestabilidad y una creciente dependencia de sistemas de gestión algorítmica opacos.

Invito a reflexionar con lo siguiente: imagine que su teléfono vibra con una notificación fría e impersonal, «Su cuenta ha sido suspendida por violar los términos y condiciones». Intenta recordar qué pudo haber hecho mal, repasa mentalmente las extensas cláusulas que quizás leyó por encima al registrarse, pero la razón específica se escurre entre la ambigüedad del mensaje. Intenta apelar, buscar una explicación humana, pero se topa con respuestas automatizadas que no llevan a ningún lado. Su fuente de ingresos se ha cortado totalmente de un momento a otro. Este escenario no es hipotético para quienes dependen de plataformas y para quienes la suspensión de una cuenta significa quedarse sin sustento. Para otras personas quizás sea una herramienta para complementar ingresos o manejar sus horarios; pero para muchas en nuestra región, especialmente para quienes encuentran en estas plataformas su única oportunidad laboral, la realidad es muy distinta. Mientras algunas personas pueden elegir cuándo y cómo trabajar, otras se ven atrapadas en la urgencia de aceptar cualquier tarea disponible –sin margen para negociar o rechazar–, en labores que exigen menor calificación. ¿Estamos hablando entonces de una fuente de trabajo flexible, o una nueva forma de vulnerabilidad laboral?

Es tiempo de ponerle reglas al algoritmo

La irrupción de tecnologías como los algoritmos, las plataformas digitales y la inteligencia artificial en el ámbito laboral plantea tanto oportunidades como desafíos sin precedentes para los derechos de las personas trabajadoras. Por un lado, se argumenta que la automatización tiene el potencial de liberar de tareas repetitivas (como la revisión de códigos) o riesgosas (como ciertos controles médicos), o que impulsará la productividad, abriendo nuevas opciones de empleo en sectores emergentes. Sin embargo, en diversos sectores desde la manufactura hasta los servicios, los algoritmos gestionan tareas, evalúan el desempeño, asignan trabajos o tarifas e incluso toman decisiones sobre la contratación y el despido.

Esto conlleva a que estas mismas tecnologías pueden exacerbar las vulnerabilidades existentes. Facilitan nuevas formas de explotación, vigilancia y control, especialmente en sectores carentes de regulación adecuada y alta informalidad como el reparto de mercaderías o el servicio doméstico. En estos rubros aquellas problemáticas pueden verse profundizadas, ya que es común ver a su fuerza de trabajo sumergida en una narrativa que ni siquiera la reconoce como persona trabajadora. Los mecanismos de vigilancia y monitoreo regidos por algoritmos a menudo carecen de transparencia y rendición de cuentas, lo cual somete a trabajadoras y trabajadores a la presión constante de aceptar cada solicitud. Incluso, les obliga a aceptar en condiciones de peligro, como cuando implica cargar mercancías pesadas que ponen en riesgo la integridad de sus vehículos o cuando han sido víctimas de maltrato por parte de locatarios o clientes. Se acepta cualquier pedido por el temor a que el incumplimiento derive en la suspensión o bloqueo de su fuente de ingresos, sin mecanismos claros para comprender la decisión o revertirla.

Las cuentas pendientes en este nuevo panorama laboral son significativas: ¿Cuántas decisiones injustas se toman hoy sin que la persona trabajadora pueda cuestionarlas o comprender sus razones? Una regulación efectiva es ineludible para que la tecnología potencie el trabajo respetando derechos, pero no basta con leyes: debe incluir la participación de personas trabajadoras en el diseño de estas herramientas. Se requiere abordar la clasificación de los vínculos entre empresas y personas en plataformas, además de garantizar transparencia y mecanismos de auditoría independiente. Se requiere rendición de cuentas ante las autoridades para evitar discriminación e injusticias, y priorizar la protección de datos personales ante la vigilancia intrusiva y la toma de decisiones automatizadas que perjudican a las personas trabajadoras. 

En este Día Internacional de las Trabajadoras y Trabajadores, el llamado a la defensa de los derechos humanos en el ámbito digital resuena con fuerza. La flexibilidad no puede venir a cualquier costo:  las promesas de progreso tecnológico no deben traducirse en un agravamiento de las condiciones de trabajo y una erosión de los derechos históricamente conquistados. Es imperativo que las tecnologías digitales se desarrollen y utilicen con un enfoque centrado en las personas, aplicando un respaldo de derechos laborales y garantizando un futuro laboral justo, equitativo y digno en América Latina. La lucha por el trabajo decente en la era digital es la continuación de la batalla histórica por la justicia social, y en este Primero de Mayo, reafirmamos nuestro compromiso con esa causa.

Del miedo al autocuidado digital: derechos digitales para niñas en las TIC

¿Alguna vez te has sentido confundida al escuchar cómo las grandes corporaciones usan nuestros datos? ¿O te ha pasado que alguien te diga “no tengo nada que ocultar, así que no me importa lo que sepan de mí”? Proteger nuestra privacidad y seguridad digital no se trata solo de ocultar información, sino más bien de ejercer el derecho a decidir qué compartimos, con quién, cuándo, dónde y para qué, conociendo los riesgos y sin tener miedo a represalias.

Hoy más que nunca, en un mundo cada vez más digitalizado, necesitamos reflexionar sobre nuestro rol como mujeres usuarias, creadoras y defensoras de un entorno virtual más seguro. Repasar nuestras trayectorias de cuando éramos más pequeñas, y ver también cómo viven hoy las infancias su vínculo con las tecnologías. Y qué mejor fecha para reflexionar al respecto que el 24 de abril: Día Internacional de las Niñas en las Tecnologías de la Información y la Comunicación (TIC). Esta efeméride, impulsada por la Unión Internacional de Telecomunicaciones (UIT) desde 2011, busca generar espacios que inspiren a niñas y adolescentes a explorar el mundo de la tecnología, no solo como consumidoras, sino como protagonistas de su transformación.

A pesar de estar viviendo en una era hiperconectada, el acceso, la participación y la representación en el ámbito digital siguen denotando profundas desigualdades de género. En el reporte de la UNESCO sobre STEM y género se menciona que solo el 35% de quienes estudian estos temas son mujeres y que menos del 30% de quienes ocupan puestos de investigación en ciencia son mujeres. Además, las mujeres ocupan apenas el 22% de los empleos en inteligencia artificial, uno de los sectores con mayor crecimiento y proyección a futuro. Según el reporte “Las mujeres en ciencias, tecnología, ingeniería y matemáticas en América Latina y el Caribe” de ONU Mujeres, esto responde a múltiples factores, como desde edades tempranas niñas y adolescentes enfrentan estereotipos de género; por ejemplo, 9 de cada 10 niñas entre 6 y 8 años asocian las matemáticas, la programación y/o la ingeniería con habilidades masculinas, lo que afecta directamente su confianza para explorar estas áreas.

Muchas mujeres hemos crecido con la sensación de que la tecnología no está hecha para nosotras y nos sentimos ajenas a un mundo dominado por figuras masculinas, lenguajes técnicos inaccesibles y espacios que rara vez se preocupan por incluir otras voces. Para mujeres, niñas y diversidades, entender cómo proteger nuestros datos, cómo navegar con conciencia y cómo evitar riesgos en línea es una forma de resistencia frente a las violencias digitales, la vigilancia y la exclusión. Estas habilidades pueden parecer pequeñas, pero marcan una gran diferencia en la forma en que habitamos lo digital. Dejar de lado el miedo paralizante y reemplazarlo por curiosidad, información y práctica, es uno de los pasos más potentes hacia una resiliencia digital.

Los riesgos digitales para niñas y mujeres jóvenes incluyen la exposición a contenidos violentos o inapropiados, que pueden afectar su salud mental y emocional; el contacto con personas peligrosas, como depredadores que se hacen pasar por amigos o pares; y la inseguridad digital, que desalienta a muchas niñas a participar activamente en tecnología y limita su desarrollo profesional. Por eso, es esencial enseñar y promover conocimientos de auto cuidado digital, como lo hace la guía de cuidados básicos Security in a Box que nos enseña a usar contraseñas seguras y distintas. Verificar siempre con quién se está hablando, utilizar herramientas de protección. La guía Mozilla Privacy not Included sobre el nivel de privacidad y seguridad de distintos dispositivos y aplicaciones del mercado también es de mucha utilidad. Y por último, y no por eso menos importante, pedir ayuda cuando algo incomoda: eso también es cuidarse.

Nunca más una tecnología sin nosotras

Incluir a niñas y mujeres jóvenes en las TIC más allá de un rol de usuarias no es solo una cuestión de números, sino de transformaciones profundas. El actual modelo de desarrollo tecnológico tiende a reproducir desigualdades, mientras no haya diversidad y perspectiva de género en las personas que diseñan estas tecnologías, corremos el riesgo de que los productos que usamos todos los días (desde apps hasta sistemas de inteligencia artificial) perpetúen sesgos, invisibilicen necesidades específicas y vulneren derechos.

La subrepresentación femenina en estos campos ha sido una de las razones por las cuales muchas no nos hemos animado a entrar en este mundo. Probablemente no conozcamos de mujeres en estos campos hasta que estamos muy dentro. Reconocer historias como las de Ada Lovelace, Reshma Saujani, María Emilia Alcalde, Yordanos Genanaw o Meredith Whittaker es fundamental para derribar el mito de que “las mujeres no son aptas para la tecnología”. Ellas son solo algunas referentas en las tecnologías, pero la lista puede ser mucho más larga. En efecto, recientemente con motivo del 8M Derechos Digitales lanzó una campaña en redes visibilizando a mujeres que han transformado el mundo digital bajo la consigna: ¡La tecnología y el espacio digital no es lo que sería hoy sin nosotras!

Y entonces asoma la pregunta que tanto incomoda, pero que nos interpela directamente: ¿qué podemos hacer todas nosotras desde donde estamos para achicar la brecha de género digital? Podemos fomentar la alfabetización digital con enfoque de género en centros educativos y comunidades. Debemos exigir políticas públicas que garanticen el acceso equitativo a internet y formación TIC. Acompañar la creación de espacios de mentoría entre mujeres que ya están en el sector y nuevas generaciones. Visibilizar referentas femeninas en tecnología desde la infancia. Y, fundamentalmente, promover leyes y marcos normativos que garanticen la seguridad digital, el derecho a la privacidad y el acceso libre y ético a la información para todas las mujeres y niñas del mundo.

Para poder acompañar ese proceso de fortalecimiento de derechos digitales en niñas y mujeres, existen herramientas útiles de organizaciones sensibles con estos temas para empezar desde temprana edad. Por ejemplo Girls Who Code y Ada’s List, colectivos que ofrecen talleres y ofertas laborales para jóvenes interesadas en informática. También contamos con varios entornos educativos online que enseñan cómo programar mediante una interfaz gráfica intuitiva. Tal es el caso de Scratch, Code.org o Alice, por nombrar algunos. Además, está disponible Raspberry Pi, un dispositivo de bajo costo que permite a las personas usuarias construir y programar su propia computadora. Por último, la reciente investigación de Derechos Digitales, en colaboración con María Lab, Taller Comunicación Mujer e Internet Bolivia, “Líneas de ayuda para atender casos de violencia de género en línea: Monitoreos y tendencias en Bolivia, Brasil y Ecuador” también ofrece herramientas de asistencia y acompañamiento para afrontar situaciones violentas en internet.

La transformación digital que necesitamos no puede darse sin justicia social, sin enfoque de género, ni tampoco sin derechos humanos. Y tampoco debe suceder dejando fuera a nuevas generaciones con el potencial de ser protagonistas del desarrollo tecnológico en nuestra región. Es hora de dejar de ver la tecnología como un fin en sí mismo, y comenzar a pensarla como una herramienta para construir sociedades más justas y equitativas, para todas las edades. Garantizar hoy el derecho de una niña a un uso consciente y seguro de la tecnología es abrirle el camino para liderar el mundo del mañana.

La IA y los nuevos riesgos para la privacidad

La inteligencia artificial (IA) es mucho más que los sistemas de chat que se popularizaron desde inicios de esta década. Si bien ahora se está viviendo el boom de esta tecnología, no hay que olvidar que la IA es una rama de las ciencias de la Computación que ha estado presente desde sus inicios. En el pasado, existieron hitos importantes en relación a esto. Por ejemplo, en el año 1997 la computadora Deep Blue, creada por IBM, fue capaz de vencer en ajedrez al entonces campeón del mundo Gary Kasparov. También, hace poco menos de 10 años, el software Alpha Go de Google logró ganarle a varios campeones internacionales del juego de estrategia Go.

El boom que se vive en la actualidad tiene que ver principalmente con los modelos grandes de lenguaje (LLM por sus siglas en inglés). Se trata de un programa de la IA que permite tener aplicaciones con las cuales nos podemos comunicar de forma natural como si estuviéramos hablando con personas. Para que estos sistemas puedan tener una conversación con humanos se los debe entrenar con cantidades extraordinarias de datos y además se requiere de mucha capacidad de cómputo.

Dime qué datos utilizas y te diré quién eres

Si se piensa en los LLM desde una perspectiva de privacidad, lo primero que nos deberíamos preguntar es ¿de dónde salen los datos que entrenan el modelo? Según OpenAI, utilizan 3 fuentes para entrenar los modelos de ChatGPT: información pública, información compartida por socios e información provista por humanos.

En la primera opción, se puede pensar en la internet pública con sitios como Wikipedia, Github, Archivo de internet y otras similares. Desde un punto de vista de privacidad, esta información está públicamente accesible y se puso a disposición con la intención de compartir conocimiento libremente. Se podría decir que entrenar LLM con esta información, haría más accesible el conocimiento a la mayoría de la gente.

Pero este no es el caso para todos los sitios web. Existen casos como las redes sociales, donde las personas -por error- pudieron haber publicado información personal sin intención y esta se hizo pública. Incluso se podría haber subido contenido con el propósito de que sea accesible para el público, pero no necesariamente para entrenar modelos de inteligencia artificial.  Evidentemente, hay problemas relacionados con derechos de autor, pero en esta columna no nos vamos a detener en esa cuestión.

En el segundo caso, no es claro cuáles son los socios que proveen información a OpenAI. En su página web mencionan una colaboración con al gobierno de Islandia para mejorar el soporte del idioma islandés, y también hablan de colaborar con la organización Free Law Project. Sin embargo, no queda claro con qué otros grupos hacen alianzas para la provisión de datos.

Desde el punto de vista económico, el principal aliado de OpenAI es Microsoft. Una empresa que en 2023 realizó un acuerdo de 10 mil millones de dólares con OpenAI por varios años, y que incluye el uso de la infraestructura Azure. Esta infraestructura es la “nube” que oferta Microsoft para que terceros puedan ejecutar sus aplicaciones. En este caso, Azure es la principal infraestructura de ChatGPT y otros productos de OpenAI.

¿Será que OpenAI utiliza información de las aplicaciones de Microsoft como Bing, Outlook, Office 360, entre otros? ¿Estará Microsoft entregando información personal de sus usuarios para entrenar al ChatGPT? No hay forma de saberlo, salvo que se haga una auditoría y se transparente la forma en la que OpenAI entrena sus modelos.

Si pensamos en las otras empresas líderes como Google con Gemini, Meta con MetaAI o X con Grok, podemos, al menos, sospechar que utilizan los datos de sus sistemas para entrenar sus modelos grandes de lenguaje. Todas estas empresas tienen algo en común, muchos datos y gran capacidad de procesamiento de información, lo que las pone en la élite de la IA.

Nube y privacidad: malos amigos

Ya se analizó la privacidad al momento de entrenar los modelos LLM. Ahora bien, ¿qué pasa con nuestra privacidad al utilizar estos chat bots? El principal problema que se presenta al utilizar estas herramientas de IA es que se encuentran en la nube, a quien le entregamos todos nuestros datos.

Si se utiliza la IA para que nos responda nuestras preguntas cotidianas, estas preguntas se asocian a nuestro perfil y sirven para perfilarnos como individuos. Si se usa la IA para que resuma una llamada de Zoom, entonces estamos entregando la transcripción de la conversación y el resumen a la plataforma. Si la utilizamos para escribir un correo electrónico, entonces el sistema que lo redacta tendrá el contenido de nuestro correo. Si le pedimos que nos sintetice un documento confidencial, le servimos en bandeja esa información. Toda esta interacción servirá para entrenar los futuros modelos de lenguaje. En teoría, gente con la capacidad de hacer las preguntas correctas a la IA podría extraer información de nuestros archivos confidenciales.

Por otra parte, el uso de IA en aplicaciones de chat cifrado también resulta un problema muy grave para la privacidad de la ciudadanía. El cifrado extremo a extremo protege nuestras comunicaciones para que nadie, excepto las personas que participan en la misma, las pueda leer. Un adversario particularmente importante del cual nos protege este tipo de cifrado es el proveedor del servicio. Si se piensa en WhatsApp, entonces su cifrado nos debe proteger para que WhatsApp no lea nuestras conversaciones. Sin embargo, desde algún tiempo atrás tenemos entre nuestros contactos al bot de @MetaAI. A este bot lo podemos invocar desde cualquier conversación para hacerle consultas. Cuando eso sucede, el cifrado extremo a extremo pierde su valor ya que Meta debe leer nuestras conversaciones para interactuar.

En general, los problemas de privacidad de la IA están asociados a la utilización de plataformas en “la nube”. En otras columnas, hemos visto algunos ejemplos del uso de infraestructura propia con software libre para poder tener una oficina virtual, sistemas de videoconferencia seguras, incluso instancias de redes sociales descentralizadas como el Fediverso.  ¿Se puede hacer lo mismo con la inteligencia artificial?

La respuesta es sí, y de hecho existen varios LLMs que se pueden utilizar sin costo y de forma local o incluso en infraestructura propia. A diferencia de sistemas como una nube propia o sistemas de chat seguro, con inteligencia artificial se va a necesitar mayor capacidad de cómputo o versiones más pequeñas de los LLM. Al usar modelos más cortos, probablemente no sirvan para preguntar cualquier cosa, pero sí podrían ser muy útiles para tener un bot con un propósito específico. Por ejemplo, para resumir documentos confidenciales o traducir textos.

IA al servicio de las personas, no de las corporaciones

En nuestros días, es común que la gente utilice IA para apoyarse en sus tareas cotidianas y, seguramente, en el futuro esta herramienta se usará aún más. Es sumamente importante que como sociedad podamos reflexionar acerca de los propósitos para los cuales se seguirá utilizando la IA y los riesgos que eso trae aparejado. No es lo mismo recurrir a ella para traducir un documento público, redactar un correo electrónico o resumir un documento confidencial. Habrá casos en los que se pueda considerar aceptable utilizar IA a cambio de sacrificar la privacidad y habrá otros en los que no.

La autonomía en la IA es algo que la sociedad debe explorar. Para tareas y actividades donde se trabaja sobre información sensible, tener un sistema tecnológico que no reporte esa información a terceros sería una herramienta muy poderosa. Incluso varias organizaciones podrían unirse entre sí para compartir infraestructura y poder ejecutar colectivamente mejores modelos de lenguaje. Las regulaciones sobre esta herramienta tecnológica deben velar por el respeto de nuestra privacidad, nuestros datos y nuestra información. Solo de esa forma podremos imaginar un futuro digital seguro para todas y todos.

“El viaje” de la creatividad en la era de la Inteligencia Artificial

Las semanas pasadas Internet se colmó de millones de imágenes generadas por IA al estilo del icónico Studio Ghibli. Las personas usuarias emplearon el último generador de imágenes de OpenAI para que sus fotografías, las de sus familiares y mascotas aparecieran, en cuestión de minutos, como personajes salidos del místico universo animado por Hayao Miyazaki, fundador del mítico Studio Ghibli.

La tendencia de la “IA Ghibli” suscitó ternura, nostalgia y diversión en las personas viralizándose con rapidez, al tiempo que despertaba múltiples debates pertinentes. En efecto, las preguntas por los derechos de autor no tardaron en revivir, las implicaciones medioambientales del uso de la IA florecieron, los pronunciamientos de artistas se reavivaron y las alertas alrededor de la protección y el uso de datos personales en la IA se encendieron con fuerza. Lejos de pretender abarcar en su totalidad o resolver estos y otros debates, en esta columna aprovecharemos el reposo de la tendencia para reflexionar sobre dos puntos: el lugar del proceso creativo humano y la sensibilidad artística a propósito de la expansión de la IA generativa de imágenes; y los riesgos hacia las personas en materia de protección de datos personales.   

¿El arte se crea o se programa?

Ya sea en la música, la ilustración o la escritura, la creatividad es un proceso complejo, multifacético, y profundamente humano. La creatividad humana requiere la interpretación de lo que otras personas han hecho, combinarlo con ideas y experiencias propias, agregarle matices y, a partir del ensayo y error, conseguir expresar la idea que gestamos por algún tiempo en nuestra imaginación. Pensemos que cada creación es como un Castillo Ambulante de Miyazaki, una suma de estilos y piezas heterogéneas que forman una estructura con vida propia.

Ahora, el presente tecnológico del arte ofrece y acerca a las personas a cientos de grandes referentes para la creatividad humana. De hecho, expresarse artísticamente a través del uso de nuevas y emergentes tecnologías, incluida la IA, nunca había sido tan fácil y accesible. La energía vital que se imprimía en componer un compás, en hacer un esbozo o en empezar de cero un escrito se transforma en la era digital que nos atraviesa. Hace días nomás, el proceso de reproducir un estilo ajeno se redujo al envío masivo de cadenas de instrucciones o “prompts” con los que la IA de OpenAI generó en segundos miles de imágenes detalladas con el estilo Ghibli. Esta tendencia “IA Ghibli” merece ser pensada desde el valor mismo de la creatividad y de los creadores en un mundo que cada vez más se inclina a la automatización prescindiendo del factor humano.

La IA habilita la producción continua e inmediata de piezas artísticas, representando tanto oportunidades para el ecosistema artístico, como riesgos para los procesos de creación tradicionales. La inteligencia artesanal de Miyazaki, por ejemplo, nos lleva a reflexionar sobre la vivencia y padecimiento del proceso creativo, sobre el tiempo que toma, los retos y las potencialidades que representa para la imaginación personal y colectiva, y la creatividad. Esto en un contexto donde el trabajo artístico suele estar mediado por condiciones precarias o poco dignas que suponen un reto y un peso adicional.  

La creatividad como proceso y como resultado es una experiencia ajena e irreproducible para la IA, una tecnología que no sueña, imagina o experimenta como lo hace la creatividad humana, y en razón a esos elementos no se avoca a la generación de estilos originales, sino a la reproducción de los estilos de otros. Para quienes crean una historia mientras la ilustran (sin cadenas de instrucciones previas), estableciendo una relación de identidad con su obra al dejar un poco de su experiencia de vida en cada detalle y trazo, la generación de imágenes con IA representa con fuerza el “insulto a la vida misma”, una afirmación del propio  Miyazaki al referirse a la generación de imágenes con IA. Para quienes apoyan la inteligencia artesanal, la tendencia de la “IA Ghibli” produjo cuestionamientos válidos sobre el sentido del arte en tiempos donde la IA cada vez ocupa más espacios que creíamos nuestros.

No obstante, en la medida que esta tecnología se instaló en el oficio creativo y fuera de él, es necesario explorar salidas que trasciendan a los marcos de transparencia en el entrenamiento de las herramientas de IA, así como concretar usos de estos sistemas alineados con una perspectiva de derechos humanos que impidan la reproducción de violencias, sesgos y formas de discriminación. Para esto, es crucial suscitar el diálogo entre empresas, personas usuarias y colectivos de artistas para precisar mecanismos de protección, reclamación y compensación que amparen a las partes más allá del terreno movedizo y desigual de los derechos de autor.

Equilibrar la creatividad humana y las formas que toma con la innovación tecnológica está en el centro de la discusión. Quizás, más allá de emprender un proceso creativo al estilo tradicional, la IA habilita nuevas forma de expresión artística donde retazos de ideas cobran vida al instante representando momentos fugaces de nuestra imaginación.

Ahora bien, el uso entusiasta de la IA no puede eclipsar la reflexión y el pensamiento crítico alrededor de las tecnologías, lo que incluye exigir responsabilidad e información pública a las empresas sobre, por ejemplo, el uso de los millones de datos personales y de terceros que alimentaron el modelo de OpenAI en las últimas semanas.

Las tendencias de la IA y los datos personales

De la mano de los riesgos para el ecosistema artístico, vale la pena destacar los riesgos para las personas que recordó el “trend” de la IA Ghibli. A saber, un asunto que sorprendió fue la conducta de entrega voluntaria, gratuita y entusiasta de datos biométricos de millones de personas a OpenAI. Por esto, apuntamos a reflexionar sobre los riesgos de entregar información personal, como los rostros propios y de terceros (como menores de edad) con ligereza a las empresas tecnológicas. Es fundamental preguntarnos por nuestra relación con la IA y cuestionar aquellos lugares donde naturalizamos la recopilación de nuestros datos a través de argumentos como “nuestra información ya está en todas partes”. Recordemos que como personas usuarias somos soberanas de nuestra información y podemos decidir sobre esta y exigir transparencia en su uso por parte de las empresas tecnológicas.

Como vemos, el debate es amplio. La naturaleza evolutiva de tecnologías como la IA, sobre todo en su dimensión generativa, refuerza la importancia de, por un lado, avanzar hacia estrategias concretas de responsabilidad para las empresas que, en su carrera global por la IA, lanzan productos con implicaciones para los derechos de las personas, impactando incluso en ámbitos que creíamos exclusivos de lo humano, como la creatividad y el proceso artístico. Y, por otro lado, es ineludible involucrar a las personas usuarias traduciendo el lenguaje del trabajo académico e intelectual acerca de las tecnologías digitales a sus realidades concretas. Sólo así, los riesgos asociados a la IA, por ejemplo, podrán entenderse como consecuencias inherentes a su uso, y no como asuntos aislados, ajenos a nuestras prácticas diarias.

El Festival Latinoamericano de Instalación de Software Libre cumple 20 años y se renuevan los desafíos

El 2005 fue un año de cambios, a solo unos meses de la primera edición del Software Freedom Day (Día de la libertad de software) y a un año y medio del primer Festival de Instalación de Software Libre Colibrí (FISLC) en Colombia, un grupo de apasionados y apasionadas por la cultura abierta celebraron el 2 de abril la primera edición del Flisol que superó las expectativas de sus impulsores. La propia imagen del Festival representó la intención de unión regional que fue, sin duda, el resultado alcanzado: se celebró en más de 100 ciudades de 13 países de forma simultánea.

A veces, pareciera que los efectos a largo plazo son los que menos se ven y aprecian. Así fue que luego de una primera edición exitosa de Flisol, con muchos países fortaleciendo comunidades tecnológicas, organizándose y encontrándose para hablar de libertad, comenzaron a gestarse cambios importantes como políticas nacionales que implementan software libre desde el Estado o la activa contribución de nuevos miembros a proyectos de código abierto.

Mandrake (que después pasó a llamarse Mandriva) fue el sistema operativo que se instaló en los inicios del festival representando grandes desafíos y requiriendo de mucho tiempo de preparación antes de tener los CDs instalables que se preparaban uno a uno. Era un momento de la historia en que “quemar” discos parecía una misión a la Luna dadas las condiciones de infraestructura tecnológica y calidad de conexión a Internet, una época en que la comunicación era mucho más lenta, los medios de difusión eran listas de correo, los mensajes de texto eran escasos, las redes sociales y el mundo del streaming que hoy conocemos no habían dado sus primeros pasos aún.

En la actualidad, el Flisol se celebra en más de 200 ciudades, lo que da cuenta de una expansión territorial importante: en relación a los inicios duplicó la cantidad de lugares donde se realiza.  Si bien en su mayoría son espacios de América Latina, poco a poco la comunidad lo va llevando a otras latitudes del mundo.

Además, este evento se ha ido adaptando a lo largo de los años. Por ejemplo en 2008, cuando la comunidad acordó el cuarto sábado de abril como la fecha oficial de este evento; hasta el desafío que representó la pandemia en 2020 y la realización del festival en modalidad virtual. Incluso la velocidad con la que la tecnología ha traído facilidades y nuevos retos, moldeando así la conferencia actual y promoviendo activamente el software libre.

Y quién diría que lo mismo que facilita el alcance y difusión del festival sería también aquello que dificulta prácticas más libres y soberanas cuando de tecnologías se trata. Desde 2013, luego de las revelaciones Snowden, el mundo quedó sacudido por la sorpresa, la incertidumbre, la duda e incluso la incredulidad frente a la vigilancia gubernamental y nuestra falta de privacidad. En los años siguientes, se daría cuenta de lo que ocurre tras bastidores en los servicios que utilizamos  en Internet, desde redes sociales hasta plataformas que facilitan miles de operaciones diarias. Ante esto, el software libre surgió como una solución a la incertidumbre, promoviendo la  soberanía tecnológica y un código abierto que cualquier persona técnica puede auditar. Un modelo que prioriza libertades fundamentales que contribuyan a la construcción de un entorno informado para la toma de decisiones y las elecciones sobre qué herramientas usar. Especialmente en América Latina, donde las libertades han costado tanto a lo largo de los siglos, este enfoquedemocrático de la tecnología se presenta cada vez más como un ideal necesario.

El Flisol pasó de ser un evento que solo aspiraba llegar a la comunidad de Software Libre a ser una convocatoria de mayor alcance, que busca atraer a nuevos públicos para interpelarlos y presentarles la filosofía de la cultura libre. Los medios digitales han facilitado la comunicación, pasando de listas de correos a publicaciones en redes sociales. Además, se han realizado aspiraciones iniciales de los promotores del Festival en 2006, con transmisiones en vivo de los eventos, permitiendo llegar a quienes no habían podido asistir de forma presencial. Estas transmisiones, utilizando herramientas libres y gestionadas por la comunidad, se convirtieron  en 2020, debido a la pandemia, en el único medio de realización y participación.

Transmisiones y publicidades digitales cumplieron el anhelo del activismo por celebrar su edición del festival en un contexto sanitario sumamente difícil. Esto sin duda tuvo un alto impacto en la logística y los componentes que caracterizaron por más de una década a los encuentros presenciales. Así, el Install Fest no se pudo realizar, y los eventos se transformaron en charlas virtuales ofrecidas por activistas, académicos y apasionados por la filosofía del Flisol.

En adelante, y considerando la facilidad con la que se instala software y sistemas operativos, se han priorizado charlas, talleres, paneles, demostraciones y otras dinámicas que buscan sembrar curiosidad en quienes asisten. La comunidad tecnológica que se reunía para organizar Flisol encontró otras formas de interacción y de fortalecer lazos a lo largo del año previo a cada edición.

Hoy, como hace 20 años, se sigue celebrando Flisol. La fecha oficial sigue siendo el cuarto sábado de abril, sin embargo la comunidad puede decidir su propia fecha en función a características propias de cada sede. Sigue existiendo una figura de Coordinación Nacional, pero cada localidad decide y gestiona detalles específicos de su evento, sin dejar de lado la práctica de compartir recursos como diseños gráficos y, por supuesto, la wiki oficial del festival que se ha mantenido desde 2006 y que aloja la historia de 20 años de organización, celebración y trabajo conjunto y comunitario.

La 21va edición del Flisol, que se celebrará el próximo sábado 26 de abril, muestra grandes cambios comparada con las ediciones del 2005 o 2011. Pero la emoción, el compromiso y la alegría siguen uniendo al creciente movimiento que retomó la presencialidad de sus eventos durante 2022. El objetivo se mantiene intacto: compartir en comunidad y hacer frente a las desigualdades y sesgos facilitados por la tecnología. Formar criterio e intercambiar experiencias entre activistas, estudiantes y todas las personas ávidas de conocimiento sobre cómo Internet y sus derivados pueden comprometer tanto la privacidad individual como la colectiva, en un ecosistema dominado por gigantes tecnológicos que aguardan por nuestras vulnerabilidades. Te invitamos a contribuir a esta importante conversación y a tomar acción para un futuro digital más libre y seguro.

La digitalización del trabajo doméstico: entre oportunidades, informalidad y vacíos regulatorios

El abanico de trabajos que se han digitalizado producto de la expansión de plataformas en América Latina es amplio y diverso. Los servicios de mensajería, los repartos de comida o el transporte privado son algunas de las labores más conocidas intermediadas por “apps”, donde los algoritmos gestionan y determinan las condiciones de las personas trabajadoras, muchas veces en detrimento de sus derechos. En este contexto, poco se dice sobre las labores domésticas, desempeñadas en su mayoría por mujeres, que también han sido insertadas en el modelo de trabajo en plataformas digitales. Según un informe de la Organización Internacional del Trabajo (OIT), la provisión de tareas domésticas y de cuidado a través de sistemas digitales se ha multiplicado en la última década, con particular rapidez en países del Sur Global. Así, ocupaciones como la limpieza, la cocina e incluso el cuidado de personas ahora se llevan a cabo mediante sistemas tecnológicos de intermediación laboral. Bajo promesas de flexibilidad, autonomía y mayores ingresos, las aplicaciones de servicio doméstico permiten que las trabajadoras asistan a varios hogares por pocas horas en el día, lo que plantea desafíos significativos en materia de derechos laborales. Para este próximo 30 de marzo, Día Internacional de las Trabajadoras del Hogar, destacamos algunas características del trabajo doméstico mediado por plataformas digitales que ponen en riesgo derechos laborales fundamentales. 

Las promesas de contratación formal y registro

El empleo doméstico es una de las ocupaciones con mayores niveles de informalidad en América Latina, afectando principalmente a mujeres que ya enfrentan condiciones estructurales de desigualdad por razones de género, muchas veces agravadas por factores de interseccionalidad como condiciones socioeconómicas y migratorias, entre otras. A pesar de los avances en la ratificación del Convenio 189 de la OIT sobre trabajo decente para las trabajadoras del hogar, la implementación efectiva de sus principios aún enfrenta barreras estructurales. Países como Argentina, Colombia y Brasil han adoptado marcos normativos que establecen derechos laborales básicos, como salario mínimo, seguridad social y jornadas reguladas. Sin embargo, en la región persisten brechas significativas en la formalización del sector, con altos porcentajes de trabajadoras domésticas aún en la informalidad, sin acceso a protección social ni mecanismos efectivos para exigir el cumplimiento de sus derechos.

En este contexto, la digitalización del sector a través de plataformas de servicio doméstico ha surgido como una alternativa para facilitar la contratación formal. Estas aplicaciones pueden actuar como intermediarias entre trabajadoras y empleadores, promoviendo el registro en esquemas de seguridad social y garantizando pagos bancarizados. En algunos casos, han implementado sistemas de registro y seguros laborales que mejoran la seguridad y previsibilidad del empleo. Esta transformación digital tiene el potencial de reducir la informalidad, al tiempo que ofrece mayor visibilidad sobre la situación de estas trabajadoras, permitiendo una mejor fiscalización del cumplimiento de sus derechos laborales. Sin embargo, este potencial no siempre se materializa de forma efectiva.

Aún existen plataformas que operan sin garantizar condiciones laborales adecuadas, trasladando toda la responsabilidad de la formalización a las trabajadoras. En algunos países, han surgido modelos de negocio diferenciados: mientras unas aplicaciones actúan como agencias de empleo, gestionando la contratación directa y asegurando la inscripción en la seguridad social, otras funcionan únicamente como intermediarias, sin asumir responsabilidad laboral sobre las condiciones de trabajo. Este contraste evidencia la necesidad de regulaciones más claras y de mayores incentivos para que las plataformas promuevan condiciones que favorezcan la formalización laboral y el acceso a derechos, en línea con la responsabilidad empresarial en el respeto y garantía de derechos laborales.  Esto es fundamental para asegurar que la digitalización no reproduzca ni agrave las desigualdades históricas que afectan a las trabajadoras del hogar.

El uso de algoritmos en el trabajo doméstico: doble vigilancia y control

Otro de los grandes desafíos de la digitalización del empleo doméstico y su intermediación por plataformas, radica en el uso de algoritmos diseñados para la geolocalización, el monitoreo y la evaluación de las trabajadoras y su desempeño. Aunque las características de estos algoritmos varían según la aplicación, determinan aspectos clave como el lugar, la forma y las condiciones en las que se prestan estos servicios. La opacidad y falta de transparencia en el uso de estos sistemas impactan directamente en la experiencia laboral de las mujeres trabajadoras. Un aspecto particularmente problemático es que estos sistemas algorítmicos suelen estar diseñados para generar confianza en los empleadores, lo que implica la recopilación de datos personales de las trabajadoras. Estos datos están a disposición de los clientes, quienes tienen la posibilidad de elegir entre una u otra empleada sin criterios claros de equidad, lo que refuerza estereotipos y relaciones asimétricas. Además, los datos personales son procesados sin supervisión adecuada y sin un principio de transparencia, lo que puede dar lugar a decisiones automatizadas que profundicen sesgos discriminatorios y afecten sus derechos laborales. Sumado a esto, estudios sobre el tema señalan que la gestión algorítmica en los trabajos del hogar fortalece  prácticas de vigilancia y control históricamente presentes en la relación entre empleadores y empleadas domésticas.

En efecto, las plataformas digitales tienden a reforzar factores culturales preexistentes en la relación entre hogares empleadores y trabajadoras domésticas, y en muchos casos, a amplificarlos. La incorporación de algoritmos en el trabajo doméstico ha profundizado y sofisticado las formas de control sobre las trabajadoras, al combinar  la supervisión directa del cliente con el monitoreo constante de la plataforma. Esta doble vigilancia consolida relaciones laborales jerárquicas ya existentes, ahora mediadas por herramientas tecnológicas que reproducen desigualdades estructurales. Aunque para muchas mujeres las aplicaciones representan una alternativa a la informalidad, su diseño y funcionamiento tiene la capacidad de exponerlas a nuevas formas de precarización y dependencia. 

Sin duda, el modelo de trabajo de plataformas digitales continúa expandiéndose a campos antes impensados, poniendo en riesgo derechos laborales fundamentales y agravando desigualdades históricas. Esta tendencia nos invita a prestar mayor atención a la mediación tecnológica de trabajos en el ámbito “de lo privado”, como las labores domésticas y de cuidado, que presentan nuevos horizontes de análisis e incidencia para la protección de los derechos laborales en entornos digitales. Así, este 30 de marzo no solo marcamos una fecha, sino que hacemos un llamado a avanzar decididamente hacia una transformación donde la dignidad y la justicia definan el futuro del trabajo.

La censura evoluciona: ¿estamos al día en la defensa de la libre expresión?

La censura digital en América Latina ha evolucionado. No es que se hayan abandonado bloqueos de sitios o cierres de medios de comunicación, sino que los mecanismos para facilitar la censura han aumentado en diversidad y complejidad. A través de leyes ambiguas, intervenciones técnicas y decisiones de plataformas privadas, tanto gobiernos como empresas están moldeando lo que se puede ver y decir en internet.

Y es que el acallamiento de voces críticas u opositoras es una constante cuya manifestación sigue yendo a la par de la proliferación de canales de comunicación. No solo se trata de restringir la expresión libre en razón de su contenido, sino también de generar miedo y autocensura, especialmente entre periodistas, activistas y comunidades vulnerables. Con el pretexto de la seguridad o la regulación del contenido, las autoridades y las grandes empresas tecnológicas están definiendo qué se puede decir y qué narrativas quedan por fuera del debate público.

Reglas legales y técnicas para silenciar

Como contamos hace unos meses, la censura en internet se manifiesta a través de diversas técnicas utilizadas por gobiernos y empresas para restringir el acceso a información y servicios en línea. Entre las más comunes se encuentran: el bloqueo de direcciones IP, que impide el acceso a determinados sitios web o servidores; la alteración de registros DNS, redirigiendo las solicitudes de conexión a páginas falsas o inaccesibles; y la inspección profunda de paquetes (DPI, por sus siglas en inglés), que permite identificar y filtrar tipos específicos de tráfico en la red. Además, algunos Estados implementan apagones de internet en momentos clave, como protestas o elecciones, o recurren a listas de sitios web y aplicaciones por bloquear, aplicando restricciones de forma selectiva para desmovilizar el debate público o impedir la circulación de información crítica.

Los últimos años también América Latina ha visto nuevas instancias en que la censura se incorpora a marcos normativos que, bajo pretextos como la seguridad nacional o la protección de otros derechos, otorgan a los gobiernos herramientas para controlar y limitar la información en línea. En El Salvador, la aprobación de leyes de ciberseguridad y protección de datos conllevan el potencial para restringir la libertad de prensa y aumentar la opacidad gubernamental. La Suprema Corte de México terminó aprobando el funcionamiento de un sistema de notificación y retirada por infracciones de derechos de autor, un conocido mecanismo de censura legal en nombre del copyright. En Brasil, se volvió una polémica pública la trama que culminó en una orden de suspensión de Twitter (ahora “X” para su diezmada base de usuarios) debido a su negativa a bloquear perfiles que difundían discursos de odio y desinformación. La legalidad es una herramienta potencialmente muy peligrosa, dependiendo de quién esté en posición de blandirla, y puede convertirse en una fuente de censura.

Las plataformas digitales, por su parte, implementan políticas de moderación de contenido que a menudo resultan opacas y arbitrarias. La falta de transparencia en la aplicación de estas políticas puede conducir a la censura de discursos legítimos y afectar la libertad de expresión. Además, la manipulación de algoritmos y la difusión de desinformación a través de estas plataformas representan desafíos adicionales para la integridad del espacio digital. Como señala Catalina Botero Marino, ex Relatora Especial para la Libertad de Expresión de la CIDH, es esencial que existan reglas claras y mecanismos de auditoría externos para garantizar que las decisiones de moderación respeten los derechos humanos y no se conviertan en herramientas de censura.

Violencia, difamación e intimidación: lo digital es real

La violencia digital ha emergido como una herramienta clave para censurar y acallar voces críticas, afectando de manera desproporcionada a mujeres y personas LGBTQIA+. Desde campañas de acoso sistemático en redes sociales, hasta la exposición no consentida de información personal o material íntimo con fines de intimidación, las estrategias de censura digital han evolucionado para silenciar y expulsar del espacio digital a las opiniones disidentes.

Estos mecanismos no solo buscan deslegitimar públicamente a periodistas, activistas y defensoras de derechos humanos, sino que también generan un ambiente hostil que fomenta la autocensura, restringiendo así la participación en debates fundamentales para la democracia y los derechos humanos en la región. Deepfakes de contenido sexual se han difundido para desacreditar a activistas y periodistas, reforzando la violencia de género en línea. En Colombia, el presidente usó la expresión “muñecas de la mafia” para referirse a periodistas que luego fueron víctimas de acoso digital. Una fiscal en Guatemala sufrió persecución digital (y judicial) por denunciar corrupción. Testimonios destacados por Derechos Digitales han dado cuenta de instancias donde la búsqueda por acallar voces ha venido amparada por culturas institucionales que refuerzan el impacto de esas tácticas.

Esto no ha significado que haya dejado de existir la agresión física contra quienes se expresan en línea, con mayor frecuencia en contextos de crisis política. En los últimos años, periodistas y defensores de la libertad de expresión en América Latina han enfrentado detenciones, persecuciones y ataques, especialmente en medios digitales y organizaciones de la sociedad civil. Es el caso de Carlos Correa de Espacio Público, detenido en enero de 2025 tras documentar restricciones a la expresión en Venezuela, que se suma a otros episodios como el de Gilberto Reina , Sebastiana Barráez y Yousner Alvarado, de distintos medios de comunicación en línea. En Guatemala, José Rubén Zamora (elPeriódico) fue reencarcelado días atrás en aparente represalia por su trabajo investigativo. Estos casos evidencian cómo criminalización y violencia buscan silenciar el periodismo en línea y la denuncia de abusos estatales en la región.

El uso de la violencia digital como mecanismo de censura no solo afecta a las víctimas directas, sino que genera un efecto disuasivo también en quienes observan estos ataques. La percepción de riesgo hace que muchas personas dejen de participar en debates públicos o modifiquen sus discursos para evitar represalias. Pero eso es, también, parte del efecto deseado.

Defensa (y autodefensa) para la libertad de expresión digital

En un entorno donde la censura digital se intensifica y diversifica, las estrategias de resistencia cobran un papel fundamental para garantizar la libertad de expresión. Como ya hemos señalado, la resiliencia digital en la región ha tomado diversas formas: el periodismo hiperlocal y el uso de redes privadas virtuales (VPN) han permitido mantener la circulación de información independiente frente a bloqueos estatales; en paralelo, la alfabetización digital para fortalecer la capacidad de periodistas y activistas para protegerse de ataques en línea y salvaguardar su privacidad en entornos de vigilancia intensiva sigue siendo necesaria. Además, el activismo feminista ha desarrollado espacios de apoyo y acompañamiento para víctimas de violencia digital, promoviendo respuestas colectivas contra el silenciamiento en línea. Como hemos advertido, evadir la censura es solo una parte de la ecuación; también es urgente exigir mayores garantías para una internet abierta y plural, con políticas de moderación transparentes y límites claros a la vigilancia estatal, y favoreciendo con nuestra acción el uso de plataformas que mejor reflejen nuestro compromiso con los derechos humanos.

Por cierto, la defensa de la libertad digital en América Latina no puede depender únicamente de la evasión de bloqueos o de respuestas individuales o de grupos de intereses específicos. Es necesario construir un marco de exigencia colectiva que presione por mayor transparencia en las reglas del entorno digital y que garantice condiciones para el ejercicio pleno de los derechos fundamentales. La lucha contra la censura digital es, en última instancia, una lucha no solo por el derecho a la información, sino por el ejercicio cotidiano de la democracia y por la construcción de sociedades más justas.

Hasta que la dignidad se haga costumbre para todas las mujeres y en todos los territorios

Nos acercamos al 8M, Día Internacional de la Mujer, cuando conmemoramos la lucha por nuestros derechos desde diversos frentes. Nuestro activismo se ha construido de la mano de las madres buscadoras de personas desaparecidas, de las mujeres trans que pelean por sus derechos, de la lucha de las mujeres indígenas por sus territorios, de la defensa de las mujeres negras por el reconocimiento de sus derechos, de los esfuerzos de organizaciones feministas para promover el aborto legal, entre muchas otras. A lo largo de la historia, estos procesos han logrado ganar garantías para los derechos de las mujeres, pero aún queda mucho por hacer, especialmente en países donde los discursos y las acciones de los gobiernos van en contra de cualquier avance en materia de igualdad de derechos.

Contextos políticos amenazantes, activismos vivos

La justicia en los países latinoamericanos está lejos de ser dignificadora para las mujeres, pues el camino para acceder a ella es más que complejo y la mayoría de las veces nunca llega. Esta histórica falta de justicia se refleja también en el entorno digital, donde la tecnología facilita otras formas de violencia de género. A fines del 2024, México nos recordó la incapacidad de un sistema para comprender de forma integral la violencia de género facilitada por las tecnologías (TFGBV, por sus siglas en inglés), al absolver al estudiante que realizó deepfakes de sus compañeras con inteligencia artificial, caso que comentamos previamente. Esto sucedió incluso teniendo un marco jurídico como la Ley Olimpia, que poco importó cuando el tribunal tomó la decisión.

Situaciones como esta evidencian la fragilidad de los marcos jurídicos en países donde existen normativas específicas, además de generar desesperanza en otros países donde no se cuenta con legislaciones para atender la TFGBV. El panorama se agrava allí donde los gobiernos se han tornado más agresivos ante las narrativas de igualdad y perspectiva de género. Sin embargo, cuando los entornos políticos se han vuelto tan amenazantes, violentos y opacos, la respuesta social ha sido el activismo, la protesta y la generación de información. Existen varios ejemplos de ello en América Latina, pero decidimos abordar tres casos principales en donde los conflictos internos en los países han tenido impactos graves en el ejercicio de los derechos de las mujeres: Venezuela, El Salvador y Nicaragua.

Ciudadanas, periodistas, activistas, personas de la comunidad LGBTIQA+, entre muchas otras mujeres, son afectadas por las acciones de quienes deberían trabajar por garantizar su bienestar: sus  propios gobiernos. La persecución y la criminalización del disenso se han convertido en herramientas de opresión estatal, con un impacto diferenciado en mujeres atravesadas por distintas interseccionalidades.

En el marco de las elecciones presidenciales de Venezuela en 2024, la ciudadanía vivió graves represiones por parte del Estado, que encarceló a aproximadamente 2000 personas por protestar, algunas de ellas por criticar al gobierno a través de redes sociales, por difundir fotografías sobre las manifestaciones en plataformas digitales o por compartir información a través de servicios de mensajería. La activista venezolana Martha Tineo reconoció que si bien la persecución política no está direccionada en contra de las mujeres, sí existen efectos diferenciados para ellas. Las mujeres encarceladas viven en hacinamiento y en centros de detención no adecuados a sus necesidades, incluso sin recursos básicos como el agua, lo que ha conllevado a una situación precaria de salud e higiene menstrual. Asimismo, la defensora de derechos humanos declaró que hay efectos psicológicos en las mujeres por la separación de sus hijos e hijas, y que de igual manera reciben amenazas de persecución a otros integrantes de sus familias.

Mientras tanto, en El Salvador las mujeres han tenido protagonismo en la defensa de derechos, lo que las ha puesto en riesgo de persecución, acoso y estigmatización. Encontramos así que se han sumado cada vez más mujeres activistas que buscan hacer justicia por sus familiares detenidos de forma arbitraria en el régimen de excepción, que además de asumir riesgos para ellas, implica una carga de trabajo adicional a las ya establecidas socialmente por los roles de género. Recordemos que entre marzo de 2022 y septiembre de 2023, organizaciones locales contabilizaron 5775 víctimas de violaciones de derechos humanos (mayormente detenciones arbitrarias), de las cuales 908 eran mujeres, entre ellas 21 mujeres trans, 19 lesbianas y 43 bisexuales. Con ello, las cárceles también se vuelven un entorno con condiciones sanitarias muy precarias, especialmente para las mujeres detenidas en estado de gestación, quienes no cuentan con atención ginecológica durante esta etapa y tampoco en el postparto, viéndose también gravemente afectadas las infancias.

Por otro lado, en el país centroamericano se registran en promedio 40 insultos diarios en contra de periodistas solo a través de la plataforma X. Aquellos ataques dirigidos a mujeres tienen la particularidad de contar con una carga de violencia sexual y lesbofóbica, reforzando patrones de discriminación y exclusión. Sumado a la preocupante situación de derechos humanos en El Salvador, esta realidad ha llevado a las mujeres periodistas, defensoras, e incluso a servidoras públicas (con una postura crítica del gobierno actual) al exilio y la autocensura.

Por su parte, organizaciones locales han constatado que en Nicaragua la violencia digital contra las mujeres defensoras de derechos humanos ha escalado de manera alarmante desde el 2018, año en que se desataron importantes protestas públicas en el país. El uso de la tecnología como herramienta de represión ha facilitado nuevas formas de violencia, exacerbando los riesgos para quienes denuncian violaciones de derechos humanos. Las defensoras que enfrentan estos ataques reciben constantes amenazas, insultos, y sus agresores difunden información falsa sobre ellas para descalificarlas. De acuerdo con las mujeres entrevistadas en un estudio de FUNIDES, el 32.5% de las agresiones han trascendido al espacio físico, poniendo en evidencia el vínculo directo entre la violencia digital y el hostigamiento fuera de los espacios virtuales.

Las prioridades son claras, pero deciden ignorarlas

Finalizar con la violencia en nuestros países desde una perspectiva de género es una prioridad clara que los gobiernos siguen optando por ignorar. En Nicaragua, Venezuela y El Salvador, la persecución contra defensoras de derechos humanos y periodistas, el uso del hostigamiento judicial, las detenciones arbitrarias y la militarización del espacio público han reforzado un modelo de represión que restringe aún más los derechos de quienes cuestionan el poder. En estos marcos, la violencia de género se recrudece con cada nueva política pública, con cada acción gubernamental o con cada momento electoral, convirtiéndose en una expresión de control.

Las mujeres, desde diversas trincheras, han alzado la voz para nombrar las graves consecuencias que tienen las violaciones a los derechos humanos en estos regímenes no solo a nivel individual, sino también colectivo. Si bien estas vulneraciones afectan a la toda la población, sus efectos son diferenciados cuando se analizan con un enfoque de género, reconociendo desigualdades y estructuras de opresión. A pesar de la larga historia de violencia de género que se vive en estos países, como en toda la región, las mujeres siguen resistiendo y luchando por los derechos de todas.

En este 8M algunas saldremos a las calles a marchar, tomando el espacio público para canalizar nuestras demandas, o tal vez algunas de nosotras nos manifestaremos en la individualidad de nuestros espacios. Sea en lo público o lo privado, sea cual sea la forma de nuestra protesta, lo hacemos por todas las mujeres y niñas, por las diversidades de género, por la igualdad y por la garantía efectiva de nuestros derechos. Nuestro esfuerzo es colectivo y continuaremos hasta que la dignidad se haga costumbre para todas las mujeres y en todos los territorios.  

Brasil: entre el intento de golpe autoritario y amenazas a la soberanía digital

Antecedentes

A diferencia de otros países latinoamericanos que emprendieron procesos de reparación tras regímenes dictatoriales, Brasil optó por una política de amnistía hacia los militares que comandaron brutalmente el país entre 1964 y 1985. Esta decisión permitió la reaparición de antiguas prácticas autoritarias y facilitó el resurgir de sectores extremistas, que recurren a la violencia política y han aprendido a expandir su control a través  del uso de tecnologías. Estas prácticas no sólo resuenan a nivel interno, sino que también se reflejan en la influencia imperialista externa, cuya sombra persiste desde el pasado dictatorial latinoamericano y continúa generando fricciones institucionales en Brasil, donde la soberanía digital enfrenta amenazas infundadas.

Uno de los episodios más simbólicos de los últimos años en Brasil fue la tentativa de golpe de Estado formalmente denunciada la semana pasada por la Procuraduría General de la República. Según la denuncia, un grupo liderado por el expresidente Jair Bolsonaro y otros 33 hombres habría orquestado un plan radical para desmantelar el orden democrático luego de las elecciones presidenciales de 2022. Este complot no solo apuntaba a generar inestabilidad institucional, sino que contemplaba medidas extremas como el asesinato del presidente electo Lula, su vicepresidente Geraldo Alckmin, y del ministro del Supremo Tribunal Federal Alexandre de Moraes. 

Este intento, de clara naturaleza violenta y desestabilizadora, pretendía instaurar un régimen de facto mediante el uso de la fuerza, evidenciando el grave riesgo que corre la democracia en Brasil. Las plataformas digitales, vale decir, tienen un rol importante en este contexto de inflamación autoritaria. Tal como ya señalamos en esta columna, redes sociales como X -suspendida en Brasil en 2024- han servido como  espacios donde actores antidemocráticos coordinan ataques a instituciones y amplifican narrativas que buscan justificar la violencia política. 

Viejas prácticas, nuevas herramientas

El autoritarismo arraigado que continúa amenazando al país –y que también se observa en otros lugares de la región– se ha adaptado a la era digital, extendiéndose a través del uso de nuevas tecnologías. Un caso representativo en Brasil es el de FirstMile, señalado en el reciente reporte desarrollado por el Observatorio Latinoamericano de Amenazas Digitales (OLAD) y liderado por Derechos Digitales “En La Mira: seguridad y principales amenazas digitales en América Latina”. En enero de 2024, la Policía Federal anunció una investigación contra exfuncionarios de la Agencia Brasileña de Inteligencia durante el gobierno de Bolsonaro, acusados de haber vigilado ilegalmente a unas 30.000 personas, entre ellas periodistas y magistrados del Supremo Tribunal Federal. La vigilancia denunciada se llevó a cabo mediante el uso del software israelí FirstMile, el cual permite interceptar la ubicación de equipos móviles a través de señales de GPS vulnerando así la confidencialidad de información protegida por ley nacional. El acceso a la ubicación de un dispositivo no solo permite rastrear los movimientos de una persona en tiempo real, sino que también puede derivar en la exposición de datos sensibles, como fuentes periodísticas, redes de contacto y patrones de comportamiento, ampliando el alcance de la vigilancia ilegal y el riesgo de persecución política.

La relación entre los movimientos autoritarios –y tecnoautoritarios– y la soberanía nacional es compleja y, en ocasiones, contradictoria. La dictadura militar en Brasil, al igual que otras en América Latina en esa misma época, estuvo fuertemente marcada por la influencia de los Estados Unidos. Un ejemplo claro de esta injerencia fue el Plan Cóndor, una operación transnacional de represión coordinada entre las dictaduras del Cono Sur, con apoyo estadounidense, basada en el intercambio de inteligencia y vigilancia sobre opositores políticos. Esta infraestructura represiva, que incluía interceptaciones de comunicaciones, seguimiento de movimientos y colaboración entre agencias de seguridad, sentó un precedente para el uso de tecnologías con fines de vigilancia, una lógica que persiste en las estrategias actuales de control y monitoreo digital.

Aunque estos regímenes autoritarios exaltaban el nacionalismo, al mismo tiempo promovían lo que en Brasil se conoce como «complejo de vira-lata»: una percepción de inferioridad en la que los brasileños y brasileñas se colocan voluntariamente frente al resto del mundo, lo que conlleva a la idea de que el país debe someterse a prácticas extranjeras, especialmente de países con mayor poder económico y geopolítico. En otras palabras, se configura una paradoja entre el discurso nacionalista de los líderes antidemocráticos en la región y las implicancias reales de sus políticas en términos de soberanía nacional, una contradicción que se extiende cada vez más a la esfera digital.

Un ejemplo de esta paradoja se vio en la postura del gobierno de Bolsonaro hacia las grandes plataformas digitales. Mientras su retórica política se basaba en la defensa de la soberanía y la independencia nacional, su administración facilitó la consolidación del poder de corporaciones tecnológicas extranjeras, debilitando los intentos de regulación local desde un falso discurso de resguardo de la libertad de expresión y permitiendo que actores privados transnacionales tuvieran un control sin precedentes sobre la información y el debate público en Brasil. Este modelo de dependencia tecnológica refuerza el desequilibrio de poder y reduce la capacidad del país de definir sus propias reglas en el entorno digital.

La disputa por el control normativo: el enfrentamiento entre regulaciones nacionales y poder corporativo

La semana pasada, además de la denuncia contra el expresidente Bolsonaro por la tentativa de golpe, una serie de noticias polémicas volvió a colocar a Brasil en el centro de la atención global. Se produjo un enfrentamiento entre el ministro Alexandre de Moraes – quien era uno de los blancos del plan golpista– y los grupos de medios Rumble y Trump Media & Technology Group DJT.O. Estas empresas abrieron un proceso judicial en el Tribunal Federal de Florida, argumentando que el juez censura ilegalmente el discurso político de figuras afines a la derecha en Estados Unidos.

La disputa se originó luego de que de Moraes ordenara la suspensión de cuentas en plataformas digitales, incluyendo Rumble, de individuos acusados de difundir desinformación y promover actos antidemocráticos en Brasil, como el bolsonarista Allan dos Santos, quien se encuentra en Estados Unidos y tiene orden de extradición en Brasil. Las empresas sostienen que tales órdenes exceden la jurisdicción brasileña y violan la Primera Enmienda de la Constitución norteamericana, que protege la libertad de expresión. Sin embargo, este litigio se inscribe en una tendencia más amplia de corporaciones tecnológicas estadounidenses que evitan cumplir regulaciones locales fuera de su país de origen, desafiando la soberanía de los Estados en los que operan.

El caso de Rumble es un ejemplo claro de este problema. La plataforma carece de representación legal en Brasil, lo que dificulta que cumpla con órdenes judiciales como la eliminación de contenidos ilegales –incluyendo discursos de odio y desinformación–. Esta situación aumentó la tensión en el contexto brasileño y llevó a la suspensión de la red social en el país por el mismo ministro Alexandre de Moraes, una medida similar a la que afectó a X temporalmente en 2024. El conflicto refleja una dinámica estructural más amplia: mientras las plataformas digitales exigen protección legal en los Estados Unidos, se niegan a acatar  legislaciones nacionales cuando no les resulta conveniente. Se busca así utilizar el marco legal estadounidense para evitar el cumplimiento de la ley brasileña, apuntando a  una jerarquización normativa que favorece a actores extranjeros en detrimento de la soberanía nacional.

Más allá de este caso, la creciente reticencia  de las corporaciones digitales a cumplir con  la regulación estatal refuerza dinámicas de injerencia extranjera. La reciente declaración de Mark Zuckerberg sobre la existencia de “cortes secretas” en Brasil contribuye a esta narrativa, presentando cualquier esfuerzo por garantizar el cumplimiento del marco legal nacional como una amenaza a la libertad de expresión, cuando en realidad el problema de fondo es la falta de mecanismos democráticos para asegurar que estas empresas respondan ante la justicia de los países donde operan.

Las amenazas a Brasil y sus ecos en la región

La situación en Brasil refleja una democracia debilitada por la persistencia de prácticas autoritarias y, más recientemente, por el uso indebido de la tecnología como herramienta de control. La tentativa de golpe, que contemplaba acciones de violencia contra líderes democráticos, y el caso FirstMile, que expone un esquema de vigilancia masiva sin garantías legales, evidencian la necesidad urgente de reforzar las instituciones democráticas en el país y en toda la región. Asimismo, la acción judicial promovida por grupos afines a Trump contra Alexandre de Moraes sienta un peligroso precedente para otros Estados del Sur Global, que enfrentan dinámicas similares de injerencia extranjera y evasión de marcos legales por parte de las plataformas tecnológicas.

En este escenario, es importante considerar que si en Brasil, una de las economías más grandes de la región y con un peso geopolítico significativo, la democracia es atacada con tal intensidad, cabe preguntarnos qué sucede en países con menos recursos institucionales y menor capacidad de respuesta. Este contexto expone nuevos riesgos relacionados al creciente poder de las empresas tecnológicas, quienes ahora incluso -mediante sus líderes- forman parte de la nueva administración del gobierno de Trump. Frente a estos desafíos, resulta imprescindible fortalecer la resistencia democrática mediante la promoción de la transparencia y el respeto a los derechos. Asimismo, es necesario avanzar en regulaciones basadas en derechos humanos que supervisen el uso de tecnologías con capacidades de vigilancia, en línea con los llamados de la ONU para una moratoria sobre estas herramientas hasta que existan salvaguardas adecuadas. Solo así se podrá garantizar un futuro donde la soberanía y la democracia sean pilares inquebrantables de la sociedad, no solo en Brasil, sino en toda América Latina.