Los impactos de la vigilancia más allá de la privacidad

Mientras a nivel internacional avanza la demanda por prohibir el uso de las tecnologías de vigilancia hasta alcanzar estándares rigurosos en materia de derechos humanos, en América Latina observamos una nueva y silenciosa tendencia a adquirir y usar dichos sistemas para controlar el acceso a la protección social, es decir, a las políticas desarrolladas para disminuir la pobreza, la vulnerabilidad social y la exclusión.

Nuestra región —la más desigual del mundo— durante las últimas décadas se ha convertido en ejemplo internacional en la puesta en marcha de programas de protección social. Sin embargo, el aumento de las condiciones impuestas para acceder efectivamente a los beneficios, tanto explícitas como implícitas, atenta contra la finalidad de proteger y garantizar derechos básicos. Si sumamos la mediación tecnológica a través de sistemas biométricos, como el reconocimiento facial, la recolección de huella dactilar, aplicaciones web o registros digitales unificados, se corre el riesgo de profundizar las desigualdades que se intentan erradicar.

El relator especial de Naciones Unidas sobre la extrema pobreza y los derechos humanos ha identificado algunos usos de tecnologías en los sistemas de bienestar alrededor del mundo. El listado incluye la verificación de identidad, la evaluación de criterios para recibir ayudas, el cálculo y pago de prestaciones sociales, la prevención y detección del fraude, la clasificación de riesgo y necesidades, así como la comunicación entre autoridades y las personas destinatarias de las políticas de protección social.

Varios de los usos señalados ya existen en América Latina. En Venezuela, se han implementado sistemas biométricos para controlar la adquisición de productos de primera necesidad, lo que resultó en varias denuncias de discriminación hacia personas extranjeras y, especialmente, personas transgénero. Sumado a las discriminaciones prexistentes contra poblaciones históricamente vulneradas, este tipo de iniciativa implica el ejercicio de una vigilancia diferenciada, que agrava la desprotección de las personas en situación de mayor vulnerabilidad y que, por lo tanto, más dependen del apoyo del estado.

Medidas similares se han implementado en otros países de la región e incluyen el uso de reconocimiento facial para controlar el acceso de beneficios especiales en los sistemas de transporte de distintas ciudades de Brasil o, incluso, el ingreso a instituciones educativas; propuestas similares han sido presentadas en el marco del retorno a clases presenciales en Chile. En el contexto de la pandemia mundial por COVID-19, en El Salvador y Perú se han utilizado sistemas de reconocimiento facial para controlar potenciales fraudes en exámenes educativos realizados de manera remota, situación particularmente delicada al tratarse de personas menores de edad. 

En el caso de Bolivia, observamos como la digitalización, presentada muchas veces bajo la promesa de mayor eficiencia en la gestión pública, no solo es insuficiente para solucionar problemas estructurales de acceso a servicios básicos del Estado, si no que además abre espacios para nuevas formas de discriminación. Un análisis exploratorio sobre el rol de las tecnologías en la entrega de ayudas económicas a la población en el marco de la pandemia de COVID-19 evidencia las diversas capas de complejidad que implica tal uso.

Brasil y su programa de auxilio de emergencia es otro claro ejemplo. La decisión de utilizar aplicaciones móviles para que las personas puedan solicitar la ayuda tuvo como consecuencia un incremento en las dificultades de acceso a los beneficios. Quienes más necesitan apoyo no siempre disponen de un dispositivo con conexión a internet, un número de teléfono o incluso (y más grave aún) un documento de identificación. El sistema propuesto no consideró las necesidades de las destinatarias. En este sentido, organizaciones brasileñas presentaron preocupaciones en relación a la transparencia y garantías de seguridad ofrecidas por la aplicación respecto a los datos recolectados.

Además, la implementación de tecnologías agrega nuevas capas y agentes al procesamiento de datos personales, e implica un aumento de vulnerabilidades en términos de seguridad y protección contra usos abusivos. Lo mismo es válido para las propuestas de integración e interoperabilidad de bases de datos, identidad única, automatización y predicción. En nuestra región estas prácticas abundan, sea en formato piloto o en propuestas de acción, impulsadas muchas veces por entidades financieras internacionales.

La publicación “Sistemas de identificación y protección social en Venezuela y Bolivia. Impactos de género y otros tipos de discriminación” aborda algunos de estos temas a partir de análisis de casos en ambos países, donde se alerta sobre las implicancias de la mediación tecnológica en relaciones entre estado y ciudadanía. Además, propone una reflexión sobre los impactos que las tecnologías de vigilancia pueden tener en el acceso a derechos sociales y económicos, y en cómo la digitalización puede profundizar la desigualdad, en especial, cuando implica el acceso a datos por parte de agentes privados o la mediación algorítmica por medio de sistemas de clasificación.

Consideramos que estos son puntos centrales que deben ser discutidos. Más todavía cuando la pandemia no muestra señales de detenerse en la región, y la pobreza y extrema pobreza alcanzan niveles inéditos.


“Sistemas de identificación y protección social en Venezuela y Bolivia. Impactos de género y otros tipos de discriminación” será lanzada el próximo miércoles 14 de abril, junto a un grupo muy especial de expertas y expertos que comentarán los  casos presentados y aportarán sus propias perspectivas a la discusión. El evento se transmitirá en vivo. Si te interesa participar, toda la información la encuentras aquí.

La persecución de Ola Bini: ¿el inicio del fin?

Hace casi dos años, cuando no había ni pandemia ni contagios por un nuevo y letal coronavirus, cuando varios países de la región parecían no ver venir protestas masivas en las calles, Ola Bini fue arrestado en Ecuador. Fue puesto en prisión por diez semanas y sus equipos tecnológicos fueron incautados, en busca de evidencia de los delitos que supuestamente justificaban el arresto. Casi dos años después, sin todavía lograr la libertad.

Recapitulando: el activista y desarrollador de origen sueco Ola Bini fue detenido en abril de 2019 en Ecuador, por su supuesta participación en una red de espionaje digital para desestabilizar al gobierno ecuatoriano. El arresto ocurrió muy poco después de la expulsión de Julian Assange de la embajada ecuatoriana en Londres, y después de que la ministra del interior alertara sobre intentos de «desestabilización del gobierno» por «hackers rusos» y gente afiliada a Wikileaks. Ataque del que aún no se conocen más antecedentes más allá de ese mismo anuncio.

Los (entonces) relatores especiales para la libertad de expresión de la ONU y de la CIDH solicitaron información desde el gobierno ecuatoriano, pero la persecución no cesó. Como hemos denunciado junto a otras organizaciones desde 2019, existe una serie de situaciones alarmantes en torno al arresto y la detención de Bini, siendo la más relevante la insistencia en la persecución penal en su contra, a pesar de la notoria falta de justificación suficiente. Es decir, no existen antecedentes suficientes ni para la inicial acusación de ser parte de una red de espionaje digital, ni de otras de “defraudación fiscal” o “tráfico de influencias”, manteniéndose hasta hoy una investigación con características de persecución política.

Una oportunidad de poner fin a las alegaciones surgió en diciembre de 2020, en una audiencia preparatoria al juicio por «acceso no consentido» a un sistema informático, con una única captura de pantalla. Sin embargo, tampoco ahí terminó la persecución. Es más, organizaciones como la Electronic Frontier Foundation y Amnistía Internacional fueron impedidas de participar como observadoras en la audiencia. El esfuerzo de la defensa por demostrar la violación de los derechos de Bini durante la investigación, en una exposición de cuatro horas de su abogado, tampoco fue suficiente en esa ocasión. El proceso fue así validado para continuar y la audiencia fue suspendida otra vez antes de la decisión de comenzar el juicio propiamente tal.

A la espera de que la audiencia se retome, para continuar la preparación hacia un juicio y la evidencia admisible, nuestra preocupación por el caso sigue vigente. Porque no está en juego solamente la situación judicial de una persona, sino la noción misma de debido proceso. Está en juego la confianza en los procesos institucionalizados para determinar con imparcialidad. Y, mirando con cuidado a antecedentes con componentes técnicos complejos, si es que hay sustento para la persecución de una persona, por encima de cualquier presión política. Está en juego la superación de los discursos que asocian la seguridad digital a la sospecha y la criminalidad. Está en juego el ejercicio de los derechos fundamentales en línea, incluidos no solo la privacidad y la libertad de expresión, sino también la investigación de seguridad y la promoción de herramientas de protección de comunicaciones y dispositivos. Seguimos observando el caso, porque queremos que liberen a Ola Bini.

Fondo de Respuesta Rápida: Hitos 2019-2020

Información relevante sobre el Fondo de Respuesta Rápida para la protección de derechos digitales en América Latina y sus principales hitos durante los primeros 18 meses de funcionamiento, entre julio de 2019 y diciembre de 2020.

El interés superior (¿en los datos?) de los niños y niñas

El uso de algoritmos de reconocimiento facial puede tomar distintas formas técnicas. En términos muy generales, podemos distinguir el uso de esta tecnología para la verificación de un individuo y para la la identificación de la identidad de un individuo. Así, la verificación facial y la identificación mediante el reconocimiento facial son técnicas diferentes, que a su vez tienen formas distintas de ser utilizadas en la práctica.

En la primera, el usuario se somete voluntariamente a la comprobación de su identidad mediante la identificación de sus rasgos biométricos, para acceder u obtener algo a cambio, como el acceso a un servicio o el desbloqueo de su teléfono. La identificación mediante reconocimiento facial no siempre es voluntaria e implica el uso de inteligencia artificial y cámaras alimentadas de grandes bases de datos que rastrean los rasgos biométricos de las personas, como ocurre en las cámaras con reconocimiento facial en el espacio público. En todos estos casos se está tratando datos sensibles: aquella información personal referida a características físicas de las personas.

En El Salvador, el Ministerio de Educación ha propuesto que más de 75,000 estudiantes, de escuelas públicas y privadas, realicen a través de una plataforma digital la prueba AVANZO para evaluar su aprendizaje. Años atrás, la prueba –conocida como PAES- era presencial y sin el auxilio de tecnologías. Este año se usará verificación facial con la finalidad declarada de evitar fraudes. El gobierno anunció que comprará almacenamiento en la nube, sin especificar si se usará para la realizar la prueba o para resguardar los datos biométricos;  cada estudiante podrá acceder a una cuenta de Google for Education para ser evaluados a través de la plataforma ‘AVANZO’ – software desarrollado por la Secretaria de Innovación-.  

A través del Plan Cuscatlán: Innovación y Tecnología, el Presidente Nayib Bukele prometió en 2018  transformar tecnológicamente al país y entregar servicios públicos más eficaces. Las instituciones y mecanismos de control en El Salvador son muy débiles y no existen los marcos regulatorios que garanticen el ejercicio y protección de los derechos de los ciudadanos frente a la adopción de las tecnologías. La ausencia de regulación, supervisión y seguridad significa, en otras palabras, la ausencia de los controles y balances que ayudarán a proteger los derechos y las libertades civiles y, en general, hacer valer el Estado de Derecho.

Esa promesa ambiciosa choca de frente con recientes casos de exposición de datos confidenciales de miles de contribuyentes, estudiantes y ciudadanos,  evidenciando aún más la falta de regulación, estándares y protocolos básicos de protección de datos personales y seguridad de la información en el sector público, y aumentando el riesgo para cualquier persona que deba entregar su información personal. Preocupa aún más que gobiernos desarrollen y adopten tecnologías sin transparencia y regulación adecuada, como el caso de la prueba AVANZO. ¿Qué resguardos se han tomado en su formulación? ¿Cómo puede hoy la ciudadanía auditar o evaluar la creación y la adopción de esos sistemas?

De acuerdo con el Secretario General de la ONU, desde hace 30 años a través de la ratificación de la Convención de las Naciones Unidas sobre los Derechos del Niño, casi 200 países han reconocido que “los niños tienen los mismos derechos humanos que los adultos”. Las tecnologías pueden impactar de diversas maneras sus vidas y sus derechos, sea positiva o negativamente. La Ley de Protección Integral de la Niñez y Adolescencia (LEPINA) de El Salvador, basada en la Convención de los Derechos de los Niños, reconoce el derecho al honor, imagen, vida privada e intimidad, protección de datos y el interés superior de los niños y niñas. Y, en su articulado, prohíbe el uso de la imagen o en contra de la voluntad del niño o niña, o sin el consentimiento de sus padres. Imponer la verificación facial es grave, pues implica que miles de niños y niñas deberán entregar sus datos biométricos como la única alternativa para rendir la prueba.

En un contexto global de pandemia, que ha atacado fuertemente a países como El Salvador, parece ser que se acelera la marcha hacia “soluciones” tecnológicas que, entre otras cosas, asistan a los procesos educativos de los países. Pero frente a este apuro por digitalizar procesos, no hay una prisa similar por resguardar la información de las personas sujetas a esos procesos. Ni siquiera por el hecho de tratarse de personas menores de edad. A la fecha se desconoce el destino final y como serán almacenados esos datos. ¿Qué promovemos con este tipo de medidas? ¿El interés superior de los niños y niñas, o la colecta y uso de sus datos?

The Social Dilemma: una carta de amor a Silicon Valley

“¿Viste The Social Dilemma? ¿Qué te pareció el documental?”, son dos preguntas que extrañamente me ha tocado tener que responder de forma recurrente en las últimas semanas. Y en cada ocasión siento que no he sido capaz de hacerme entender tan claramente como quisiera; que el disgusto y las críticas al documental no tienen por objeto desmentir ni exculpar a las grandes compañías que manejan las distintas plataformas que usamos día a día, ni tampoco negar el hecho de que estas plataformas tienen problemas serios, que necesitan ser discutidos y enmendados. Mi problema es de enfoque. Así que decidí escribir esto, a ver si es que así es más fácil responder ambas preguntas.

Partamos por el principio: The Social Dilemma es un documental dirigido por Jeff Orlowski, distribuido por Netflix, y que desde septiembre está a disposición de las suscriptoras a la plataforma de streaming en América Latina. En poco más de hora y media de duración, el documental combina pequeños segmentos de ficción, intercalados con entrevistas a un variopinto grupo de personalidades de alto perfil en el ámbito de lo que podríamos denominar la “crítica a internet” —incluyendo a Shoshana Zuboff, Cathy O’Neil y Jaron Lanier—junto a varios arrepentidos ex empleados de Silicon Valley, explicando cómo las empresas para las que solían trabajar han arruinado el mundo. La mayor parte de los entrevistados son estadounidenses y no hay participación de ninguna de las organizaciones trabajando sobre estos temas en América Latina, África o Asia, en caso de que se lo preguntaran.

Y ese es el primer problema con The Social Dilemma: en el fondo, no es más que una declaración de amor a los genios de Silicon Valley y su capacidad para transformar, destruir y, en última instancia, salvar al mundo. Como si San Francisco, California fuese el lugar donde habita la única gente capaz de identificar, reflexionar y proponer soluciones a los problemas que genera la tecnología.

Junto con ello, el documental generaliza preocupaciones que parecieran ser muy estadounidenses —o si se quiere, muy propias de las personas que eligieron entrevistar— y las universalizan, con una mirada que no solamente es ombliguista, sino que además puede terminar siendo contraproducente para el trabajo que distintas personas realizan en otras latitudes, en la medida en que se convierte en el discurso hegemónico respecto al modo en que se debe pensar sobre estos asuntos, a pesar de que el enfoque no se traduzca de manera exacta a contextos diferentes, donde los problemas pueden ser diferentes y se pueden expresar de otros modos. No hay que olvidar que las tecnologías no funcionan en el vacío, sino que ocupan roles específicos de acuerdo al uso que personas reales les dan, en contextos particulares. De modo que no es tan sencillo asumir simplemente que el impacto de las redes sociales es el mismo en Otawa, Machala y Hanoi.

Luego están los problemas en los cuales el documental decide centrarse: adicción, manipulación del comportamiento, polarización política, depresión y suicidio adolescente. Presentados sin ningún tipo de contexto, el documental sugiere que son las redes sociales las responsables de producir estos males, como si la tecnología tuviese por si misma la capacidad de deprimir e incitar el suicidio, sin atender a las condiciones particulares y complejas —sociales, familiares, económicas, de salud, etc.— en que se desenvuelve una persona con depresión. Una suerte de tecnosolucionismo a la inversa, un «tecnoconflictivismo».  

En ningún momento el documental se detiene a reflexionar que es improbable que sociedades altamente polarizadas—donde abunda la desigualdad, la exclusión, el racismo, el odio, la misoginia y otras formas de violencia— generen usos de las tecnologías que no den cuenta de esta condición estructural. Más todavía: sorprende la falta de mención a cuestiones como el acoso y la violencia en redes sociales, particularmente respecto a personas pertenecientes a grupos no-hegemónicos, precisamente porque es donde las plataformas están más en deuda y donde más acciones concretas pueden tomar.

De la misma forma, el racismo se trata de manera somera, sin atender al hecho de que la gran mayoría de los ex empleados de Silicon Valley entrevistados son blancos.  En vez de eso, el documental prefiere hacer declaraciones hiperbólicas respecto a problemas cuya conexión a las redes sociales ha sido cuestionada, sin aportar mayor evidencia al respecto.

Igual que en The Great Hack, los documentalistas asumen que las tecnologías que están analizando funcionan a la perfección y están dotadas de todas las capacidades que sus creadores les asignan. El procesamiento de datos les darían no solamente la capacidad de conocer a alguien, sino de predecir y moldear su comportamiento, tres cuestiones altamente complejas, pero que aparentemente sería posible por medio de unos algoritmos todopoderosos. ¿Pero qué pasaría si el escenario fuese más complejo que ese? ¿Qué pasaría si el perfilamiento de datos aportara una imagen parcial de una persona, que se asume como totalidad? ¿Qué pasa cuando se confunde mapa y territorio, cuando no es posible separar la palabra de aquello que nombra? ¿Qué pasa si el perfilamiento es errado, cuando se están tomando decisiones reales que afectan a las personas? The Social Dilemma nunca se lo pregunta y presenta una imagen de tecnologías totalizantes, de las que no hay escapatoria.

Respecto a las soluciones, el documental parece proponer dos: eliminemos las redes sociales —como si eso fuese a resolver los problemas estructurales que se expresan en ellas— y agreguemos ética a la producción de tecnología, la solución favorita de Silicon Valley, porque les permite evitar un marco regulatorio que les haga responsables por sus errores y omisiones. En ese sentido, desde Derechos Digitales hemos sido claros y reiterativos respecto a la necesidad de contar con normativa basada en derechos humanos como guía para la regulación del diseño, desarrollo,  implementación y comercialización de tecnología.

Para finalizar, un recordatorio: El Mago de Oz no era más que un hombrecito detrás de una cortina, con una máquina de humo, hablando por un micrófono.

Que se muerdan la lengua: los discursos implícitos en las narrativas gubernamentales contra el cifrado

Los servicios de comunicación, el comercio en línea, el suministro de energía para las ciudades, la infraestructura de la red. Prácticamente toda la información que transita por las múltiples fronteras de los sistemas conectados dependen de la seguridad que ofrece el cifrado. Y no solo eso, el cifrado es también una pieza fundamental para el ejercicio de derechos: la defensa de la libertad de expresión y de prensa, de expresar y asumir posturas políticas, incluso la supervivencia de grupos políticos disidentes en regiones antidemocráticas dependen de la seguridad y la privacidad que solo el cifrado tiene el potencial de ofrecer. Por eso, los ciudadanos y ciudadanas – usuarias de la red – hoy pueden brindarle mayor protección y privacidad a su información, de forma más fácil.

Este empoderamiento ha frenado el acceso de agentes del Estado a las comunicaciones privadas, cuestión antes rutinaria. Durante décadas, este acceso posibilitó programas de vigilancia masiva e incontables escuchas ilegales y, con ello, el debilitamiento de los derechos constitucionales, como el debido proceso y la presunción de inocencia. Igualmente, el cifrado ha frenado interceptaciones clandestinas de parte de agentes privados. El cifrado, por lo tanto, ha posibilitado que las personas reconquisten sus libertades y su autonomía informativa.

Frente a esa situación, las agencias de investigación – cuyo interés responde a la demanda por mayor “velocidad” en la solución de procesos criminales y la expansión de los mecanismos para acceder a círculos de información privada de la ciudadanía, comprometiendo los derechos humanos y la seguridad en la red – por años han desarrollado  narrativas que buscan resignificar la importancia del cifrado. Sin embargo, tales artificios retóricos son muy reveladores y forman parte de un conjunto de acciones sistémicas que buscan estigmatizar la tecnología (en este caso, el cifrado) por medio de su criminalización, con el objetivo de hacer susceptibles a los congresistas a este mensaje de modo que aprueben políticas orientadas a debilitarla.

Fabricando distopías

Las crisis suelen desencadenar grandes cambios, sean sociales, económicos o tecnológicos. Por eso, en escenarios de crisis, para las políticas anticifrado la apuesta se hace desde el lenguaje utilizado para referirnos a la técnica. Mientras existe un consenso entre el sector técnico, académico y social sobre cómo el cifrado “fuerte”, “seguro” o “robusto” es un recurso del cual depende la seguridad de la información, para el FBI y el Departamento de Justicia de los Estados Unidos (DOJ) este sería a prueba de órdenes judiciales y establecería zonas fuera del alcance de la ley. La imagen que quieren proyectar es la de un espacio barbárico, un ejercicio de doblepensar utilizado por regímenes de gobierno como el imaginado por George Orwell.

Los avances en las técnicas de seguridad de la información, arquitecturas que permiten establecer canales de confianza entre usuarios y servicios, así como garantizar la integridad de los intercambios informacionales críticos al funcionamiento de la administración y los servicios públicos, son deliberadamente ignorados por las narrativas de los sectores encargados de investigar los delitos y aplicar la ley. El cifrado es asociado con “espacios sin ley creados por los dueños de grandes empresas” “motivados por el lucro”. Se olvidan de que, antes de relacionarse con un modelo de negocio, se trata de un elemento clave para la resiliencia de la red, y proponer cualquier excepción es lo mismo que defender la abolición de la ciberseguridad.

Como apunta el seminal estudio “Keys under doormats”, crear brechas en los sistemas cifrados va mucho más allá de posibilitar un “acceso excepcional” al contenido protegido. Agregar un nuevo atributo (como un backdoor) en tales mecanismos, haciéndolos más complejos, genera una serie de nuevas interacciones con los demás recursos del sistema de seguridad y, con ello, vulnerabilidades imprevisibles. “La complejidad es enemiga de la seguridad”, afirman las expertas. Las entidades responsables de resguardar, por ejemplo, las claves de acceso a los sistemas cifrados serían víctimas de ataques maliciosos. Además, es igualmente posible cuestionar la misma idea de “excepcionalidad”, cuando son ampliamente conocidos los innumerables episodios de interceptación ilegal de las comunicaciones privadas, por parte de agencias estatales, sin orden judicial.

Este tipo de propuesta parece ignorar la integridad física de las personas, las protecciones a la actividad periodística o la vida de las minorías que dependen directamente del secreto de sus comunicaciones. A modo de ejemplo, hace poco se supo que la recientemente aprobada “Ley anticifrado” australiana está siendo utilizada para violar las protecciones a periodistas en el país. Igualmente, no se considera el impacto que políticas que debilitan el cifrado pueden tener a nivel internacional en otras jurisdicciones, sobretodo en países donde disidentes políticos son perseguidos por el Estado, minorías étnicas son monitoreadas o comunidades LGBTQI+ son criminalizadas por gobiernos fundamentalistas. Aún así, para el DOJ, el negocio de las empresas que ofrecen el cifrado es “vender productos para ganar dinero […] mientras nuestro negocio es prevenir crímenes y salvar vidas”.

El cifrado se basa en posibilidades matemáticas. Aún así, las narrativas gubernamentales apuestan a un solucionismo tecnológico que supera los límites matemáticos para conciliar, por un lado, las demandas de acceso a los datos y a las comunicaciones cifradas y, por el otro, la seguridad e integridad de la red. Las palabras de un representante del Ministerio Público Federal de Brasil son ilustrativas: “estos instrumentos fueron creados por hombres y, si fueron creados por hombres, pueden ser diseñados de una manera distinta”. Cuando era director del FBI, Christopher Wray  afirmaba que creía posible conciliar ambas cosas: “si podemos desarrollar autos autónomos que dan independencia para que los ciegos y personas discapacitadas se transporten; si podemos establecer mundos virtuales totalmente generados por computadoras para elevarnos al próximo nivel del entretenimiento y la educación de manera segura […], seguramente debemos ser capaces de fabricar dispositivos que, a la vez, ofrezcan seguridad y permitan accesos”. Como afirma Corey Doctorow, el FBI cree en una matemática imaginaria y que los desarrolladores no están siendo suficientemente “nerds” para solucionar esta imposibilidad técnica.

El miedo a la oscuridad es también un artificio importante en estas narrativas: “el cifrado nos amenaza con llevar a todos a la oscuridad”; “el FBI trabaja en una sala. El rincón de esta sala ha estado oscuro en los últimos veinte años […]. Este rincón ha empezado a ocupar todo el espacio”. La expresión “going dark” es un resultado directo de esa estrategia. 

Como señala Phillip Rogaway, las narrativas gubernamentales son producidas de forma que garanticen el direccionamiento del discurso exactamente hacia donde las autoridades desean que camine, en un movimiento que apuesta al miedo: el miedo al crimen, el miedo de los padres de no lograr proteger a sus hijos e, incluso, el miedo a la oscuridad. La metáfora del oscurecimiento ejercita el “branding” (la repetición del “going dark”) intentando plasmar un modo de pensar y, con eso, reconfigurar el mismo significado del cifrado.

Las imágenes e imaginarios sobre casos sensibles, como la explotación sexual de menores de edad, las amenazas de atentados terroristas o las redes de tráfico de drogas también han sido históricamente  explotadas en los discursos anticifrado. El DOJ, por ejemplo, pone el cifrado ofrecido por WhatsApp en el centro narrativo de los casos de exterminio de policías por carteles mexicanos. Por su parte, el ex-director del FBI, James Comey, ha apostado a crear escenarios distópicos de futuro: “si [el cifrado fuerte] se vuelve regla […] los homicidios se volverán comunes, los sospechosos caminarán libremente por las calles y los violadores de niños no podrán ser identificados o procesados judicialmente”.

Las expertas presentan datos más convincentes. Por ejemplo, la sola existencia del cifrado por defecto en los dispositivos desincentiva los intentos de agentes maliciosos por apoderarse de ellos, dada la imposibilidad de acceder a los datos que almacenan – una de las principales motivaciones económicas de este tipo de ataques.  Una señal de eso sería la caída en el número de hurtos de celulares desde que Apple implementó el cifrado por defecto en sus dispositivos.

Contrario a la idea del fin de la seguridad pública imaginada por las narrativas gubernamentales, el cifrado democratiza los recursos de seguridad al desencentralizarlos y hacerlos disponibles por defecto. Y al contrario de lo que supone la “sala oscura” del FBI, nunca hubo tantos medios disponibles para la recolección de datos para fines del proceso penal. Esto incluye sensores y objetos conectados a internet en los espacios públicos y domésticos, las redes sociales e, incluso, el hackeo liderado por agencias gubernamentales. La sala oscura, en realidad, se encuentra eclipsada por una era de oro de la vigilancia.

Según las narrativas de las fuerzas policiales, los “abogados de la privacidad absoluta” estarían sufriendo de un “radicalismo post-Snowden”. La sugerencia de ese tipo de afirmación es que hay radicalismo, donde lo que existe es la defensa de derechos individuales. Pasa que, al final del día, una “privacidad a medias” es un derecho frágil y fácilmente vulnerable. Además, siempre hubo privacidad absoluta. Pensar algo distinto sería lo mismo que prohibir que un mensaje escrito en papel sea después quemado. O prohibir que existan conversaciones privadas en lugares remotos. Si todos los espacios se hacen pasibles de interceptación o acceso estatal, la misma esencia de la privacidad se compromete, y las relaciones y comunicaciones de las personas se inhiben. 

En conclusión

Las narrativas anticifrado sugieren una reacción conservadora que busca desarmar, a partir del lenguaje (y, en consecuencia, del lobby legislativo), avances de orden tecnológico y social. Lo hacen simulando futuros caóticos, estados de excepción y escenarios de crisis, invocando figuras conocidas e imágenes perturbadoras, típicamente utilizadas contra las libertades en internet.

En realidad ese conservadurismo policial intenta, incansablemente, rescatar la facilidad que una vez tuvo para invadir espacios y comunicaciones privadas. Que los defensores de la “vigilancia absoluta” se muerdan su propia lengua: sus palabras no son más que ecos del pasado.

La otra pandemia: internet y violencia de género en América Latina

Decir que la pandemia por la propagación de COVID-19 ha transformado por completo nuestra vida y el mundo tal como lo conocíamos se ha vuelto un lugar común. Uno de los cambios más notorios tiene que ver con la necesidad de confinamiento de un porcentaje importante de la población. En América Latina, algunas regiones están próximas a entrar al quinto mes de cuarentena.

Mucho se ha hablado respecto al rol preponderante que ha adquirido internet y la tecnología en este contexto de encierro. Pero mientras algunos se han empeñado en celebrar la gran capacidad humana de adaptarse a casi cualquier situación gracias a internet, la realidad es mucho más compleja. A raíz de las medidas gubernamentales para frenar la pandemia en América Latina, la región ha experimentado una alza en las violencias de género. El fenómeno también ha sufrido transformaciones asociadas al nuevo contexto y los retos que plantea el confinamiento y las subsecuentes restricciones de algunas medidas de apoyo y limitaciones a la capacidad de atención a las víctimas.

Con la intención de entender mejor los efectos de la pandemia sobre las mujeres que enfrentan violencias, la Organización de las Naciones Unidas, a través de la Relatoría Especial sobre la violencia contra la mujer, hizo una convocatoria para recibir información que contribuya a comprender la violencia de género en este nuevo contexto y las medidas que tanto gobiernos como organizaciones no gubernamentales han tomado para enfrentar los desafíos que plantean las restricciones sanitarias y las limitaciones de los canales convencionales de ayuda.

Desde Derechos Digitales quisimos aportar a este proceso mediante una consulta a nivel regional a organizaciones feministas y defensoras de derechos digitales, con el objetivo de entender el impacto que la pandemia ha tenido sobre sus métodos de trabajo y saber si el incremento de la violencia de género se ha manifestado también en los entornos digitales. Con información de países como Bolivia, Brasil, Chile, Colombia, Ecuador, Guatemala y México hemos podido identificar que ante limitadas respuestas oficiales en buena parte de los países, las redes no gubernamentales de apoyo se han mantenido activas en los entornos digitales, enfrentando nuevos desafíos.

Observamos que a las múltiples brechas en el acceso a internet en la región se suman condiciones de género, raza y nivel socioeconómico que impactan en el acceso a los canales digitales de ayuda frente al incremento de la violencia doméstica y la falta de acceso a atención e información sobre salud sexual y reproductiva. Estas dificultades se han agravado ante la implementación de medidas de movilidad restringida y confinamiento en la región donde, en muchos casos, las víctimas se encuentran todo el tiempo bajo la vigilancia de sus agresores.

Mientras las respuestas por parte de los gobiernos de la región han mostrado no ser suficientes para atender la amplia gama de necesidades que surgen en este contexto ni para documentar los impactos que enfrentan las víctimas de violencia de género, activistas y organizaciones de la sociedad civil han asumido la responsabilidad de generar datos, para informar y prestar asistencia a las víctimas de violencia.

Estas organizaciones también han sufrido los impactos del alza de la violencia de género a través de las plataformas digitales con ataques como la suplantación de identidad, la exposición de datos personales, amenazas directas dirigidas a lideresas públicas, defensoras de los derechos de las mujeres y grupos LGBTIQ+. Del mismo modo, se identificó el incremento de reportes a los contenidos publicados por las comunidades que resisten y apoyan a víctimas de violencia en plataformas de redes sociales.

Estas acciones buscan silenciar sus voces y tienen impactos directos en la libertad de expresión, pero también en el acceso a información, asistencia y apoyo de las víctimas violencia doméstica. Se suman intentos de aumentar la vigilancia en línea durante la emergencia de salud en algunos países, que pueden impactar directamente el anonimato que es fundamental para la protección del derecho a la privacidad y la asistencia segura a las víctimas.

Ante las restricciones de derechos humanos en el ámbito digital y el auge de la violencia de género en línea, la defensa de los derechos digitales y el desarrollo de una internet feminista se vuelven condiciones esenciales para proteger a las defensoras de derechos humanos que enfrentan las agendas racistas, misóginas y patriarcales en América Latina. Ningún reto que enfrentemos, aún siendo en un contexto tan particular como es la pandemia por COVID-19, justifica la implementación de medidas abusivas que -más allá de no dar resultados positivos para el beneficio social- menoscaban los derechos humanos.

Puedes leer el aporte de Derechos Digitales a la consulta de la ONU sobre la violencia de género en pandemia, haz clic aquí.

Propuesta de regulación de desinformación puede aumentar brechas y exponer las comunicaciones de millones de personas en Brasil

Actualización: Ayer, jueves 25 de junio, se presentó una nueva versión del proyecto de ley. En consecuencia, la votación se aplazo al 30 de junio. En Derechos Digitales estamos estudiando el detalle la propuesta actualizada.


En Brasil, el proyecto de ley conocido como “Ley de Fake News” (PL 2630/2020), destinado en un principio a limitar la circulación de desinformación en internet, se ha transformado en una propuesta de regulación que cede a grupos interesados mayor control sobre la información disponible en línea. ¿Lo peor? El proyecto lo hace en un régimen de urgencia y mientras el Congreso opera de manera remota, con limitadas posibilidades de participación de la sociedad.

Nuevas brechas en contexto ya desigual

Las versiones anteriores de la propuesta ya eran preocupantes, pues ampliaban las obligaciones de retención de datos personales de las usuarias de internet y autorizaban el bloqueo de aplicaciones. Sin embargo, la última versión impone el registro y la identificación de las usuarias de plataformas en línea, por medio de un documento de identidad y de un número de teléfono celular válido. Esta exigencia podría impedir que millones de personas puedan acceder a información y servicios que, en contexto de cuarentena, son más esenciales que nunca. Por ejemplo, una medida de este tipo podría significar que niñas y adolescentes — especialmente de los grupos más marginados de la población— no podrían acceder a aquellas plataformas que hoy son fundamentales para el acceso a la educación.

En un país donde gran parte de la población utiliza internet exclusivamente desde dispositivos móviles y por medio de planes de conexión limitados, las redes sociales y las aplicaciones de mensajería se han tornado esenciales para la comunicación, el acceso a la información y a los servicios esenciales. Durante la pandemia del COVID-19, estos servicios se han utilizado para satisfacer diversas necesidades, como la coordinación de desde redes de apoyo solidario para la distribución de insumos básicos y  la denuncia de abusos y violencia doméstica.

La imposición de este registro conlleva la recolección desproporcionada de datos por agentes privados, violando tanto los principios internacionales de derechos humanos como la normativa nacional de protección de datos, y exponiendo a las usuarias de internet a la explotación indebida de su información personal con fines comerciales.

Así también, la obligación de los proveedores de servicios en internet de chequear y suspender aquellas cuentas registradas con números de celular deshabilitados por las compañías telefónicas implica un intercambio innecesario de datos personales entre empresas, afectando también la libertad de expresión, al impedir repentinamente el acceso de las usuarias a toda su red de comunicaciones y contenidos compartidos.

Exponiendo a las más vulnerables

Igualmente preocupante es la imposición de nuevas exigencias a las aplicaciones de mensajería, que se verían obligadas a limitar el número de veces en que un mensaje puede ser reenviado y a almacenar los datos de todas las personas que lo han compartido.

Esta medida busca restringir la capacidad de acción de grupos maliciosos organizados. Sin embargo, junto con ello, pone trabas y límites a la circulación y distribución de contenidos verdaderos y de interés público a través de internet.

La obligación de retención de datos sobre el reenvío de mensajes implica además la asociación directa entre contenidos de una comunicación y las personas involucradas en ella, resultando en una violación al secreto de todas las comunicaciones, y que es fundamental para todas aquellas comunicaciones legítimas que demandan confidencialidad.  Si a eso sumamos la ya comentada obligación de registrar a todas las personas que utilizan servicios de redes sociales o mensajería privada, el resultado es un esquema masivo de vigilancia sobre la identidad de las personas y su actividad en redes digitales.

Es previsible que las personas más afectadas por estas medidas serán las defensoras de derechos humanos, ambientalistas, periodistas, participantes en movimientos sociales y activistas en general, principalmente si sus opciones para comunicarse son limitadas. Estas son personas que de manera recurrente sufren amenazas y abusos debido a su trabajo, tanto por parte de agentes del Estado como de los privados, y, por lo tanto, tienen una especial necesidad de comunicarse de manera segura. A la vez, la información que producen a menudo es valiosa, capaz de desafiar a las fuentes de información oficial, asumiendo muchas veces un riesgo a la seguridad personal, por lo que una medida de este tipo puede tener un efecto inhibitorio y conducir a la disminución de la circulación de información.

Fortaleciendo la censura privada

Por medio de una redacción confusa, la propuesta parece obligar la remoción de contenido y cuentas de redes sociales que violen los términos de uso de las aplicaciones de redes sociales, por medio de la apertura de un procedimiento de moderación que incluya el derecho a la defensa. A pesar de que la garantía de debido proceso en la aplicación de normativas privadas respecto a la moderación de contenidos apunta en la dirección correcta, es preocupante que el texto no solo legitime la remoción de contenido, sino que la vuelva obligatoria, sin miramientos por atender adecuadamente estándares internacionales de derechos humanos.

La confusión entre los contenidos que deben ser removidos por violar normas nacionales y aquellos que pueden ser eventualmente removidos por las plataformas —de acuerdo a los estándares establecidos en los Principios Rectores de Empresas y Derechos Humanos de las Naciones Unidas— puede devenir en un ambiente de efectiva censura privada, dado que las plataformas definen sus políticas según intereses comerciales propios.

 Un ejemplo de la aplicación desproporcionada de políticas internas es la prohibición de publicar imágenes de personas desnudas en Facebook, que llevó a la remoción de contenidos oficiales del patrimonio cultural brasileño en 2015.  En aquella ocasión la imagen fue restituida, pero quizás eso no habría sido legalmente posible si hubiese habido una obligación de remoción como la prevista en el proyecto en discusión. La existencia de un mecanismo de moderación de ningún modo garantiza que este tipo de situaciones dejará de ocurrir, si es que efectivamente existe una limitación a este tipo de contenido en la política de la plataforma.

En el extremo opuesto, la obligatoriedad de moderación podría generar retrasos que comprometan gravemente los derechos de las usuarias que tengan dificultades para acceder a la Justicia, o en aquellos casos en que esta no pueda responder de manera ágil. Ejemplos de este tipo son las amenazas en redes sociales o la exposición de información personal en internet, cuyas víctimas son principalmente mujeres y personas LGBTTTIQ+.

Un debate apresurado

Si bien es fundamental pensar en la implementación de medidas en un marco de responsabilidades, rendición de cuentas y transparencia de las empresas de internet, con el objetivo de mitigar los daños a los derechos humanos que resulten de su actuación, el texto propuesto puede acentuar tales daños, al aumentar su poder de regulación privada en las plataformas de redes sociales. Las problemáticas señaladas en el proyecto de ley reflejan una discusión apresurada sobre el combate a la desinformación, desarrollada en el medio de una grave crisis política y de salud.

El proyecto de ley evidencia un desconocimiento de las recomendaciones internacionales en la materia y una falta de madurez en el debate. La normativa propuesta es desproporcionada para los fines que persigue y va en sentido opuesto a la histórica demanda por universalizar el acceso a internet en Brasil, y disminuir las múltiples brechas digitales que agudizan el problema de la desinformación.

Ni el contexto de pandemia ni la persecución de la desinformación justifican la vulneración de los compromisos asumidos por Brasil con la protección de derechos humanos.

Junto a más de 40 organizaciones internacionales exigimos que el Congreso brasileño rechace la llamada “Ley de Fake News” y convoque un diálogo amplio para discutir cómo responder a los desafíos de la desinformación en línea, acorde a los compromisos del Estado brasileño con el respeto a los derechos humanos.