El 2021 nos presenta dos oportunidades

La exclusión definitiva de las cuentas de Donald Trump en varias plataformas digitales (o «deplatforming») era algo que muchas personas deseaban como respuesta a la retórica del presidente y a la diseminación de odio, noticias falsas y teorías conspirativas. En otras palabras, esperaban el momento en que las plataformas de difusión de contenidos le dieran el mismo tratamiento que le dan a un ciudadano o usuario común, cuando incumple políticas y términos de servicio. Esta decisión es trascendental en varios sentidos y latitudes, y genera cuestionamientos importantes como: ¿cuáles son los límites entre la libertad de expresión y la censura?

Sin embargo, este tipo de debates, inclusive intentar responder a dicha pregunta, requiere de un análisis exhaustivo, no apresurado y desde las diversas aristas que lo componen. La más importante de ellas para el trabajo de nuestra organización: el impacto en los derechos humanos en ambientes virtuales y el futuro de internet.

Sin temor a equivocarme, puedo concluir dos cosas. Lo primero dice relación sobre la vigencia y el valor que representa cada vez más la discusión sobre la moderación de contenidos en internet; así como la regulación, autorregulación o co-regulación de aquellos actores que median el intercambio de contenidos en internet: los intermediarios.

El análisis sobre la forma en que se diseñan y aplican las políticas, y términos de servicio por parte de las plataformas digitales requiere de la consideración de los principios básicos de la gobernanza de internet, los derechos humanos, y de los valores democráticos de sociedades como la nuestra. En este punto del debate sobre las decisiones de los intermediarios en internet, cobra importancia el intercambio de ideas y los acuerdos que surgen de la sociedad civil, la academia, y los múltiples actores que conforman el ecosistema abierto y democrático de la red global tal como la conocemos (y deberíamos seguir cultivando).

Si bien, las alternativas con las que los usuarios de las plataformas digitales contamos hoy en día para producir contenidos, publicarlos y difundirlos a través de un universo de plataformas digitales, son ilimitadas, se debe a la forma en que funciona internet en sociedades como la nuestra. Estamos ante una nueva oportunidad para educar, reeducarnos como ciudadanos digitales, y para promover debates puntuales sobre los límites de la libertad de expresión, censura y el acceso a la información; la diversidad y la moderación de contenidos desde una realidad global de sociedades que se van agudizando cada vez más por la polarización política, los discursos de odio y discriminatorio, y la desinformación.

La segunda conclusión es más bien una reafirmación de que el debate actual sobre este caso en concreto reaviva la necesidad de no perder de vista la importancia del cultivo de habilidades que le permitan al lector discernir entre aquella información que muchas veces suele estar contaminada por sesgos comerciales, ideológicos o sectarios. Es decir, la capacidad para juzgar críticamente la información consumida a través de plataformas digitales, aplicando criterios propios de un lector letrado, que le permita transformarla libremente en contenidos o acciones para las diferentes esferas de acción con las que dicho individuo interactúa.

Este 2021 nos presenta dos oportunidades para afinar la comprensión y participación objetiva en debates que sean exhaustivos, no sujetos a contingencias, y donde Latinoamérica se posicione (tal como ya lo ha hecho Estados Unidos y Europa) respecto al futuro de la regulación normativa para plataformas de contenido. Además de la exclusión en plataformas de difusión de contenidos y aquellas que no son de contenidos; los distintos desafíos actuales, en razón de contextos y estándares distintos, del discurso político, diseminación odio y la desinformación.

Jugando con reglas de otros nunca vamos a campeonar

El rol de las redes sociales en la planificación de la invasión del Capitolio es evidente. Los extremistas de ultraderecha, fueron celebrados por el presidente Donald Trump en Twitter, y usaron esta red social, y otras como Facebook o Parler –cuyo principal atractivo era la falta de moderación, lo que atrajo a los baneados de otros lugares con reglas más estrictas— para organizar, promocionar, y transmitir en vivo los hechos del 6 de enero.

Este episodio fue la gota que rebalsó el vaso para las principales plataformas de internet, que hasta entonces habían tolerado contenido nocivo generado por el presidente de los Estados Unidos y sus seguidores, quienes constantemente ponían a prueba los límites de los términos de uso de las redes sociales.

Como sabemos, Trump fue baneado de una multitud de redes sociales, y Parler fue retirada de las tiendas de Apple y Google, y Amazon terminó el contrato de alojamiento en la nube, argumentando que inclumplieron los términos de uso de los servicios.

El caso de la app Parler es particularmente interesante, porque no se trata de una decisión sobre contenido generado por usuarios, sino que se trató de eliminar el acceso a una aplicación completa, a un nivel superior en la infraestructura de internet. Esto forma parte del fenómeno denominado como moderación apilada (del inglés “on the stack”), en el cual proveedores de servicios que no se ofrecen directamente a usuarios, como es el caso del alojamiento, procesamiento de pagos o las tiendas de aplicaciones, son quienes toman las decisiones sobre el retiro de contenido ilícito.

Este no es un fenómeno nuevo, sino que hay casos que ocurrieron hace más de una década, como pasó con el bloqueo de las transacciones en PayPal de Wikileaks en 2010, o casos como el del proveedor de alojamiento en la nube Cloudflare, quien decidió terminar su relación contractual con el medio de comunicación neonazi The Daily Stormer, luego de la marcha de supremacistas blancos en Charlottesville en 2017, y con 8chan en 2019, luego de la masacre de El Paso, asociada a la teoría de conspiración QAnon, difundidos en gran parte en este foro.

Ahora bien, ¿cómo afectan las decisiones de moderación on the stack a las normas sobre responsabilidad de intermediarios que se han generado en Latinoamérica?

En la región, tenemos países que han establecido normas en la materia, sea a través de leyes, como Chile (con la Ley 20.435 de 2010, en materia de derechos de autor), Brasil (con el Marco Civil de Internet de 2014) o México (con la reforma a la Ley federal de derecho de autor en 2020), o de decisiones judiciales, como es el caso de Argentina (en el caso Rodríguez contra Google de 2014), o Colombia (con la Sentencia de Unificación 420/19 de 2019).

Estas normas, más allá de sus virtudes o defectos particulares, ofrecen criterios claros y estables respecto de la responsabilidad de los proveedores de servicios por el contenido ilícito de sus usuarios, y de los casos en los que se justifica el retiro de contenidos de internet, lo cual suele ir asociado a un procedimiento claro y una orden judicial. Sin embargo, estas regulaciones dejan preguntas sin resolver: Por ejemplo, ¿Qué normas se aplican a los procesadores de pagos? O ¿qué pasa respecto de las decisiones de bloqueo de toda una aplicación?

En contraste a estas normas, las decisiones de moderación apilada suelen ser tomadas de manera contingente y en reacción a hechos concretos originados fuera de internet, y se basan en el criterio de cada plataforma, conforme a los incumplimientos de los contratos que tengan con las personas o aplicaciones que usan sus servicios. Además, las decisiones de las plataformas no suelen seguir procedimientos establecidos, y carecen de transparencia.

En esta ocasión, se eliminaron cuentas y servicios que no nos gustaban mucho por su generación de mensajes odiosos que portaban, pero en el futuro puede darse un caso en que bloqueen algo útil para la sociedad, como podrían ser las aplicaciones de mensajería encriptada. Es preciso tener reglas claras antes de que se eliminen plataformas que facilitan la libertad de expresión.

Con una internet cada vez más centralizada, las personas, organizaciones y gobiernos dependen cada vez más de las decisiones tomadas por los proveedores de servicios. Considerando que las decisiones tomadas por estas plataformas tienen alcance mundial, resulta necesario abrir el debate sobre qué rol van a tener las normas creadas por países distintos a los EE.UU. La Unión Europea ya propuso el proyecto de la Digital Services Act en diciembre. Todavía falta saber que podemos hacer desde América Latina.

Bloqueos y trolls: la nueva normalidad del copyright

Para buena parte del mundo, el comienzo del año conlleva una gran razón de celebración: en varios países se celebra el Día del Dominio Público, la jornada en que una enorme cantidad de obras intelectuales dejan de hallarse restringidas por los derechos exclusivos de autor, debido al transcurso del tiempo desde la muerte de sus creadores y creadoras. Aunque esa celebración es de complejidad variable, dependiendo de cada legislación nacional, y aunque hay países que por el momento no cuentan con esta celebración, siempre es beneficioso que exista más cultura circulando de manera libre, sin ataduras legales innecesarias. Más aún en un contexto de pandemia e intercambio cultural a distancia.

Como destacamos hace apenas unas semanas, la pandemia ha dejado claro que el acceso al conocimiento y la cultura, en sus distintas instancias de ejercicio, es una parte fundamental del desarrollo humano; al mismo tiempo que se reconoce que las reglas rígidas de propiedad intelectual se erigen como un obstáculo para ese ejercicio. Aunque la realidad y el futuro nos inviten a flexibilizar, o modernizar esas reglas, la regulación y la práctica ofrecen un panorama desalentador: no hay avances para entregar mejores reglas favorables a la educación y la cultura a nivel internacional. A la vez, varios países en América Latina comienzan a importar, o mantienen algunas de las peores prácticas globales sobre derechos de autor.

La invasión de los trolls

En Brasil, a fines de noviembre de 2020 fue denunciado por Canaltech el arribo masivo de los trolls del copyright, mediante el envío de cartas a miles de personas, cobrando a cada una de ellas 3 mil reales —unos 570 dólares de EE. UU—, por haber registrado sus números de dirección IP en conexión con la descarga vía torrent de algunos títulos de películas hollywoodenses. 

La información de esas personas provino de las operadoras de telecomunicaciones en el contexto de una solicitud por vía judicial, a instancias de una empresa alemana de gestión de derechos de autor, ocurrida a mediados de 2019. Los datos personales de unos 70 mil destinatarios de esas cartas quedaron expuestos a terceros, mediante una planilla compartida. De esta manera, se creó un riesgo innecesario para decenas de miles de personas, que buscaba facilitar un cobro de dinero, basado en una reclamación de muy dudosa legalidad. El Partido Pirata brasileño, en conjunto con varias organizaciones y redes de la sociedad civil, está denunciando públicamente esta actitud matonesca y contraria a normas y principios del Marco Civil de Internet y de la nueva Ley General de Protección de Datos.

Evadiendo a los jueces

Como denuncia Hiperderecho, en Perú se ha vuelto costumbre el bloqueo de sitios en los últimos años, por orden administrativa y sin intervención judicial alguna. Allí, el Instituto Nacional de Defensa de la Competencia y de la Protección de la Propiedad Intelectual (INDECOPI), en una interpretación laxa de sus atribuciones bajo la Ley de Derecho de Autor, desde 2018 ha ordenado el bloqueo de decenas de sitios como una medida cautelar por supuesta infracción de derechos de autor en los mismos. Esta medida se adopta sin notificación ni intervención de los titulares de los sitios, sino que se ordena el bloqueo a las empresas proveedoras de internet que operan en el país. A pesar del carácter extremo de la medida, no se generan instancias para asegurar su ajuste a derecho ni las enormes afectaciones de derechos que se generan. Es decir, no hay un control de la legalidad, ni la necesidad, ni la proporcionalidad de los bloqueos, o siquiera una comprobación imparcial de las circunstancias que los justifican.

Lo lamentable es que esto no es exclusivo de Perú. En Uruguay, la ley autoriza desde 2021 el bloqueo administrativo de sitios por infracción a los derechos de autor, específicamente tratándose del streaming audiovisual no autorizado. A pesar de las fuertes críticas de la sociedad civil a la versión inicial, la Ley de Presupuesto 2020-2024, faculta a la Unidad Reguladora de Servicios de Comunicaciones (URSEC) a adoptar “medidas sancionatorias y preventivas” que incluyen el bloqueo de sitios, previa denuncia de los titulares de servicios de televisión. Tras las críticas, el lenguaje de la ley fue limitado antes de su aprobación, y aunque todavía falta la reglamentación del procedimiento por el Ejecutivo, la mala señal es clara: es posible convertir a la autoridad administrativa en brazo armado de los intereses de un puñado de industrias en desmedro de la red.

El futuro exige algo mejor

A la espera de lo que ocurra en México con la discusión sobre la inconstitucionalidad de las reformas legales en implementación del T-MEC, en el resto de la región no hay muy buenas noticias en el ámbito de la protección del acceso al conocimiento y la cultura en línea. En lugar de flexibilizar las condiciones de acceso cuando parece más crucial (sin siquiera mencionar las necesidades más profundas de países en desarrollo), continuamos observando algunas de las peores prácticas posibles ya presentes en otras latitudes. A estas alturas, sabemos que el problema no son los trolls, ni los bloqueos, ni los retiros sin orden judicial: el derecho de autor está roto. No necesita ser arreglado, sino reformulado. El presente y el futuro lo exigen.

A la mierda el algoritmo

Una de las principales razones esgrimidas para justificar la inclusión de tecnologías en procesos sociales complejos dice relación con la eficiencia y eficacia que tales soluciones podrían ofrecer. Ante realidades complejas, la promesa tecnológica se articula en torno a la oferta de soluciones simples. Sin que por ello se entienda cómo es que el dispositivo llegó a tal resolución: el ya conocido problema de las “cajas negras “algorítmicas y su opacidad ante el escrutinio público.

Así, por ejemplo, a la hora de evaluar los méritos de las y los postulantes a la educación superior, o al momento de determinar quiénes estarán primeros en la fila para recibir la vacuna contra la COVID-19, no pocos han sugerido que tales decisiones sean delegadas hacia dispositivos tecnológicos y, entre estos, la etiqueta más convencional es la de “algoritmo”.

Los algoritmos, que no son más que sets de instrucciones concatenadas entre sí para articular un resultado, son erigidos como mecanismos “científicos”, “objetivos” y “neutrales” capaces de determinar cuestiones tan relevantes como el límite entre quiénes son inmunizados, y quiénes no, en medio de la pandemia más grande de los últimos 100 años.

Entonces, ¿Cómo podemos comprender que el algoritmo implementado por el hospital universitario de Stanford (Estados Unidos) haya excluido de la inmunización a las y los médicos internos que se enfrentan día a día al COVID-19?, y más importante todavía: ¿Sobre quién recae la responsabilidad de tal decisión y sus consecuencias?

Tal como explican Eileen Guo y Karen Hao, “los algoritmos se usan comúnmente en la atención médica para clasificar a los pacientes por nivel de riesgo, en un esfuerzo por distribuir la atención y los recursos de manera más equitativa. Pero cuantas más variables se utilicen, más difícil será evaluar si los cálculos son defectuosos”. En el caso particular de Stanford, la exclusión de las internas e internos se debió al modo en que se ponderó la exposición a pacientes por COVID-19. En el esfuerzo por hacer un modelo que integrase más variables, se perdieron de vista cuestiones que, sin mediar más que el sentido común, podrían haber tenido una resolución distinta.

La respuesta de las y los trabajadores del hospital no se hizo esperar: “Fuck the algorithm!” fue una de las principales consignas.

Tal grito de protesta ya no es novedoso. Fue exactamente la misma proclama que sostuvieron las y los estudiantes ingleses ante el proceso de selección universitaria, que mediante la aplicación de un algoritmo de selección favoreció a las y los postulantes de las élites inglesas. Louise Amoore auguró con claridad que la protesta contra el algoritmo estará en el corazón de la protesta política del futuro.

Así, día a día “los algoritmos” comienzan a tener un rol significativo en el modo en que configuramos nuestras relaciones sociales y, en especial, sobre los criterios decisionales que articulan la implementación de políticas públicas. De todas formas, hemos de saber que tras cada resultado algorítmico existe una decisión humana. Y, las más de las veces, tal decisión humana es también una decisión política (esto es, con contenidos normativos tácitos o explícitos), que muchas veces es diluida por la pretensión científica del dispositivo tecnológico.

Es por ello que debemos tomar especiales precauciones a la hora de favorecer la implementación de soluciones tecnológicas ante problemas complejos. No solamente atendiendo a la capacidad de éstas para arrojar un resultado, sino considerando las implicancias que subyacen a tal aplicación: por ejemplo, la reproducción de sesgos raciales que llevó, entre otras cuestiones, a abandonar el algoritmo de admisión para las y los postulantes del doctorado en ciencias de la computación de la universidad de Austin, en Texas.

Tal como señala María Paz Canales, “necesidad, adecuación y proporcionalidad en la respuesta tecnológica es lo que separa una crisis de salud global de una renuncia de los derechos fundamentales”. Es posible extender tal juicio más allá de la crisis de salud global y situar la consideración por la necesidad, adecuación y proporcionalidad como principios rectores para la aplicación de tecnologías en el concierto de la resolución de problemáticas públicas.

Por cierto, este tipo de fenómenos no son ajenos a nuestra región. Durante el segundo semestre de 2020, Derechos Digitales junto a un equipo de investigadoras e investigadores latinoamericanos, realizó una investigación destinada a conocer las distintas formas en que se implementan este tipo de tecnologías en cuatro países de América Latina (Brasil, Chile, Colombia y Uruguay). Esperamos poder compartir los resultados de nuestra indagación durante el primer trimestre de 2021.

En el ínterin, y a modo de avance, resulta importante comprender la forma en que son promocionadas estas tecnologías versus cuáles son sus aplicaciones efectivas. Sobre todo, si de su aplicación dependerá el entrar a una bolsa de empleo o ser considerado como una persona cuyos derechos pueden ser vulnerados. Este tipo de aplicaciones tecnológicas en América Latina son crecientemente populares, es fundamental, entonces, mantener el horizonte en la evaluación crítica de su necesidad, adecuación y proporcionalidad.

Sobre la (in)violabilidad de las comunicaciones

El derecho a la inviolabilidad de las comunicaciones privadas es un derecho fundamental contemplado en las principales convenciones internacionales sobre derechos humanos. En Latinoamérica, la mayoría de sus países reconoce a nivel constitucional la inviolabilidad de las comunicaciones como un derecho fundamental y que, por tanto, solo puede ser suspendido en casos excepcionales y bajo las condiciones establecidas en una ley. O, al menos, así debería ser.

Los estudios, sin embargo, muestran que el uso de medidas investigativas intrusivas de la privacidad de las personas, entre ellas, la interceptación de las comunicaciones, es una práctica que está lejos de ser excepcional.

Interceptación de las comunicaciones

Dado su carácter de derecho fundamental, la regla general es que el derecho a la inviolabilidad de las comunicaciones solo pueda ser limitado en los casos y bajo las circunstancias establecidas expresamente por ley, lo que se da, generalmente, en el marco de investigaciones penales o por motivos de seguridad del Estado.

Adicionalmente, estas medidas intrusivas suelen ir acompañadas por algunos mecanismos de control para evitar su principal riesgo: que terminen siendo ocupadas como herramientas de vigilancia estatal, especialmente en contra de ciudadanos y disidentes del gobierno de turno. Esto no es conspiranoia, la protección de las comunicaciones privadas frente a la vigilancia estatal se remonta a varios años en el pasado, siendo uno de los primeros antecedentes el caso de Giuseppe Mazzini, activista por la unificación italiana que descubrió que agentes estatales leían sus cartas.

Mecanismos de control de la vigilancia estatal

El principal mecanismo de control es la autorización judicial previa, pero algunos países han ido un poco más allá. Por ejemplo, en el caso de Brasil, una vez realizada la diligencia de interceptación, el juez debe decidir si los resultados son relevantes para la investigación. Otro caso interesante es el de Chile, cuya legislación exige, además de la autorización judicial previa, que la medida de interceptación sea notificada al afectado con posterioridad a su realización (artículo 224 del CPP). Sin embargo, la evidencia indica que los mecanismos de control existentes no son suficientes.

En el caso chileno, el mecanismo judicial ha mostrado ser mucho menos estricto de lo que debiera. De acuerdo a números recientes, se realizan alrededor de 66 interceptaciones diarias, por lo que es difícil que jueces estén analizando el mérito de las solicitudes. Estas  solo debieran ser autorizadas bajo sospechas fundadas, basadas en hechos determinados, y para persecución de delitos que merezcan pena de crimen). En cuanto a la notificación del artículo 224, tampoco se cumple.

Actualmente el único mecanismo fiable de control que existe para comprobar cómo funcionan las interceptaciones del CPP es la entrega voluntaria que las principales empresas de telecomunicaciones realizan de datos anonimizados, lo que ha permitido evidenciar los problemas del sistema.

Pero el proyecto de ley sobre delitos informáticos pondría en riesgo este último mecanismo, al aumentar la sanción que arriesgan las empresas en caso de incumplir el deber secreto respecto de los requerimientos de interceptación que reciben. Con las nuevas reglas, bajo la amenaza de una sanción penal – hoy, multa administrativa-, difícilmente las empresas querrán colaborar con instancias de control ciudadano, como la encuesta Quién Defiende Tus Datos.

Una explicación posible para la falta de cumplimiento de esta obligación legal es la falta de capacidades técnicas para realizar las notificaciones exigidas por la ley. De ser este el caso, la dificultad podría ser fácilmente solucionada con la ayuda de las mismas empresas de telecomunicaciones que reciben las órdenes de interceptación.

Estas empresas fácilmente podrían comunicar a sus usuarios el hecho de haber sido objeto de escuchas telefónicas, una vez terminado el plazo de la investigación. Pero actualmente están impedidas de hacerlo. Esto, porque mientras no se formalice la investigación en su contra, el usuario afectado por una escucha telefónica no tiene calidad de interviniente en el proceso penal y, por tanto, el deber de secreto que pesa sobre las empresas de telecomunicaciones alcanza al propio usuario afectado. Esto último, por aplicación del secreto relativo del proceso penal chileno: las investigaciones del Ministerio Público sólo pueden ser conocidas por los intervinientes del proceso (artículo 182 CPP), es decir, fiscal, imputado, defensor, víctima y querellante (artículo 12 CPP).

¿Significa esto que las personas afectadas por interceptaciones no tienen derecho a saberlo? En ningún caso. El artículo 224 establece el deber de notificar al “afectado”, no al “interviniente”. Pero la falta de mecanismos de control eficaces y el desconocimiento de los afectados por esta clase de medidas permite que las mismas sean abusadas, llegando a usarse incluso para la creación de pruebas. Lo anterior es particularmente grave, considerando que ni siquiera el Congreso ha logrado que el Ministerio Público informe sobre el cumplimiento de sus obligaciones legales.

La solución

Dado que el Ministerio Público no está cumpliendo con el deber de notificación del artículo 224, y que se niega a entregar información al respecto, en una sesión reciente de la Cámara de Diputados de Chile, donde se discute el proyecto de ley sobre delitos informáticos, se propuso un mecanismo de control que pareciera ser una solución eficaz y eficiente: que sean las telcos las que cumplan con el referido deber de notificación.

Sin embargo, tanto los representantes del Ministerio del Interior y Seguridad Pública como del Ministerio Público se opusieron a la medida, sin ofrecer una alternativa, aún cuando durante la misma sesión admitieron no estar cumpliendo con la obligación legal de notificar al afectado.

Ante la falta de soluciones alternativas, lo razonable sería que se volviera a discutir la que, hasta ahora, pareciera ser la única solución efectiva.

Ni conspiranoia ni exageración. No necesitamos viajar cientos de años en el tiempo, recordando a Mazzini para justificar nuestra preocupación. Basta pensar en Edward Snowden, cuyo caso – lejos de ser el único- permitió develar la extensión de la vigilancia estatal.

La invasión de los dispositivos usurpadores de cuerpos

Tu smartphone sabe cuántas horas duermes, en qué plataformas de redes sociales pierdes tu tiempo y qué sitios visitas. Hay refrigeradores que no solo saben qué contienen, sino que son capaces de hacer la lista de compra por ti. Si tomas clases o exámenes a distancia debido a la pandemia, puede que la plataforma que tu escuela o universidad ha decidido usar quiera saber cuántas veces mueves los ojos y si los tienes fijos en la pantalla durante toda la clase. La nueva pulsera de Amazon no solo registra tu ejercicio o tus horas de sueño, sino que también tiene opiniones sobre tu voz, tu cuerpo y tu estilo de vida.

Parece que hace ya largo rato que, como sociedad, decidimos dar por superada la falsa dicotomía entre privacidad: hemos decidido que, mientras más datos tengan los dispositivos, aplicaciones y plataformas sobre nosotros, más fácil nos será hacer las compras, sincronizar todas las cosas y tomar la menor cantidad de decisiones posible.

Esta característica —que se denomina “function creep” y describe el hecho de que un determinado sistema sea usado para una finalidad distinta a aquella para la cual fue diseñado originalmente— es típica de las tecnologías modernas, que al “poder” llevar a cabo ciertas funciones o recoger ciertos datos (como la ubicación de una persona, su velocidad de movimiento o incluso, en el caso del Halo, su temperatura) terminan buscando posteriormente qué nuevas funciones pueden ofrecerse con los datos recabados, y no a la inversa.

Lo más importante es que estos datos son recolectados por empresas como Amazon con el objetivo primario de “ajustar sus recomendaciones”, es decir, de venderte más cosas, puesto que su negocio se basa en la pretención de querer conocer al usuario incluso más de lo que el usuario se conoce a sí mismo.

¿No reviste gravedad acaso el hecho de que, como usuarios, no tengamos la agencia necesaria para ejercer resistencia al enfrentarnos con la implementación de tecnologías como el reconocimiento facial y el rastreo de la mirada en el sector educativo? ¿No es grave que hayamos normalizado el hecho de que una aplicación “de salud” o “de menstruación” posea información íntima sobre nuestros cuerpos y pueda venderla con fines publicitarios? La pandemia, como toda crisis, ha sido el caldo de cultivo ideal para facilitar que la sociedad acepte más rápidamente medidas de vigilancia que se le ofrecen como tablas de salvación, como las coronapps, propiciando que se instalen soluciones que hacen retroceder la línea limítrofe de la privacidad de un modo que luego será sumamente difícil restaurar.

Se hace no solo necesario, sino urgente, replantearnos el orden de prioridades que, como sociedad, hemos asignado a nuestra privacidad y a los datos que existen sobre nuestro cuerpo y nuestra actividad en línea. En la era de lo público, en la que más que nunca parecemos estar viviendo conectados a una cámara, no es cierto que la privacidad sea una cosa del pasado a la que debemos renunciar: muy por el contrario, es cada vez más indispensable que rescatemos lo privado, el espacio donde nuestra humanidad, y por ende nuestra democracia y nuestra cultura cívica, pueden florecer de manera más libre.

La opacidad afecta la confianza en las agendas digitales

En enero de 2020, el gobierno salvadoreño presentó su Agenda Digital de País 2020-2030, en un contexto de enfrentamiento entre el presidente Nayib Bukele y la Asamblea Legislativa, a raíz de la solicitud del Ejecutivo de la aprobación de un préstamo por $109 millones para financiar la segunda etapa del denominado “Plan Control Territorial”.

La Agenda Digital de País 2020-2030 propone utilizar las tecnologías para implementar lo que denomina una “nueva gobernanza”. Esta agenda contiene 4 ejes programáticos, que básicamente se resumen en: 1. Identidad Digital; 2. Innovación, Educación y Competitividad; 3. Modernización del Estado; y 4. Gobernanza Digital.

Desde su lanzamiento, algunas dudas surgieron sobre la viabilidad de este ambicioso plan. En particular, aquellas referidas a los contrapesos y regulaciones necesarias para minimizar las afectaciones a los derechos y libertades que el uso de las tecnologías puede representar en una sociedad como la salvadoreña, en la que la conciencia de los derechos digitales y su ejercicio aún dista de ser ideal; en un país que aún no cuenta con una ley especializada en protección de datos personales y que tampoco cuenta con una política pública de ciberseguridad, entre otros riesgos.

En ese sentido, no era descabellado dudar sobre la protección y regulación en el uso de los datos que serán colectados para alimentar las soluciones tecnológicas que propondrá el gobierno, sobre quién tendrá acceso a ellos, qué destino tendrán esos datos, qué medidas de ciberseguridad se usarán para proteger los sistemas informáticos y la tecnología a implementar, cómo se evitará que las tecnologías implementadas y los datos colectados sean usados para la vigilancia indiscriminada, para la violación de los derechos o para favorecer intereses privados.

No obstante, era natural esperar que estas incertidumbres encontraran solución a medida que la actuación gubernamental pudiera ser evaluada. De ahí que el actual contexto de la pandemia de COVID-19 y la respuesta del Ejecutivo a la misma, haya servido para hacer una breve reflexión sobre estos temores.

Los temores se incrementan

En el marco de las acciones para enfrentar la pandemia de la COVID-19, el Ejecutivo salvadoreño tuvo a su disposición más de 3 mil millones de dólares, según informó el ex presidente del Banco Central de Reserva a la Comisión Especial de la Asamblea Legislativa, que investiga los gastos realizados por el gobierno de Bukele en este contexto.

Durante este mismo periodo, numerosos artículos periodísticos han revelado indicios de corrupción en los gastos realizados por el gobierno, como compras a empresas de familiares de funcionarios gubernamentales, compras a sobreprecios, compras de insumos médicos a empresas sin relación con el rubro, etc.

Ante estas revelaciones, lejos de corregir la opacidad en la rendición de cuentas, el gobierno de Bukele ha optado por obstaculizar el acceso a la información, al hacer un uso abusivo de las declaraciones de reserva contempladas en la Ley de Acceso a la Información Pública (Art. 19), sin cumplir con una adecuada fundamentación (Art. 21) para tal declaratoria.

Así, por ejemplo, el Ministerio de Agricultura y Ganadería puso en reserva la información relativa a la confección de paquetes alimenticios para ser entregados a personas en situación de vulnerabilidad, afectadas por la COVID-19, que esa cartera de Estado lideró. También, el Ministerio de Salud, uno de los que más señalamientos de compras anómalas ha recibido, declaró reservada la información contenida en memorándums y correspondencia producidos por el Laboratorio Nacional que realiza las pruebas COVID-19, así como los documentos relativos a la transición que el Centro Internacional de Ferias y Convenciones experimentó, para convertirse en el Hospital El Salvador. En ambos casos, las declaraciones de reserva fueron realizadas bajo una interpretación antojadiza de los preceptos legales que facultan esta declaratoria.

Aunque esta artimaña no es nueva, pues ya había sido utilizada para evitar rendir cuentas sobre gastos antes de la pandemia, su implementación recurrente en estas últimas semanas parece ser una pieza más de una estrategia del Ejecutivo de escapar, tanto del control de las instancias que constitucionalmente deben auditarlo, como del escrutinio de la sociedad. A esto se suma el interés del Ejecutivo por minar la independencia del Instituto de Acceso a la Información Pública –ente encargado de garantizar el acceso a la información pública y la protección de los datos personales– mediante el nombramiento de funcionarios afines a sus intereses políticos. Ese mismo interés se expresa en la flagrante desobediencia de los titulares de los ministerios señalados por indicios de corrupción a atender las demandas de explicación exigidas por la Asamblea Legislativa, y la negativa de la Policía Nacional Civil a cumplir su obligación constitucional cuando se ha requerido el apremio de los funcionarios que han ignorado estas solicitudes de la Asamblea.

Este esmero en optar por  la opacidad en la gestión del erario público, así como el proceso de desmantelamiento de la institucionalidad del Estado, reafirmado el 9 de febrero del presente año con la invasión de la Fuerza Armada al recinto Legislativo, y recrudecido con la desobediencia a las resoluciones del Órgano Judicial (incluyendo las de la Sala de lo Constitucional de la Corte Suprema de Justicia), son suficientes señales para incrementar los temores iniciales sobre la implementación de una Agenda Digital por parte del actual gobierno.

Y es que, con estos antecedentes, no puede confiarse la protección de los datos personales, de la privacidad, la libertad de expresión y la seguridad, a gobiernos capaces de ocultar sistemáticamente la información pública, de huir de la rendición de cuentas y de instrumentalizar a las fuerzas de seguridad del Estado con fines políticos. No podemos obviar el temor a que gobiernos opacos, que blanden el uso de las tecnologías como estandarte de modernidad, sientan el deseo de utilizarlas para la persecución política, la censura y el control de nuestros datos

En tal sentido, un estado de vigilancia permanente por parte de la sociedad civil nacional e internacional se vuelve necesario para prevenir el uso malicioso de las tecnologías desde el Estado, y para combatir agendas que busquen aumentar el control gubernamental sobre el despliegue de esas tecnologías. Considerando la muy probable victoria del oficialismo en las próximas elecciones de diputados, una nueva configuración del poder político podría darle un poder peligrosamente enorme a Bukele, lo cual vuelve urgente la contraloría social en el país. Esta actitud vigilante, claro está, aplica frente a cualquier mandatario o poder estatal, presente o futuro.

La vigilancia por reconocimiento facial se extiende en la región

El fuerte impacto social y económico que la pandemia de COVID-19 ha tenido y seguirá teniendo en los países de América Latina se ha sentido también en la concepción que tenemos sobre el uso de tecnologías, en particular aquellas que permiten a las personas comunicarse a distancia. No obstante, la inclinación por soluciones tecnológicas y vigilantes a la emergencia sanitaria, no ha frenado la implementación de uno de los fetiches de la seguridad pública: el reconocimiento facial automatizado en el espacio público.

Aparece así una aparente paradoja, en tanto las medidas sanitarias a menudo exigen o recomiendan el confinamiento y, en caso de estar en la calle, el uso de mascarillas que limitan el reconocimiento. Sin embargo, al mismo tiempo se ha apostado por tecnologías de vigilancia biométrica como el reconocimiento facial, que además de ser presentada como extremedamante útil para cuestiones relativas a la seguridad pública, sería también necesaria para controlar la posibilidad de contagios en las ciudades, para fiscalizar el transito entre países (como si no se les identificara en los controles policiales), además de ser lo suficientemente avanzada como para aprender a reconocer a personas con barbijo. Y dado que las necesidades de seguridad se mantienen o aumentan (según sectores políticos, al menos), cabría seguir instalando tecnología de punta para observar a la población. A aquello que ya hemos sabido, se han sumado múltiples iniciativas para implementar la sospecha sobre la totalidad de las personas en el espacio público.

Más ojos sobre las ciudades

En Argentina, la Ciudad de Buenos Aires está usando un sistema de reconocimiento facial automatizado, el Sistema de Reconocimiento Facial de Prófugos (SFRP). Ese sistema, implementado en abril de 2019 y que la Asociación por los Derechos Civiles combate en tribunales por su inconstitucionalidad, llegó hasta las calles a pesar de su aparente falta de respaldo normativo. Esta imposición del gobierno de la Ciudad, en lugar de retroceder frente al rechazo de los grupos defensores de derechos humanos, fue fortalecida mediante un proyecto de ley para regular su funcionamiento como parte de los sistemas ya existentes de vigilancia. El rechazo de la sociedad civil no se hizo esperar.

El mismo mes de octubre en que se discutía el proyecto, Human Rights Watch acusó al gobierno federal de exponer información de niños, niñas y adolescentes, y al gobierno de la Ciudad de Buenos Aires de usar esa información en su propio SFRP, pese a la mala calidad de la información. A pesar de la escandalosa situación, la aprobación por la Legislatura de la Ciudad de la regulación legal del sistema, sirvió para validar su funcionamiento más que para restringirlo. Como acusaba la sociedad civil, se trató de una legitimación de un sistema ya implementado al margen de la legalidad, creando un estado de permanente sospecha sobre la ciudadanía en una de las ciudades más grandes de la región. En el resto del país también observan con interés la tecnología, omitiendo los peligros que involucra.

En México, varias localidades hacen sus propios esfuerzos por erigirse como defensores de la seguridad pública mediante la intrusión extrema en el espacio público. En Ecatepec, en el estado de México, el Proyecto Jaguar promete a la vez vigilancia de alta resolución y conectividad pública. No muy distinta es otra iniciativa en la Ciudad de México, enmarcada en contexto de pandemia (pero con antecedentes muy anteriores). En tanto, en el estado de Coahuila, se anunciaba que la reglamentación para un avanzado sistema de reconocimiento facial estaría lista, a pesar de que la tecnología misma ya estaba disponible. Es más, según relata Quinto Elemento, el sistema fue adquirido por compra directa a mediados de 2019, con la esperanza de desplegarlo a pesar de no contar ni con los datos necesarios para su eficacia, ni con la autorización legal suficiente. Una vez más, la tecnología aparece como un hecho consumado, aun cuando no puede operar, y su regulación como una formalidad secundaria.

En Uruguay, uno de los países más seguros en la región, igualmente avanza con fuerza el uso de reconocimiento facial con fines de seguridad en el espacio público. Ya en febrero de 2020, la misma empresa que mantiene cámaras en la entrada de recintos deportivos se adjudicó la licitación del Ministerio del Interior uruguayo para instalar cámaras con capacidad para el reconocimiento facial, 8 400 en todo el país. La autorización legal faltante, introducida después de esa compra mediante artículos en la Ley de Presupuesto Nacional, ha seguido avanzando recientemente en el Congreso, pese a la fuerte oposición de la sociedad civil.

Con el apoyo de decenas de organizaciones, el mensaje de rechazo a esta forma de vigilancia llegó a los legisladores. A pesar de que el mensaje ha sido también oído por miembros del Congreso, han avanzado medidas para el traspaso de bases de datos personales, facilitando así el funcionamiento técnico del sistema. Y ante la interpelación por los aspectos negativos del sistema, el gobierno ha respondido que las preocupaciones deberían haberse formulado antes del gasto de un millón de dólares en el software. Es decir, la tecnología termina siendo más importante que los derechos de las personas, y su adquisición un hecho entendido como consumado e irreversible. Una respuesta indefendible ante la exposición de un riesgo inaceptable.

El momento histórico

Sabemos que hay más iniciativas, como también que grandilocuentes anuncios a veces parecen no ser tan reales. La oferta de tecnología de reconocimiento facial en el espacio público, tanto con supuestos fines de seguridad como para combatir la pandemia, mediante la identificación de rostros con cubrebocas y todo. No se trata de un camino inevitable; sin embargo, una y otra vez hemos visto a gobiernos locales y nacionales priorizar la adquisición de una tecnología riesgosa y falible, y luego preocuparse de su regulación. Los gobiernos no han entendido que no es necesario prescindir de la privacidad y la libertad en nombre de la seguridad, y que las garantías fundamentales exigen una regulación estricta que no cree esa clase de riesgos.

Mientras así sea, debemos seguir exigiendo el rechazo y la prohibición del reconocimiento facial.

La negociación internacional de nuestros datos personales

Desde enero de 2019 se está negociando en la Organización Mundial de Comercio (OMC) la Declaración Conjunta sobre el Comercio Electrónico, con la que 82 de los 164 países miembros de la OMC se han propuesto definir un conjunto de normas globales con el objeto de hacerlo más sencillo tanto para los consumidores como para las empresas.

Entre las materias que la iniciativa propone regular, una de las más relevantes es la transferencia internacional de datos personales, pues el tratamiento de datos es un requisito de existencia para el comercio electrónico: el solo hecho de seleccionar y comprar un producto constituye una comunicación de nuestros datos personales, en tanto “información referida a una persona identificada o inidentificable”.

Se trata de una encrucijada única, que plantea tanto la posibilidad de otorgar protección internacional a la privacidad de las personas y a la protección de sus datos personales (o a la autodeterminación informativa, como prefiero llamarle), como la de minar sus derechos.

Tres posiciones en disputa

Como en toda negociación, hay distintas cartas sobre la mesa, pero es posible identificar tres posiciones principales: la de Estados Unidos, la de Europa y la de China. Así —en un acto de reduccionismo y perdonando las imprecisiones que de ello puedan surgir— podríamos decir que para Estados Unidos la protección de los datos personales es posible solo en la medida en que no afecte el comercio. Para Europa el desarrollo del comercio es sumamente importante, pero no hay interés económico que esté por sobre los derechos de las personas. Para China, la protección de los datos personales es fuente de preocupación por motivos estratégicos y no de derechos humanos: China entienden los riesgos asociados a que terceros almacenen información sobre sus ciudadanos.

Considerando las posturas de China y la Unión Europea (UE), lograr un acuerdo parece difícil y el riesgo del fracaso de las tratativas es alto. Más todavía si tenemos en cuenta que tanto la normativa europea de protección de datos personales como el proyecto de ley chino tienen pretensiones extraterritoriales. En el caso de la UE, además, se ponen trabas para la transferencia de datos a países que no ofrezcan un nivel de protección equivalente al de su normativa. En esta materia la UE pareciera ser intransigente y no se ve cómo podrían sumarse a un proyecto que no contemple normas fuertes sobre protección de datos personales, ya sea desde el punto de vista de la protección del derecho a la autodeterminación informativa de los ciudadanos o de la soberanía de los datos. Un proyecto carente de dichas protecciones no solo contradice la normativa actualmente vigente en Europa, sino que además implica posicionar al comercio por sobre el individuo, posición incómoda y que podría socavar la confianza y, paradójicamente, desincentivar el comercio electrónico.

El llamado internacional de organizaciones de la sociedad civil

En este contexto ha surgido un llamado por parte de distintos grupos de consumidores y de derechos digitales, que están pidiendo que los países participantes de la Declaración Conjunta sobre el Comercio Electrónico velen por los derechos de sus ciudadanos, específicamente por la protección de su privacidad y de sus datos personales.

En concreto, lo que se busca es que —en caso de avanzar en la posibilidad de regular—se sigan los lineamientos europeos, desechando las posturas que proponen reproducir cláusulas de acuerdos de libre comercio, donde domina por la postura estadounidense —como las del Acuerdo México-Estados Unidos-Canadá (TMEX) y la Asociación Transpacífica Integral y Progresiva (TPP11)— que prioriza el libre flujo transfronterizo de datos personales por sobre el derecho de las personas a decidir y conocer sobre el tratamiento de sus datos personales.

Si lo anterior no es posible, se insta a los países negociantes a excluir toda norma referida al tratamiento de datos personales y a la protección del derecho a la privacidad de cualquier acuerdo sobre comercio electrónico. Así, los países miembros de la OMC quedarían en libertad de adherirse al único acuerdo internacional existente en esta materia, el Convenio 108+5. Este acuerdo, nacido al alero del Consejo de Europa y abierto a suscripción para terceros países, pone su enfoque en el individuo y en el respeto de sus derechos y libertades

En Derechos Digitales nos hacemos parte de este llamado, instando a Chile a participar de la discusión en la OMC, velando por la protección de los derechos y libertades de sus ciudadanos.

Derecho de autor y acceso abierto al filo de la pandemia

Una de las principales circunstancias que la pandemia por COVID-19 ha puesto de manifiesto es la tensión entre el acceso abierto al conocimiento y las estructuras persistentes de la propiedad intelectual. La necesidad del acceso a formas de cultura y entretenimiento ha probado ser uno de los puntos de mayor tensión en el contexto de las restricciones al movimiento y a la reunión, que han encontrado respuesta en la inventiva de instituciones públicas y privadas como bibliotecas, museos, teatros y un sinfín de otros entes culturales, que han creado mecanismos para la difusión (en muchos casos gratuita, en otros paga, pero siempre requiriendo la existencia de un acceso confiable a internet) de bienes culturales.

Más que nunca, la pandemia ha demostrado que el acceso a la cultura no es un lujo, sino un derecho humano básico: un proceso restaurador, una protección contra el estrés, una forma de resistencia y en resumen, un acto de creación y comunicación fundamental para preservar aquello que nos hace humanos.

En el mismo sentido, el acceso abierto a la investigación y los datos científicos ha sido central en la lucha contra la pandemia. En abril, una coalición internacional conformada por científicos, abogados y empresas echó a andar el proyecto denominado “Compromiso COVID Abierto” (Open Covid Pledge), instando a los autores de investigaciones científicas a permitir el acceso a la información bajo propiedad intelectual de manera abierta y gratuita con la finalidad de ayudar a acabar con la pandemia, mientras que la Comisión Europea estableció el Portal de Datos sobre COVID-19, con la misión de “acelerar las investigaciones mediante el acceso compartido a los datos”.

La propia Organización Mundial de la Propiedad Intelectual (OMPI) ha señalado que cuando los países no tienen la capacidad de recurrir a la innovación en condiciones adecuadas y accesibles, la propiedad intelectual se constituye en una barrera al acceso. Si bien es cierto que -en palabras de la OMPI- “existen disposiciones a escala nacional e internacional para facilitar el acceso cuando la PI representa un obstáculo”, la pandemia, como toda situación extrema, ha acentuado las desigualdades preexistentes hasta generar una crisis. Como expresó la Federación Internacional de Coaliciones por la Diversidad Cultural, la pandemia ha agravado desigualdades locales como la brecha digital, que se expresa no solo en el acceso asequible y confiable a internet, sino en el acceso a dispositivos tecnológicos que permitan contar con los recursos que se ofrecen: un ejemplo claro es el de la educación a distancia, donde factores como exigir video a alumnos que solo cuenten con dispositivos móviles de gama baja, probablemente obsoletos, pueden constituirse en un obstáculo injusto e insalvable para el acceso a un derecho básico.

La OCDE ha señalado como un obstáculo en el contexto del virus que “Los compromisos positivos actuales de los editores expirarán en tres meses y la sostenibilidad a largo plazo es incierta”. Esta aseveración, cierta por demás, debería resonar en nuestras cabezas cuando pensamos en el acceso a la investigación en otros ámbitos, en el acceso a la cultura, al arte, a la literatura, y en el acceso al conocimiento en general.

En América Latina, las “flexibilidades” al derecho de autor que están ahora bajo consideración únicamente a causa de la pandemia, deberían haberse convertido en norma desde hace mucho tiempo, por cuanto son indispensables para ayudar a los países de nuestra región a salvar la brecha de acceso que constituye una crisis mucho más larga y continua, que mantiene a sectores enteros de la población sometidos a condiciones de pobreza y desigualdad que violentan sus derechos humanos fundamentales.