¿Hacia dónde va el primer tratado sobe economía digital?

El pasado 17 de mayo, los representantes de Chile, Singapur y Nueva Zelanda anunciaron la negociación de un nuevo tratado de comercio internacional: el Acuerdo de Asociación sobre Economía Digital (Digital Economy Partnership Agreement, DEPA). La novedad es que este será el primer tratado comercial dedicado exclusivamente a abordar los desafíos de la economía digital, especialmente luego del estancamiento de las negociaciones en la materia a nivel de la Organización Mundial del Comercio (OMC).

La semana pasada, la Subsecretaría de Relaciones Económicas Internacionales de Chile (ex DIRECON) convocó la primera reunión oficial, permitiendo a los miembros de la industria, la academia y la sociedad civil chilenas conocer más detalles sobre la iniciativa. Los primeros acercamientos se produjeron en diciembre de 2018 y hasta el momento se han celebrado tres rondas de negociación. La negociación será cerrada entre los tres países hasta su conclusión, pero luego se permitirá la adhesión de cualquier país que pertenezca a la OMC. 

En cuanto a las materias que se van a incorporar en el tratado, estas van desde las más tradicionalmente vinculadas al comercio electrónico (pagos electrónicos, no aplicación de tarifas aduaneras a servicios digitales, firma electrónica, etcétera) a temas nunca incluidos en un tratado internacional, como la regulación de la inteligencia artificial y la tecnología de cadenas de bloques (blockchain). Vamos por partes.

Nobleza obliga

Entre los temas que se han propuesto en la negociación, hay dos que son particularmente positivos (ambos propuestos por Chile). El primero, es la inclusión explícita de normas que promueven la utilización del cifrado. Esto es relevante porque la tecnología de cifrado de comunicaciones (especialmente de punto a punto) se ha transformado en una herramienta indispensable para mejorar los estándares de ciberseguridad de las industrias y los distintos servicios digitales. En este sentido, el cifrado no solo asegura que las personas puedan ejercer su derecho a la inviolabilidad de las comunicaciones, sino que promueve la confianza de los usuarios en la seguridad de los servicios y plataformas que operan en el ciberespacio. Esto tiene un efecto económico tangible, ya que estudios indican que el 33 % de los consumidores expresa haberse abstenido de adquirir productos y servicios en línea debido a consideraciones de seguridad y privacidad.

Su inclusión también resulta positiva a la luz de la iniciativa de distintos países para debilitar el cifrado, exigiendo a los desarrolladores incorporar “puertas traseras” en sus servicios, para “descifrar” el contenido encriptado. Estas puertas traseras son verdaderas vulnerabilidades informáticas, que no solo pueden ser aprovechadas por los gobiernos que las exigen, sino que también por delincuentes informáticos, como ya ha sucedido. Si bien todavía no se han dado a conocer los textos para cada propuesta, la inclusión de una norma que impida a los países exigir la inclusión de puertas traseras en programas informáticos sería un gran paso en la promoción de la ciberseguridad y el comercio electrónico.

Entre los temas propuestos también se encuentra la inclusión de normas que consagren el principio de neutralidad de la red. Este principio busca asegurar que los operadores de internet traten todo el tráfico que pasa por sus redes de la misma forma, impidiendo que puedan bloquear, interferir o priorizar cierto tipo de tráfico por sobre otro. Este principio básico de internet no solo promueve la competencia y la innovación al impedir que los operadores de internet puedan llegar a acuerdos privados con proveedores de contenido, sino que también promueve la existencia de un internet libre y abierta, al impedir que los proveedores puedan decidir qué contenido debe obtener un trato preferencial. 

Lo que puede mejorar

Derechos Digitales ha sido crítico de las disposiciones sobre comercio electrónico que han sido incluidas en tratados internacionales anteriores, como CPTPP o TiSA. Una de nuestras críticas es que las normas sobre flujo transfronterizo de datos personales establecen un mismo criterio para los “datos” (así, en general) que para los datos personales. 

Internet funciona por capas. En un modelo simplificado, existe una capa de infraestructura (cables, servidores, etcétera), una capa de protocolo (estándares y código) y una capa de contenido (interacciones entre seres humanos). Nadie discute que la arquitectura de internet exige que exista un libre flujo de información. En otras palabras, en la capa de infraestructura no debe existir una discriminación de hacia dónde o cómo viaja la información (los unos y los ceros). Sin embargo, los datos personales no se regulan en la capa de infraestructura, sino que en la capa de contenido. Al ser datos que se vinculan a personas naturales, su recolección y procesamiento tiene que cumplir con la regulación de cada país y respetar los derechos fundamentales de las personas. Así, el Reglamento General de Protección de Datos Personales de la Unión Europea permite que los datos personales de sus ciudadanos solo puedan transmitirse a aquellos países que tengan un nivel “adecuado” de protección. 

La negociación de DEPA se presenta como una oportunidad para enmendar el camino y redactar una norma sobre flujo transfronterizo de datos personales que haga las distinciones que hacen falta. Consagrando el valor del libre flujo de datos en la capa de infraestructura, pero estableciendo que (en la capa de contenidos) los datos personales solo podrán ser transmitidos cuando cumplan con la respectiva legislación de datos personales, o a lo menos, con una protección normativa efectiva a favor de sus titulares.

Aspectos preocupantes

Lamentablemente, la negociación del DEPA también incluye materias que resultan sumamente problemáticas y que deberían ser abandonadas de plano. Así, la negociación incluye normas para promover la adopción de políticas públicas sobre “identidad digital” similares al sistema National Digital Identity de Singapur.

Estas políticas no solo son problemáticas en términos de ciberseguridad, ya que implican concentrar el manejo de todos los datos personales de los ciudadanos en una base de datos centralizada , sino que muchas veces van acompañadas de la utilización de tecnologías de control biométrico. Esto hace que cualquier tipo de filtración, vulneración o mal utilización de la información genere una afectación mucho más grave al derecho a la autodeterminación de las personas. 

Si nuestros datos se filtran, siempre podemos cambiar nuestro correo electrónico, teléfono, domicilio e incluso nuestros nombres, pero es imposible cambiar nuestra iris o huella digital. En este sentido, la biometría es como una caja de pandora: una vez abierta las personas se ven imposibilitadas de recuperar el control sobre sus datos. ¿Qué pasará el día que un gobierno sufra la filtración o robo de todos los datos biométricos de sus ciudadanos? Además, las políticas de identidad digital promueven el uso de un método único de identificación frente a organismos públicos, pero también ante el mundo privado como forma de facilitar las transacciones económicas. Esto implica aumentar la capacidad de perfilamiento y vigilancia sobre los ciudadanos, tanto de los gobiernos como de las empresas, con las consecuencias democráticas que ello conlleva. 

Por otro lado, DEPA propone incluir normas sobre regulación de plataformas que buscan combatir el terrorismo y el discurso de odio en línea. Si bien estos son objetivos completamente loables, la responsabilidad de los intermediarios y la regulación del contenido en las plataformas es hoy un tema sumamente polémico, por las profundas consecuencias que puede tener en materia de libertad de expresión. 

Hacer responsables directamente a los intermediarios del contenido que suben sus usuarios obliga a las plataformas a monitorear permanentemente lo que circula en sus servicios y bajar “preventivamente” y sin un debido proceso cualquier material que pueda ser infractor. A eso se suma el uso de algoritmos e inteligencia artificial pero, dado que ninguna máquina tiene la capacidad de comprender las complejidades del lenguaje humano, estos mecanismos han demostrado no ser confiables a la hora de moderar contenido.

Además, tales sistemas terminan bajando más contenido legítimo, mientras que el contenido que se busca combatir se mantiene disponible. También resulta problemático que sean empresas privadas las que terminan decidiendo sobre actos de expresión (muchas veces de forma muy deficiente) sin una ponderación entre derechos fundamentales. Por lo mismo, a pesar de las buenas intenciones, consagrar reglas sobre esta materia en un tratado internacional podría generar profundos efectos perjudiciales a futuro.

Por último, DEPA se propone reconocer la importancia y crear marcos para una implementación progresiva, confiable y segura de tecnologías emergentes como la inteligencia artificial y las cadenas de bloques. Más allá de los peligros que la implementación de la inteligencia artificial puede implicar en materia de sesgos algorítmicos, y que al parecer las cadenas de bloques no serán implementadas en la escala que alguna vez se especuló, no resulta recomendable que un tratado internacional se refiera a tecnologías particulares, que no necesariamente van a resistir el paso del tiempo. Una aproximación que involucre criterios de neutralidad tecnológica resultaría más aconsejable en esta materia.

En definitiva, la negociación de DEPA se presenta como una gran oportunidad para incluir temas que promuevan la ciberseguridad y la neutralidad de la red, al mismo tiempo que se mejora la forma en que se abordan materias que han sido tratadas de forma deficiente en el pasado. La promoción de la ciberseguridad, la certeza jurídica y una aproximación de derechos humanos en el tratamiento de datos personales es un elemento que sin duda favorecerá la confianza en el ciberespacio y el comercio electrónico. Sin embargo, esta oportunidad puede verse opacada por la inclusión de materias sensibles y que pueden ser incompatibles con el ejercicio de los derechos fundamentales de las personas. Por suerte la negociación todavía se encuentra en su etapa inicial y todavía hay tiempo para enmendar el rumbo en los temas problemáticos y profundizar en aquellos que son positivos.

Contra la persecución política a Ola Bini

Ola Bini es un reconocido activista por el software libre y experto en seguridad digital. Desde el 11 de abril de 2019 se encuentra sujeto a un proceso judicial en Ecuador, acusado de haber vulnerado sistemas informáticos. Tal proceso, sin embargo, ha sido ampliamente cuestionado por la multiplicidad de irregularidades cometidas y por estar bajo un sinnúmero de presiones políticas.

El primer elemento ha sido confirmado por el Habeas Corpus otorgado en junio pasado por parte del tribunal de la Corte Provincial de Pichincha y por las expresiones oportunamente realizadas por las Relatorías Especiales sobre la Libertad de Expresión de la Organización de Estados Americanos (OEA) y la Organización de las Naciones Unidas (ONU).[1] [2]

Por su parte, la Misión Internacional de la Electronic Frontier Foundation (EFF) enviada recientemente a Ecuador, tras conversar sobre esta situación con políticos, académicos y periodistas de distintas tendencias, ha concluido que la motivación tras el caso de Ola Bini es política, no criminal.[3] De hecho, todavía se desconoce cuáles son los sistemas informáticos de cuya vulneración se le acusó en un principio.

Junto con ello, una serie de hechos recientes han encendido nuevas alertas. En primer lugar, la vinculación de una nueva persona a la causa por el sólo hecho de mantener un vínculo profesional con Bini y a pesar de que en la audiencia respectiva no se presentaron los elementos jurídicos necesarios para cumplir con dicho trámite. Además, el Fiscal a cargo de la acusación decidió abrir dos nuevas líneas de investigación contra Ola Bini: por “defraudación fiscal” y “tráfico de influencias”. De tal forma, la fiscalía ahora se propone investigar por hasta el plazo de 2 años más al activista.

Esta última decisión sugiere que no se cuentan con pruebas que sustenten las acusaciones originalmente realizadas contra Bini y que la atención de la justicia y el gobierno ecuatoriano no está puesta en un delito, sino en una persona. Esto nos lleva a confirmar el temor expresado por algunas organizaciones internacionales que trabajan por los derechos humanos en internet que desde el momento de la detención de Ola Bini alertaron sobre la espiral de persecución política contra un activista de renombre internacional, cuyo trabajo es globalmente reconocido por la protección de la privacidad.

Considerando lo expresado más arriba y las conversaciones mantenidas en el marco del XII Foro de Gobernanza de Internet de América Latina y el Caribe (LACIGF por sus siglas en inglés), los abajo firmantes rechazamos el escenario persecutorio montado contra Bini, demandamos que se respete el debido proceso por parte de todas las funciones del Estado e instamos a que los actores políticos dejen de interferir en la justicia.

Firman:

  • Asociación para el Progreso de la Comunicaciones
  • Derechos Digitales
  • Electronic Frontier Foundation
  • Internet Bolivia
  • Intervozes
  • Fundación Karisma

[1] https://cnnespanol.cnn.com/2019/06/20/tribunal-de-ecuador-acepta-recurso-de-habeas-corpus-para-ola-bini/

[2] https://www.eluniverso.com/noticias/2019/04/15/nota/7287350/relatorias-onu-oea-cuestionan-detencion-ola-bini

[3] https://www.eff.org/es/deeplinks/2019/08/ecuador-political-actors-must-step-away-ola-binis-case

La concentración del poder para censurar en internet

En los últimos años, las discusiones sobre el rol de las plataformas de internet en la difusión de desinformación, la censura de discursos legítimos y la amplificación de expresiones de odio y violencia han aumentado notablemente. En este contexto, aunado a una fuerte tensión política, se han hecho llamados frecuentes a modificar parte de la legislación de Estados Unidos: país que rige a esas plataformas. 

Particularmente, se ha buscado cambiar el esquema fijado por la sección 230 de la Communications Decency Act. Esta disposición  sienta las bases para una regla general (aunque con excepciones) en que las plataformas de internet no tienen responsabilidad sobre el contenido provisto por terceros, el ánimo por reformas se suma a tendencias globales por provocar que empresas como Google, Facebook o Twitter sean más activas; filtrando o removiendo contenidos nocivos, y a la vez asumiendo responsabilidad por quitar espacio a contenidos legales.

Sin embargo, independientemente de que –a menudo– hay fines loables detrás de estas iniciativas, los posibles efectos sobre la libertad expresión y de información son significativos; ya que, en el particular caso del §230 CDA, tienen consecuencias a nivel global.

En términos simples, el §230(c) CDA distingue a las plataformas de internet de los editores de medios o proveedores de contenidos -cuando la información es provista por terceros- con el fin de eximirles de responsabilidad sobre esos contenidos. Además, les exime de responsabilidad por remover o bloquear de buena fe contenidos obscenos o violentos, aún si son legales: como ocurre con los términos y condiciones de uso. Es habitual que se considere a esta regla una de las piedras angulares (al menos desde el punto de vista normativo) del crecimiento de los gigantes de internet en los Estados Unidos.

La más concreta propuesta de reforma provino del Senado estadounidense en junio de 2019, en un proyecto de ley que busca quitar el “sesgo” de las grandes plataformas –en particular, redes sociales– que supuestamente afectaría a publicaciones afines a opiniones de la extrema derecha política de ese país, percepción compartida por otro troll desde la Casa Blanca. Aunque la reacción transversal negativa a la propuesta fue inmediata, las alertas sobre el riesgo que corre el §230 se encendieron de inmediato: la realidad de las malas propuestas sobre responsabilidad de intermediarios se trasladaron de manera tangible al país que alberga a las mayores empresas de tecnología.

¿Por qué esto debería importarnos, en contextos tan distintos al primer mundo? En primer lugar, por el efecto que podrían tener reglas extranjeras en nuestra propia regulación sobre lo que ocurre en internet, considerando que la reacción a la desinformación, la violencia en línea o la polarización en época electoral son también –con matices propios– problemas en nuestros países. Las malas experiencias en países como Venezuela u Honduras muestran el rol que se pretende desde las plataformas, de manera más que dañina para la libertad de expresión, mientras que otras iniciativas de regulación han terminado excluidas.

En segundo lugar, porque la ley sí tiene impacto sobre las reglas propias de las plataformas. Las normas impuestas por los gigantes de internet para sus usuarias, incluyendo aquellas que alteran la circulación de información y expresión, varían a su vez en razón de las normas a las que se sujetan esas plataformas en los países donde se erigen, o bien donde deciden domiciliarse para reducir su riesgo de responsabilidad. Si con el fin de cuidar sus ganancias cambian sus términos y condiciones de uso, ese impacto será también sufrido en otras latitudes; ya queel poder de las grandes plataformas es tal, que las condiciones de interacción varían a nivel global a partir de las decisiones que resulten lucrativas para reducidos grupos de personas en Silicon Valley.

La implementación de reglas que reflejen principios de justicia en el manejo de contenidos, incluyendo a su vez condiciones de transparencia y rendición de cuentas sobre el retiro -muy especialmente cuando median mecanismos automatizados de detección o bloqueo- son algunas medidas mínimas que deben adoptar esas plataformas. Pero quizás más importante, las reglas mismas requieren una revisión concienzuda, incluyendo la participación de actores de la sociedad civil global.

Es urgente terminar las malas iniciativas de criminalización excesiva de discurso y la radicación de la censura en plataformas. A nivel local es necesario poner al día nuestros anquilosados sistemas jurídicos y generar condiciones normativas para el discurso libre, donde se esclarezcan tanto las condiciones de exención de responsabilidad como los mecanismos y requisitos para forzar el retiro, el bloqueo, o la reposición de información. Más allá de aclarar cómo deberían ser las cosas en escenarios hipotéticos de las plataformas actuales, estas medidas permitirían fijar cómo pueden crecer las plataformas del futuro. Las normativas no deben plantearse para reaccionar a empresas específicas, respecto de las cuales persisten problemas más profundos y amplios que los relativos al contenido; ya que si bien quizás Facebook, Google o Twitter no son escenarios ideales para la discusión política o social que necesitamos, son espacios de intercambio vigente que evidencian la necesidad de establecer condiciones normativas para organizar nuestras propias alternativas.

“Oversight Board” de Facebook: una perspectiva desde América Latina y El Caribe

Las organizaciones que firman este documento forman parte del consorcio «Al Sur», un grupo organizado de la sociedad civil en América Latina que busca fortalecer los derechos humanos en el entorno digital. La razón principal de esta declaración es hacer presente nuestros comentarios conjuntos al llamado público hecho por Facebook para contribuir a su borrador «Draft Charter: An Oversight Board for Content Decisions».

Este «Oversight Board», que podemos traducir como una suerte de «Comité de supervisión», ha sido planteado por Facebook como un órgano independiente al que las personas pueden apelar las decisiones de moderación de contenido de la compañía. Esta iniciativa nace luego de las intensas críticas en el mundo (y de las que Latinoamérica y el Caribe no se han restado), sobre la falta de transparencia con la que Facebook desarrolla y aplica sus estándares comunitarios, lo que ha tenido como efecto el uso de la plataforma para campañas de desinformación, incitación a distintas formas de violencia, etcétera.

Valoramos que una plataforma del tamaño e importancia de Facebook (2,167 millones de usuarios en el mundo) se haya abierto a discutir la urgente necesidad de cambiar la forma en que hasta ahora se ha planteado la moderación de los contenidos. Pero, como veremos a continuación, creemos que este “Oversight Board” puede y debe tener un papel más activo en hacer dialogar las reglas de la comunidad de Facebook con estándares de derechos humanos. Sus decisiones deben tener como fin último la mejora de las políticas comunitarias como los procedimientos para aplicarlas, así como también se debe avanzar decididamente en su transparencia y la representatividad de regiones como la de Latinoamérica y el Caribe.

Así, nuestras recomendaciones se resumen en cinco puntos:

  • Alcance de su mandato

Sin importar la estructura o forma orgánica que adquiera el “Oversight Board” propuesto, y en orden a satisfacer su legitimidad y tener posibilidad práctica de cumplir con su mandato, creemos que el alcance último del “Oversight Board” debe comprender el de hacer recomendaciones de cambios a las políticas de la empresa y los procedimientos de aplicación de éstas, haciendo dialogar los estándares internacionales de derechos humanos con las reglas de comunidad de la empresa. 

Así, proponemos un cambio de la idea original planteada en el borrador de Facebook, y planteamos directamente que el “Oversight Board” tenga la facultad de impactar directamente el diseño regulatorio de las políticas de contenido de la misma plataforma. Entendemos que, para cumplir debidamente con este rol, el “Oversight Board” puede y debe analizar casos específicos ilustrativos, sobre todo, los más complejos y difíciles. Incluso debería sugerir a la empresa cambios en decisiones con efectos reparatorios para esos casos concretos. No obstante, su objetivo central serán las mejoras a las políticas y los procedimientos de cómo la empresa toma decisiones en relación con la moderación de contenido, teniendo la capacidad de establecer cuál debería ser el proceso a seguir, paso por paso, para tomar este tipo de decisiones, con fundamento en lo ya desarrollado en la materia por los estándares internacionales de derechos humanos. Por ejemplo, el llevar a cabo un análisis y ponderación de derechos que se apegue a los tests de necesidad, proporcionalidad e idoneidad. 

En esta propuesta, es importante repensar los insumos con los que contará el “Oversight Board” para hacer su trabajo, en tanto que los casos ilustrativos pueden no advertir a tiempo tendencias preocupantes en el uso de la plataforma y en la moderación de los contenidos. Proponemos, entonces, que además se abran otras instancias donde especialistas en la materia, con conocimiento de los contextos regionales pertinentes, puedan presentar evidencia preocupante de uso y moderación de contenidos en Facebook y que puedan afectar a grupos específicos que, por su vulnerabilidad u otros factores de marginalización, no puedan o no quieran acceder a este mecanismo.

Desde esta perspectiva, creemos fundamental que el organismo asuma tres tareas urgentes:

1) Transparencia algorítmica. Muchas de las decisiones que afectan las reglas de comunidad y, por ende, la moderación de contenidos, tienen efecto en las decisiones algorítmicas que la plataforma tiene sobre contenidos en particular. Este tipo de decisiones automatizadas son más opacas que la remoción de contenido per se (las explicaciones de cómo funcionan y cómo se evitan falsos positivos es más bien inexistente) y, por ende, afectan de igual manera la libertad de expresión. 

2) Aspectos formales de la toma de decisiones. Es urgente que un organismo técnico, representativo e independiente como el “Oversight Board” pueda hacer recomendaciones acerca de aspectos formales en la toma de decisiones de su proceso de moderación de contenidos, pues estos afectan los resultados del mecanismo. Se debe repensar desde la forma en que se notifica a las personas usuarias que su contenido fue removido, pasando por el currículum de los moderadores, hasta las condiciones laborales de estos últimos.

3) Mecanismos de apelación. Creemos también importante que Facebook asuma con urgencia la tarea de reforzar los mecanismos comunes de apelación que tienen las personas usuarias, adoptando criterios de debido proceso y sugerencias desde estándares de derechos humanos que el mismo “Oversight Board” pueda hacer.

Asimismo, el alcance limitado del “Oversight Board” debe ser explícito en dos sentidos para las personas usuarias: (1) el rol de la justicia y del análisis de afectaciones a derechos humanos sigue siendo una tarea del Estado, apegado al contexto local, y (2), las tareas del “Oversight Board” no reemplazarán a los mecanismos de apelación sobre el resto de los contenidos (que, como afirmamos anteriormente, es urgente que mejoren). 

De preferencia, las decisiones del “Oversight Board” tienen que ser vinculantes en primera instancia. Ello favorecería la legitimación de su establecimiento y la confianza de las personas usuarias respecto de su función, en tanto su implementación no estaría sujeta a la discreción de la plataforma. No obstante, si Facebook decide que así no sean, debiera al menos asegurar una explicación profunda y documentada al “Oversight Board” de su razonamiento en esas decisiones.  

  • Derechos humanos por sobre valores corporativos

Creemos que debe dejarse atrás la idea de que el “Oversight Board” responda a los “valores” de Facebook. Más bien, debe avanzarse decididamente a que su criterio principal sean estándares internacionales de derechos humanos.

Los “valores” de una compañía representan solo a su organización y a su cultura empresarial que está, asimismo, limitada a una forma cultural. Por esta razón, de ninguna manera esos “valores” deben ser el estándar de decisiones del “Oversight Board”.

Asimismo, la legitimidad y efectividad del “Oversight Board” queda en duda si sus decisiones se basan conforme a los «valores» o «estándares» fijados por la misma plataforma. La mejor manera de cumplir con la aspiración de imparcialidad e independencia en las decisiones de este organismo, y de generar una mayor confianza en este sentido, es apegarse a un proceso que ya ha sido establecido y elaborado por los estándares internacionales existentes de derechos humanos (como nuestro Sistema Interamericano de Derechos Humanos), y que permita decisiones transparentes y replicables. 

  • Alcance geográfico, diversidad y criterios de selección

Facebook plantea, en principio, un “Oversight Board” mundial con compromiso de “diversidad” con un número aproximado de 40 personas. En este sentido, y como parte de una comunidad del Sur Global y, aún más en particular, de América Latina y el Caribe, creemos que es importante garantizar la diversidad de la composición de este organismo, pero también su pericia técnica. 

Desde el punto de vista de la diversidad, es necesario que haya una composición con equilibrio de género y etnia. Además, creemos que la composición debe ser representativa de manera proporcional al número de las personas usuarias que Facebook tenga en cada región y de su proyección de crecimiento. Del mismo modo, es importante la multidisciplinariedad en sus miembros de manera de entregar visiones diversas a los problemas.

Desde el punto de vista de pericia técnica, debe buscarse en esa proporcionalidad regional, personas que cumplan con estándares claros y transparentes de idoneidad profesional como, por ejemplo, demostrada experiencia en temas de derechos humanos y libertad de expresión. Estos criterios deben ser propuestos y revisados públicamente, de manera que sean idóneos y factibles de cumplir en todas las regiones, y sean transparentes a la comunidad de manera de mejorar la rendición de cuentas de los mismos integrantes seleccionados del “Oversight Board”.

  • Reglamento interno e independencia. 

La independencia del “Oversight Board” debería ser garantizada por Facebook. Eso implica autonomía de este organismo para determinar las formas en que trabajarán, se comunicarán y las reglas con las que se regirán.

En este sentido, nos parece importante que una de las primeras tareas del «Oversight Board» sea trabajar en una propuesta de código de conducta que incluya procesos de denuncia y toma de decisiones. Este documento debe someterse a una consulta abierta. Su versión final debe ser pública, de tal forma de mejorar la transparencia y rendición de cuentas del organismo. Creemos importante que, en particular, el código de conducta debe estipular claramente asuntos como los conflictos de intereses de sus miembros. 

  • Periodo de observaciones.

Una vez que el “Oversight Board” lleve algunos meses de funcionamiento, debe establecerse explícita y públicamente un periodo para hacer observaciones a su funcionamiento, de tal forma de tener información de todas las regiones que permitan ajustar y mejorar este mecanismo. Este periodo de observaciones debe ser abierto y participativo. Sus resultados deben ser públicos, con la información completa sobre la determinación de qué ajustes hacer, así como un plazo adecuado para llevarlos a cabo. Debe, asimismo, contemplarse un mecanismo de observación periódica sobre el funcionamiento del “Oversight Board”, con características de transparencia y publicidad.

Este documento fue firmado el 7 de junio del 2019 por las siguientes organizaciones:

  • R3D: Red en Defensa de los Derechos Digitales, México
  • Fundación Karisma, Colombia
  • Asociación por los Derechos Civiles (ADC), Argentina
  • Coding Rights, Brasil 
  • Derechos Digitales, América Latina
  • Hiperderecho, Perú
  • Ipandetec, Panamá.
  • Tedic, Paraguay.

Resultados del compromiso del Estado chileno con los Derechos Humanos: ¿Avanzamos?

El 4 de Julio se dieron a conocer los resultados del Examen Periódico Universal de Chile. Como hemos abordado en textos previos, esta evaluación no sólo abarcó los derechos humanos en sus aspectos más tradicionales, sino que también por primera vez organizaciones de la sociedad civil -coordinadas por Derechos Digitales- propusimos hacer una revisión más profunda del compromiso del Estado con el respeto de los derechos humanos en los entornos digitales, donde cotidianamente se encuentran inmersas las personas chilenas.

A través de dos reportes sombra -uno centrado en privacidad en el entorno digital y otro en los demás derechos-Derechos Digitales y otras organizaciones de la sociedad civil presentaron información para la evaluación del Estado chileno, con el fin de aportar información precisa sobre el estado de cumplimiento de sus obligaciones de derechos humanos en los entornos digitales en materias tales como: libertad de expresión y reunión pacífica, protección de datos personales, privacidad, violencia de género y el abuso de las tecnologías de vigilancia por parte de la fuerza pública.

Al ser publicada oficialmente las respuestas de Chile a las recomendaciones formuladas por diversos Estados,recibimos con satisfacción ver entre las recomendaciones aceptadas las siguientes, referidas al ejercicio de derechos en los entornos digitales:

  • 125.88 Garantizar y promover los derechos a la libertad de expresión, la libertad de asociación y de reunión pacífica y la protección de los periodistas y los defensores de los derechos humanos, también en Internet (Islandia); 
  • 125.92 Aplicar políticas que faciliten la igualdad de acceso a la tecnología de la información y las comunicaciones, en particular para los pueblos indígenas, las poblaciones rurales y las mujeres (México);
  • 125.108 Evaluar las tecnologías de vigilancia y recopilación de datos personales desde el punto de vista de los derechos humanos, en particular teniendo en cuenta el derecho a la intimidad y el principio de no discriminación (Perú); 
  • 125.109 Aprobar legislación concreta para proteger y promover los derechos humanos en el entorno digital, incluido el derecho a la intimidad (Brasil); 
  • 125.110 Reforzar su legislación para la protección de los datos de sus ciudadanos de conformidad con los principios del estado de derecho, la proporcionalidad y el respeto de la intimidad, en particular considerando la posibilidad de crear una autoridad de control independiente (Suiza);
  • 125.166 Velar por que las mujeres puedan vivir una vida libre de violencia, incluso en contextos digitales, mediante una legislación apropiada, medidas preventivas, educación y recursos adecuados, incluidos servicios para las supervivientes (Canadá); 
  • 125.175 Examinar y revisar las leyes, políticas y reglamentos para hacer frente a la violencia contra la mujer, inclusive en contextos digitales, de conformidad con sus obligaciones internacionales en materia de derechos humanos (Islandia); 

Lo anterior representa un gran logro, desde nuestra perspectiva, en el reconocimiento de compromisos pendientes en estas materias, de acuerdo a las obligaciones internacionales previamente asumidas por el Estado; esperamos que este reconocimiento se materialice en acciones concretas que se ejecuten y reflejen antes del próximo ciclo de revisión. Miraremos ávidos la materialización de los compromisos con las personas chilenas para un futuro digital donde se protejan sus derechos y su dignidad.

Desde Derechos Digitales celebramos que se abran espacios de diálogo y evaluación para mejorar la toma de decisiones y la producción de políticas públicas. Del mismo modo en que participamos en la propuesta de recomendaciones, seguiremos velando por la promoción de éstas para asegurar que en Chile se produzcan medidas para procurar la defensa de los derechos humanos a través de las tecnologías. Es importante recalcar que estas recomendaciones no tienen valor si no se ven reflejadas en acciones concretas por parte del Estado chileno para implementarlas y que éstas tengan un impacto que permita mejorar la calidad de vida de las personas en Chile.

En particular, celebramos que se tomen en cuenta recomendaciones que plantean mejorar las medidas para asegurar que las mujeres vivan libres de violencia en los entornos digitales, y esperamos ello pueda traducirse en acciones concretas de introducción de esta temática en las políticas públicas de la especie, así como en la formación de los operadores del sistema de justicia -policía, fiscales y jueces- para una adecuada respuesta a esta restricción de derechos que sufren las víctimas de violencia de género en línea. Del mismo modo, esperamos que se redoblen los esfuerzos para adecuar la protección de datos los datos personales; en forma consistente a estas recomendaciones y a la reciente reforma constitucional al respecto. 

Ahora, las malas noticias: para nuestra sorpresa, entre las recomendaciones rechazadas se encuentra la realizada por el Estado Plurinacional de Bolivia para «Promover normas que cumplan con los principios de legalidad, necesidad y proporcionalidad en el uso de las comunicaciones y la tecnología, a fin de evitar la criminalización de las protestas sociales indígenas» (125.91).

Ante evidencia reciente del actuar del Estado chileno de forma ilegal en tristemente célebres casos como el denominado «Operación Huracán», al no ajustarse a los principios de proporcionalidad y pasar por encima del derechos fundamental a la privacidad, nos preocupa sobremanera que el Estado rechace una recomendación que precisamente se encamina a adoptar las previsiones legales y operativas que permitan evitar que los hechos documentados se repitan en el futuro. Se pierde una oportunidad clara para que el Estado impulse una evaluación interna crítica de su proceder, tanto desde una perspectiva de controles legales, como desde una perspectiva de compromiso político con el respeto a la libertad de expresión, la privacidad y la seguridad de las personas del pueblo Mapuche.

Sin embargo es de destacar que, a pesar de que la recomendación anteriormente señalada fue rechazada, se aprobó la recomendación 125.88 -hecha por Islandia- que justamente habla de la protección al derecho de libertad de expresión de periodistas y personas defensoras de derechos humanos en Internet. Con ello, esperamos el Estado implemente medidas concretas de control de su fuerza pública para evitar que la tecnología sea usada como medida de represión frente al flujo de información y defensa de derechos que proporcionan los comunicadores sociales y defensores de derechos humanos, incluyendo aquellos que trabajan de cerca por la protección y respeto de los pueblos indígenas.

En suma, la aceptación de estas recomendaciones, en conjunto, nos permite abrigar la esperanza de que el Estado se comprometa a tomar medidas que habiliten la puesta en marcha de políticas públicas que se alineen con la protección de la libertad de expresión, el derecho a la privacidad, la protección de datos y la promoción de entornos digitales libres de violencia hacia las mujeres. 

¿Avanzamos? Sí, aunque no todo lo que quisiéramos. Ahora el Estado tiene cuatro años para demostrar su compromiso con el respeto de los derechos humanos en forma equivalente tanto on line como off line. Derechos Digitales continuará su trabajo de colaboración y observación de las políticas públicas para mantener este recordatorio constante: para que las personas chilenas puedan disfrutar de los beneficios de las tecnologías en sus vidas y no vean restringidos sus derechos por ellas.

¿Chile está a la altura de la tarea? Los derechos humanos en el entorno digital, examinados

El 22 de enero pasado, el Consejo de Derechos Humanos de las Naciones Unidas examinó el historial de derechos humanos de Chile en el contexto del proceso del Examen Periódico Universal (EPU). Este proceso permite rastrear el progreso que ha tenido Chile en sus obligaciones de promover y proteger los derechos humanos.

Como señalamos en un texto anterior, este EPU ha registrado la primera vez que se generó conciencia sobre la necesidad de abordar el impacto de las tecnologías digitales en el ejercicio y la promoción de los derechos humanos: desde el respeto del derecho a la privacidad, la libertad de expresión. , la reunión y asociación pacífica, el ejercicio de los derechos económicos, sociales y culturales, y el impacto de una amplia gama de tecnologías que están afectando cada aspecto de la vida de los chilenos.

El Estado chileno debe ajustarse a las normas internacionales sobre el disfrute de los derechos humanos en internet, el derecho a la privacidad en la era digital y otros instrumentos que combaten la discriminación y la violencia en sus manifestaciones digitales.

Las recomendaciones recibidas por Chile en este último EPU son cruciales para reconocer el compromiso deficiente del Estado con respecto al fomento del ejercicio de los derechos humanos en el entorno digital.

En un artículo anterior advertimos sobre cómo el estado y el sector privado han utilizado algunas tecnologías para realizar la vigilancia de los chilenos, afirmando que era por «su propia seguridad» y «el uso efectivo de los recursos públicos». A continuación echamos un vistazo a las principales áreas de preocupación que se expresaron en el EPU, que también percibimos como desafíos compartidos en varios países de América Latina.

Chile necesita mejores leyes de derechos digitales y autoridades independientes de protección de datos

La delegación brasileña recomendó que Chile «adopte una legislación específica para proteger y promover los derechos humanos en entornos digitales, incluido el derecho a la privacidad». Esta recomendación señaló que Chile se quedó corto en la implementación de políticas concretas y directas sobre la materia.

Perú recomendó que Chile debería trabajar en «la evaluación de las tecnologías de vigilancia y recolección de datos personales desde una perspectiva de derechos humanos, con respecto al derecho a la privacidad y considerando el principio de no discriminación».

En la misma dirección, el Estado suizo señaló «la necesidad de fortalecer la legislación sobre la protección de datos personales» y el establecimiento de políticas públicas «de acuerdo con el estado de derecho, la proporcionalidad y la privacidad». Para que esto suceda, según el Estado suizo, es necesario que Chile «considere la creación de una autoridad de control independiente» que proteja los datos personales.

Actualmente se están discutiendo algunas mejoras en la actualización de la ley chilena de protección de datos; no obstante, estas recomendaciones obligan al Estado chileno a cumplir con las obligaciones internacionales de derechos humanos previamente adoptadas por Chile.

Chile necesita enfrentar la violencia contra las mujeres en entornos digitales

Las recomendaciones de Islandia abordaron otros temas apremiantes, instando al Estado de Chile a «revisar las leyes, políticas y regulaciones que abordan la violencia contra las mujeres, incluida la violencia en entornos digitales». Esta recomendación fue secundada por Canadá, quien recomendó una orden de legislación que permitiría a las mujeres «vivir libres de violencia, incluido el contexto digital».

Si bien Chile ha mejorado considerablemente la implementación de políticas para combatir la violencia contra las mujeres y los jóvenes, no hay políticas específicas para enfrentar este problema en el campo digital: el acoso sexual en las redes sociales y la difusión de material íntimo sin consentimiento son una realidad que requiere un esfuerzo práctico para superar las estructuras patriarcales en espacios fuera de línea y en línea, a fin de garantizar la capacidad de las mujeres para crear, habitar y constuir sus propias narrativas en el espacio digital.

También es necesario señalar que estas recomendaciones son adicionales a los esfuerzos anteriores desarrollados por el Estado, por eso insistimos a las instancias calificadas que tomen en cuenta las recomendaciones para promover su plena integración en los programas futuros y la agenda legislativa; garantizando espacios libres de violencia para el desarrollo de las mujeres a partir de hoy.

Chile necesita dejar de usar la tecnología para violar los derechos humanos

Las recomendaciones bolivianas abordan uno de los temas más apremiantes y escandalosos de Chile en los últimos tiempos: el uso de la tecnología como herramienta de represión. En una declaración contundente, Bolivia recomendó que Chile “promueva estándares que sigan los principios de legalidad, necesidad y proporcionalidad. Así como el uso de las comunicaciones y las tecnologías como una forma de poner fin a la criminalización de las protestas de los indígenas».

La delegación boliviana instó a Chile a evitar la repetición de episodios escandalosos como el «Caso Huracán«, donde se utilizó la tecnología para enmarcar a los líderes indígenas en actos terroristas. En muchos casos, el estado ha utilizado la tecnología para espiar a los líderes, periodistas y medios de comunicación indígenas en un intento por criminalizar sus reclamos legítimos.

Todas esas acciones violan las normas internacionales de derechos humanos al restringir el derecho a la privacidad, evitando la inviolabilidad de las comunicaciones y limitando la libertad de expresión y la reunión pacífica. Estas son algunas de las razones por las que esperamos que las recomendaciones se tengan en cuenta y se canalicen a través de reformas legales e institucionales dentro de los servicios de inteligencia y la aplicación de la ley del país, para evitar que las violaciones a los derechos humanos de las personas chilenas vuelvan a suceder.

¿Qué sigue?

Los Estados que participaron en el EPU de Chile hicieron llamados claros y firmes al Estado de Chile para promover, proteger y respetar plenamente los derechos humanos en el contexto digital. Esperamos que el Estado chileno esté a la altura de la tarea de aceptar esas recomendaciones, avanzar hacia la implementación completa de un enfoque integral de los derechos humanos en el país y, por lo tanto, considere los espacios digitales como entornos protegidos para el ejercicio de los derechos humanos.

Derechos Digitales -con sus socios y simpatizantes- mantendrá la atención en la adopción de las recomendaciones de Chile y estará disponible para colaborar en esta tarea. Como hemos señalado anteriormente: es momento de tomar decisiones y compromisos para garantizar la capacidad de ejercer plenamente los derechos humanos para el futuro, que es ahora. No hay tiempo que perder.

* Estos esfuerzos fueron coordinados por Derechos Digitales y respaldados por IFEX, en colaboración con Privacy International, APC, Ciudadanía Inteligente y Fundación Pro Acceso.

¿Supervisión, regulación o moderación?

En su nuevo libro, el Relator Especial para la promoción y protección del derecho a la libertad de expresión del Consejo de Derechos Humanos de las Naciones Unidas, David Kaye, expone de manera sucinta y con un enfoque práctico los desafíos que, hoy por hoy, suscita la necesidad de enfrentar el contenido nocivo o problemático que está presente en línea, y en particular, aquel que ve amplificado su efecto en algunas plataformas específicas usadas por cientos de millones de personas.

Se trata de problemas esencialmente complejos, que hacen lucir casi imposible su ejecución de manera satisfactoria y respetuosa de los derechos. Ni una concentración del poder de controlar el debate público por parte de los estados, ni la delegación completa de funciones de interés público en empresas privadas, ni la expectativa de reglas únicas de aplicación a realidades diversas, resultan mecanismos óptimos. Casos muy recientes, como la amplificación de un video alterado de una figura política estadounidense en Facebook, o la desidia de YouTube para sancionar el acoso homofóbico, mantienen viva una discusión difícil.

Christchurch

El ataque terrorista de marzo de 2019 en una mezquita en Christchurch, Nueva Zelanda, además del daño creado a las personas directamente afectadas, a todo su grupo, y a la sociedad neozelandesa completa, tuvo consigo (tal como tantos otros crímenes de odio) un “componente digital”. En este caso, además de un historial de involucramiento en redes sociales, la intensa proliferación, –especialmente en Facebook– del registro audiovisual del ataque volvió a enfatizar un aspecto especialmente difícil en la regulación de la expresión: la celeridad para detectar y actuar, a fin de prevenir el daño resultante de la amplificación.

El “Llamado de Christchurch a la acción”, iniciativa que convoca a gobiernos, empresas y otras organizaciones para comprometerse a eliminar contenido terrorista y extremista de internet, muestra una fuerte voluntad. Sin profundizar en esta instancia en lo problemático que resulta el Llamado, tanto en su contenido como en su proceso de formulación, es importante reparar en lo que significa asignar, a instancias de algunos gobiernos y la exclusión de todo el resto, roles para empresas privadas en la decisión sobre qué contenido debe estar en línea y cuál no, a nivel global.

Para David Kaye, ejemplos anteriores de leyes y propuestas (especialmente en Europa) por regular asignando tales funciones, no resultan tan solo en un reconocimiento institucional de la responsabilidad de estas plataformas en la difusión de ciertos contenidos, sino, paradójicamente una concentración mayor de poder con efecto global en compañías estadounidenses. Se trata de un desmedro de la función que los gobiernos, en tanto depositarios de la confianza ciudadana, deberían asumir en la búsqueda de soluciones.

La supervisión de las decisiones

El anuncio de Facebook de contar con un Comité de Supervisión para estudiar casos complejos de moderación de contenidos ha sido recibido con distintos grados de escepticismo y de reconocimiento, especialmente por la sociedad civil global. Cabe reconocer el avance que significa someterse a una revisión independiente de esas decisiones; a la vez, cabe exigir de la generalidad de las plataformas más transparencia sobre esas decisiones, especialmente dada la decreciente confianza en la justicia de las mismas en casos difíciles.

Por cierto, se trata de un proceso en curso, donde muchas dudas buscan respuesta, mientras aparecen llamados de la sociedad civil a asegurar no solamente decisiones puntuales, sino también el futuro de la formulación de las políticas de contenidos vean mejoras sustantivas. Esto es, que el proceso sirva no solamente para resolver mejor casos puntuales, sino para un establecimiento de estándares de manera abierta a la sociedad, no como expresión de “valores” corporativos.

Se trata de un paso importante porque implica el reconocimiento de la necesidad de participación de la pericia externa a estas compañías. Para Kaye, al igual que para buena parte de la sociedad civil, la supervisión es deseable a través de un modelo que involucre a toda la industria, y con roles para el Estado en la supervisión del comportamiento de las plataformas.

Expresión de la democracia

El escenario actual es resultado, entre otras cosas, de la falta de estándares claros. En parte, porque es prácticamente imposible tener un único conjunto de estándares de aplicación universal frente a situaciones complejas y realidades culturales diversas. En parte, porque también parece poco sensato buscar soluciones a cuestiones sociales profundas en la regulación de la tecnología donde esas cuestiones se manifiestan. Pero no es ello una razón para renunciar a la aspiración de un mejor entorno digital.

Las recomendaciones formuladas por distintas organizaciones de la sociedad civil, por la academia, y por el propio Relator Especial, ponen el énfasis tanto en la acción estatal como en la autorregulación, pero también en la interacción entre sectores. La pregunta que se formula David Kaye, “¿quién ha de estar a cargo?”, busca seguidamente una respuesta en el interés general. Subyace a múltiples recomendaciones de transparencia, responsabilidad y multisectorialismo una noción de participación que ha sido parte del desarrollo de sistemas políticos democráticos. Es decir, allí donde reconocemos un interés público relevante, aspiramos también a un involucramiento que desconcentre el ejercicio del poder. En la gobernanza de las plataformas de internet, aun nominalmente privadas, también esperamos más democracia.

En Derechos Digitales entendemos ese desafío también desde la particularidad de nuestra región. Tal como advierte David Kaye, enfrentamos situaciones en que la acción estatal es usada precisamente para acallar voces críticas. En las próximas semanas publicaremos un informe al respecto, para esclarecer algunos de los aspectos críticos del debate. El desafío principal, de mantener un entorno de pleno ejercicio de derechos fundamentales, y de plena expresión de la ciudadanía, involucra a todos los actores sociales.

Pronunciamiento de las organizaciones civiles latinoamericanas: Exigimos liberen a Ola Bini

El jueves 11 de abril, la policía ecuatoriana detuvo en el aeropuerto de Quito a Ola Bini, ciudadano sueco residente en Ecuador, desarrollador de software y activista por la privacidad y la libertad en internet, mientras trataba de tomar un vuelo hacia Japón. Según las autoridades ecuatorianas, el arresto estaría justificado en la relación de Ola Bini con WikiLeaks, que lo implicarían en supuestas conductas ilegales.

Ola Bini es un experto altamente respetado en seguridad digital y criptografía, y es reconocido por sus importantes contribuciones en este campo. Es miembro de varias redes europeas e internacionales, y participa en proyectos de alto nivel, varios de ellos patrocinados por la Comisión Europea.

Nos preocupa que el arresto y la detención de Bini sea parte de una campaña contra la comunidad de personas desarrolladoras que construyen herramientas de tecnología de seguridad digital, que garantizan el disfrute de los derechos humanos en internet y las comunicaciones seguras en línea.

Las tecnologías de seguridad digital, incluidas las de cifrado, son herramientas importantes para salvaguardar el ejercicio de derechos humanos en internet de la ciudadanía. El Consejo de Derechos Humanos de la Organización de las Naciones Unidas incluso ha reconocido en su Resolución 33/2 de 2016 que estas tecnologías son valiosas para proteger a las y los periodistas, pues proveen un canal seguro para sus comunicaciones y preservan la confidencialidad de las fuentes.

[left] Dada la importancia que tienen las herramientas digitales para el disfrute de derechos humanos, las personas que desarrollan tecnologías de seguridad digital –como Ola Bini– no deberían ser criminalizadas. [/left]

El día de la detención, funcionarios del Gobierno ecuatoriano anunciaron que estaban a punto de tomar medidas contra cuatro individuos descritos como “dos hackers rusos, un colaborador de WikiLeaks y una persona cercana a Julian Assange”, alegando que estas personas estaban tratando de “establecer un centro internacional de piratería” en Ecuador. Expresamos nuestra preocupación por la arbitraria privación de libertad de Ola Bini. La misma se ejecutó de manera injustificada, poco clara y con una orden judicial irregularmente emitida, violentando el marco internacional e interamericano de derechos humanos que garantizan el debido proceso y garantías de protección a los derechos fundamentales de las personas.

Con posterioridad, la Fiscalía General de Ecuador declaró que a Bini se le acusa de su “presunta participación en el delito de atentado contra la integridad de los sistemas informáticos” y de intentar desestabilizar el país. Como prueba, el Fiscal General presentó una serie de dispositivos digitales, como computadoras portátiles, iPads, iPods, cables USB y dispositivos de almacenamiento de datos cifrados, libros, así como patrones de viaje y pagos por servicios de internet. Reiteramos que el uso de dispositivos digitales no puede ser utilizado como una medida para incriminar a personas cuyo trabajo se apoya en el uso de software libre y está vinculado al desarrollo de herramientas de seguridad digital.

Los cargos, la vinculación de Bini con Wikileaks y las pruebas, más que sostener la acusación, estigmatizan y criminalizan actividades legítimas y necesarias para la protección de los derechos humanos. Las irregularidades de su detención, generan una profunda preocupación sobre la negación a Ola Bini de sus derechos al debido proceso y a la defensa. Lo anterior configura una persecución y criminalización del activismo en favor de la la libertad de expresión y el acceso a la información. Tanto el Relator Especial sobre libertad de expresión de la Comisión Interamericana de Derechos Humanos, Edison Lanza, como el Relator Especial de a ONU sobre la promoción y protección del derecho a la libertad de opinión y expresión, David Kaye, han expresado públicamente su preocupación por lo que demuestra hasta ahora ser una detención arbitraria.

Las organizaciones firmantes, provenientes de América Latina y el Caribe, rechazamos la criminalización de las actividades de desarrollo de herramientas de seguridad digital y habilitadoras de los derechos humanos en Internet, particularmente, de la libertad de expresión. Reconocemos que es fundamental proteger la seguridad de las comunicaciones, anonimato y el derecho a la privacidad de periodistas y sus fuentes, así como de defensores de derechos humanos en un contexto de creciente violencia en la región.

Por lo tanto, exigimos al Gobierno del Ecuador libere inmediata e incondicionalmente a Ola Bini y que retire todos los cargos en su contra.

Firman:

  • Actantes
  • Artículo12, A.C. México
  • Artículo19 México
  • Artigo19 Brasil
  • Asociación por los Derechos Civiles (ADC)
  • Asociación de Software Libre del Ecuador
  • Casa da Cultura Digital Porto Alegre
  • Centro de Estudos da Mídia Alternativa Barão de Itararé
  • Centro de Mídia Independente Brasil
  • Ciranda Inter. Comunicação Compartilhada
  • Coletivo Digital
  • Coletivo Saravá
  • Derechos Digitales
  • Electronic Frontier Foundation
  • Escola de Ativismo
  • Fórum Nacional pela Democratização da Comunicação — FNDC
  • Fundación Ciudadanía Inteligente
  • Fundación Karisma
  • Garoa Hacker Clube
  • Instituto Bem Estar Brasil
  • Instituto Educadigital
  • Instituto de Pesquisa em Direito e Tecnologia do Recife — IP.rec
  • Instituto Prensa y Sociedad de Venezuela
  • Internet Sem Fronteiras Brasil
  • Intervozes — Coletivo Brasil de Comunicação Social
  • Rede Latino-americana de Estudos sobre Vigilância, Tecnologia e Sociedade — Lavits
  • Usuarios Digitales

México ante el #MeToo: interfaces para la acción colectiva

En México, el 23 de marzo las conversaciones en torno al #MeToo reclamaron los espacios digitales para abrir la reflexión sobre las violencias lamentablemente cotidianas que enfrentan las mujeres en un país donde cada día -en promedio- 10 mujeres son asesinadas, los feminicidios han encabezado titulares por años y la violencia de género es una constante en espacios académicos, profesionales, políticos y la vida privada.

A partir de una serie de denuncias públicas hechas en Twitter, un gran número de declaraciones fueron alentando a que otras mujeres compartieran historias de acoso, abuso y otras violencias que habían recibido por parte de sus parejas y colegas en los espacios que compartían: más allá de la intimidad, rompiendo el silencio que mantiene estos actos -y a quienes los perpetúan- en impunidad.

No es la primera vez que en el mundo -o en México– miles de historias se han entrelazado a partir de un llamado hacia una suerte de catarsis colectiva y por la búsqueda de justicia, pero definitivamente es la primera vez que las denuncias de este tipo han mantenido un ritmo constante que ha permitido que las reflexiones vayan más allá de lo digital y permeen espacios en los principales medios de comunicación mexicanos: generando así conversaciones que permiten retomar temas como la falta de mecanismos de denuncia eficaces, la normalización de la violencia de género y la posibilidad de actuar desde la empatía y sororidad; ante tanto dolor que las mujeres mexicanas han mantenido en silencio, aunado a la falta de espacios de diálogo que hoy -gracias al ejercicio de la libertad de expresión en redes sociales- son posibles.

Sin embargo, existe una conversación paralela que mira con descontento la manera en que esta serie de denuncias se ha ido gestionando (de forma orgánica, acéfala, caótica y con toda la validez del doloroso hartazgo de donde surgen estas manifestaciones) argumentando que el anonimato no es más que una herramienta para permitir difamaciones y denuncias falsas. Cabe acotar que esta “conversación paralela” goza de un sesgo increíble, al borrar de tajo las desigualdades que desdibujan la agencia de un gran porcentaje de mujeres que no cuentan con los medios, recursos o posibilidades para tener acceso a los que llaman “procesos correctos de denuncia” -en un país con tanta impunidad- ¿exactamente a qué se refieren con eso? La justicia, como es sabido en México, es de quien puede pagarla.

Tampoco es la primera vez que la búsqueda por perjudicar la legitimidad del anonimato ha buscado colocarse en medio de las discusiones en torno a movimientos que permiten el goce de la libertad de expresión y tienen la potencia para moler los cimientos de los mecanismos tan arraigados que fomentan violencia, censura, represión y desigualdad.

Para muchas de las mujeres que participan en estas denuncias colectivas -a partir de distintas cuentas que fueron creadas para dirigir las conversaciones a los gremios que han albergado (e incluso protegido) a personas que han ejercido violencia, acoso o abusos- una de las principales ventajas está en poder sumarse a una conversación donde no serán señaladas; como lo hubieran sido de haberse enfrentado físicamente a estas instancias o a quienes las violentaron, evadiendo así el amedrentamiento que muchas otras han enfrentado al hacer denuncias por medio de sus cuentas personales e incluso al retomar sus denuncias “anónimas” para continuar la conversación con más detalles respecto a las mismas.

Hay que apelar a la claridad respecto a que estas denuncias no son realmente anónimas, sino que son las cuentas que las publican las que mantienen el carácter anónimo que responde directamente a la importancia de dejar que la conversación gire en torno a la violencia y no al escarnio público hacia quienes encuentran el valor para reconocerse en situaciones de este tipo; además de lograr romper el silencio para exponer esa realidad que socialmente hemos ignorado y -gracias a esta contundente conversación- ahora nos hace eco en todos lados: más allá de Twitter, en nuestras conversaciones cotidianas, en las estaciones de radio, en los periódicos, en los contenidos que se han vuelto virales y hasta en aquellos ídolos que para muchas personas representaban la libertad que viene al disfrutar melodías de la juventud.

Detrás del anonimato, cuando hablamos de hacer frente a las violencias desde contextos que coartan las libertades y derechos de las personas, siempre hay alguien jugándose la identidad para romper el silencio.

Estos días no sólo hemos leído historias de mujeres que han sido victimizadas: a través de sus testimonios leemos la resiliencia de personas que viven en constante resistencia, en un país cuyas políticas están lejos de brindar los mecanismos necesarios para permitirles vivir seguras y sin miedo a que ellas u otras personas sean agredidas. Leemos testimonios de personas que han encontrado la fuerza y el momento para romper el silencio, a pesar de las consecuencias que esto representa en nuestro contexto.

La valentía tiene un precio que radica en la incertidumbre de las repercusiones, es una apuesta azarosa: por un lado, están las mujeres que reconocen a otras y quienes desde la profunda empatía y sororidad tejen redes de apoyo; por otro lado existe esa violencia patriarcal y machista que busca la menor provocación para reafirmarse desde sus prácticas de amedrentamiento… Es aquí donde el anonimato se vuelve un antídoto contra quienes buscan identificar a las víctimas para silenciarlas, también es aquí donde las plataformas digitales se convierten en puentes/interfaces que permiten conectar y participar en estas conversaciones sin arriesgar la integridad (o la seguridad) de quienes encuentran la fuerza para denunciar en primera persona.

El #MeToo representa un movimiento necesario para continuar con los espacios de diálogo y reflexión que permitan hacer visibles las relaciones de poder a partir de las cuales se perpetúa la violencia, no sólo de género, en nuestro país. Necesitamos escucharnos, reconocernos, sanarnos y hacernos responsables de lo que -como sociedad- hemos pretendido ignorar y hoy pasa la factura desde las plataformas digitales: se acabó la simulación, se acabó el silencio.

A las mujeres que valientemente han participado en este proceso: no están solas.

A quienes incautamente buscan callarlas: nunca serán suficientes.

A 5 años de su consagración: repensando el derecho al olvido

En mayo se cumplirán cinco años desde que el Tribunal Europeo de Justicia falló el polémico Caso Costeja, que estableció la responsabilidad de los motores de búsqueda sobre las bases de datos y dio pie a la posibilidad de cancelar la disponibilidad de ciertos resultados a solicitud de sus titulares: lo que hoy conocemos como “derecho al olvido”. Desde entonces, distintos países de Latinoamérica han propuesto incorporar esta figura a sus ordenamientos jurídicos, pero ¿es realmente necesaria su consagración en Chile? 

Jurídicamente, el derecho al olvido no es más que la decisión legislativa de declarar a los motores de búsqueda como responsable de bases de datos personales. La consecuencia de ello es que habilita a los titulares de datos personales a ejercer derechos ARCO (acceso, rectificación, cancelación u oposición) cuando estos datos resultan inexactos, falsos o dejan de ser relevantes. De esta forma, una persona puede pedir, por ejemplo, que una determinada URL no aparezca en los resultados de búsqueda cuando se busque su nombre; como sucedió en el Caso Costeja donde -a pesar de haber transcurrido más de 10 años- un anuncio de embargo aún aparecía en los resultados de búsqueda asociados a nombre en Google, afectando su derecho a la participación en la vida económica y su capacidad de hacer negocios luego de haber saldado sus deudas.  

Exigir a Google, Bing, Yahoo y compañía eliminar ciertos contenidos de los resultados de búsqueda también resulta problemático desde una perspectiva del derecho a la información, la libertad de expresión, el ejercicio del periodismo y la memoria histórica. Después de todo ¿de qué sirve que algo esté disponible en internet si cuando alguien intenta acceder a él no aparezca entre los resultados de búsqueda? 

Desde la academia, la sociedad civil y la jurisprudencia se ha hecho un importante esfuerzo para compatibilizar la consagración del derecho al olvido con otros derechos que se pueden ver afectados. Sin embargo, vale la pena preguntarse si nuestro ordenamiento jurídico ya cuenta con herramientas suficientes para enfrentar este fenómeno de una forma que permita ponderar de mejor manera los intereses en juego.  

¿Qué dice la evidencia?

De los seis buscadores con mayor presencia en internet, Google domina por sobre un 90% el mercado de motores de búsqueda, siendo el principal buscador utilizado por los usuarios globalmente, ejerciendo una actividad casi monopólica respecto del universo de motores de búsqueda que existen. 

A fin de hacerse una idea del impacto que ha tenido el derecho al olvido en Europa, fue necesario revisar las estadísticas de solicitudes de desindexación. De todos los motores de búsqueda solamente Google, Bing y Yahoo tienen a su disposición formularios para solicitar la desindexación de contenido a nivel europeo.  En cuanto a la transparencia de estas solicitudes y sus resultados, solo Google y Bing cuentan con estadísticas públicas relativas a las solicitudes recibidas y su aceptación o rechazo.

Partiendo de las estadísticas disponibles, es posible observar que de 785.027 solicitudes totales recibidas por Google (3.038.858 URL solicitadas) y Bing (78.781 URL solicitadas), un total de 1.020.404 URL solicitadas fueron aceptadas. Es decir, el buscador decidió que la solicitud tenía mérito suficiente y las URLs han dejado de aparecer en los resultados de búsqueda asociados a sus datos personales. Por otra parte, 1.305.256 URLs fueron rechazadas. De esta forma, la tasa de aceptación de solicitudes de desindexación es de aproximadamente un 43%. Una cifra bastante elevada que permite sospechar que el mecanismo de desindexación no está siendo utilizado en casos excepcionales en que la afectación justifique una medida de estas características. 

Además el hecho de que se utilice la legislación de protección de datos personales  como mecanismo procesal implica que el primer organismo en decidir la validez de la solicitud será el responsable de la base de datos, en este caso: las empresas privadas que las posean. Esto resulta problemático ya que decidir sobre la ponderación de distintos derechos fundamentales debería recaer únicamente en los tribunales de justicia, quienes cuentan con la independencia, imparcialidad y legitimidad constitucional para decidir materias que pueden afectar derechos humanos. 

Corremos el riesgo de establecer una especie de censura donde una empresa resolverá colisiones entre derechos fundamentales a partir de lo que le convenga, para evitarse conflictos judiciales y sanciones.

¿Es el derecho al olvido la vía adecuada?

Ante la ausencia de una legislación específica, las personas afectadas por contenido en línea desactualizado, inexacto o que podría coartar sus derechos se han visto obligadas a echar mano al recurso de protección como mecanismo para evitar que cierto contenido en línea sea vinculado a su identidad. 

Uno de los primeros fallos sobre la materia (incluso previo al caso Costeja) fue el caso del exfiscal Abbot (2012). Alegando que el contenido de un blog resultaba atentatorio a su persona, la Corte decidió que Google debía “establecer los filtros necesarios para evitar publicaciones de carácter injurioso”, sin considerar la calidad de funcionario público del entonces fiscal regional. El año 2016 el caso del periódico El Mercurio se presentó cómo otro error de criterio de la Corte, la que ordenó no sólo la desindexación del contenido, sino su eliminación. En ambos casos se muestra la ausencia de una correcta ponderación entre la afectación de la honra del quienes exigen este recurso y el derecho de los medios de comunicación de cubrir legítimamente acontecimientos de interés público.

Sin embargo, en el último tiempo los criterios de las Cortes superiores de justicia han ido evolucionado, llegando al acuerdo respecto a que los recursos de desindexación deben operar únicamente de forma excepcional. En la sentencia más reciente de la Corte Suprema -relacionada a la publicación de una noticia por un delito al que finalmente la autora fue absuelta- el tribunal terminó por decidir que “no procede la eliminación de la noticia que en su día fue publicada lícitamente”,  estipulando que si existe un interés público, al ser ponderado con otros derechos fundamentales, este tendrá mayor relevancia sobre  la solicitud de eliminación del contenido. Del mismo modo, en este y en otros casos, la Corte ha optado por medidas que se alinean con el derecho al acceso a la información, solicitando la actualización del contenido objetado o la inclusión de notas respecto a la vigencia de su contenido en el mismo portal. 

En conclusión…

La implementación del derecho al olvido en Europa ha resultado problemática. Existen indicios de que la tasa de solicitudes aceptadas de desindexación es excesivamente alta, no asegurando que su aplicación se realice de forma excepcional. Del mismo modo, en la práctica esta vía ha significado entregar a una empresa privada el poder de decidir en primera instancia qué debe y qué no debe aparecer en internet. 

El ordenamiento jurídico chileno cuenta actualmente con mecanismos que, si bien pueden ser mejorados, hoy están sirviendo como vía para que los individuos afectados puedan hacer valer sus derechos. El recurso de protección -que a lo largo de estos 5 años ha ido afinando sus criterios- ha permitido generar una válvula de escape al problema social que el derecho al olvido busca enfrentar, al mismo tiempo que se asegura que la desindexación de contenido sea utilizada de manera excepcional y bajo la tutela de entidades imparciales, como los tribunales de justicia.