Apagones de internet y censura en América Latina

Las casi dos semanas de protestas en Ecuador contra las medidas de austeridad del presidente Lenín Moreno, que culminaron hace apenas unos días con la derogación del decreto que diera origen a las protestas, fueron también el escenario de una serie de incidentes de disrupción al libre flujo de las comunicaciones y la información en internet. Según reportes de la organización Usuarios Digitales, servicios como WhatsApp y Twitter presentaron fallas en la descarga de videos e imágenes. Esta información fue reforzada a través del reporte publicado por la organización Netblocks, que señaló que los servidores de imágenes y contenido (CDN) de Facebook y WhatsApp estuvieron inaccesibles a través del operador de telecomunicaciones estatal -Corporación Nacional de Telecomunicaciones (CNT)- desde la noche del 6 de octubre, en momentos durante los cuales las redes sociales veían aparecer imágenes y videos de la represión de las protestas y de la muerte de uno de los manifestantes. 

La práctica de restringir el flujo de discurso y contenido multimedia durante protestas, especialmente en contextos de represión contra manifestaciones con carácter social y político, se ha presentado en la región en casos muy puntuales pero también sumamente preocupantes como son Venezuela y Nicaragua. En Venezuela, los bloqueos intermitentes de redes sociales se han vuelto una práctica constante -tal como ha reportado incansablemente la organización Venezuela Inteligente mediante su proyecto VESinFiltro– en combinación con bloqueos permanentes a medios de comunicación específicos:

Además de bloqueos indefinidos a medios hemos reportado el uso de bloqueos cortos y tácticos a algunas plataformas claves como Twitter, Youtube, Instagram, Periscope y también sitios como el de CNN en Español. (…) Mediante el monitoreo de internet que realiza VE sin Filtro, conocemos de más de 20 medios de comunicación bloqueados de forma indefinida al momento de esta publicación.

Andrés Azpúrua para VESinFiltro

En Nicaragua, según Netblocks, los cortes intermitentes de internet estuvieron presentes durante las protestas de 2018 y 2019 mediante “apagones” completos del internet en regiones específicas, que muestran una “fuerte correlación” entre los momentos de las disrupciones y apagones de la red y los momentos en que tenía lugar la represión de civiles. Lo anterior sugiere que estas medidas buscan ahogar el flujo de información durante los momentos clave de las protestas. Cabe recordar que situaciones similares se han presentado también en Venezuela, siendo quizá la más memorable el “apagón” de internet en el estado Táchira durante las protestas de 2014, que duró más de 36 horas y tuvo lugar en la zona más álgida de protestas durante el momento de mayor represión.

En todos los casos mencionados, los bloqueos y restricciones en el acceso a internet se han visto acompañados de otras medidas y ataques contra periodistas, defensores de derechos humanos y medios de comunicación tradicionales, marcando el debilitamiento del ecosistema de la información y la comunicación y -como consecuencia inevitable- el socavamiento del entorno democrático. En este contexto, el uso de las redes sociales como herramienta para la protesta y la participación política cobra particular relevancia al convertirse en una avenida alternativa para el ejercicio de las libertades civiles y políticas.

Aunado a esto, según un reporte de la Global Network Initiative, un país con conectividad alta puede perder al menos 1,9% de su PBI por cada día que los servicios de internet se ven afectados, un costo que equivale a 1% en el caso de un país de conectividad intermedia y 0,4% en un país de conectividad baja. Es decir, las disrupciones de la conectividad no afectan solo los derechos civiles y políticos de los ciudadanos de un país, sino que minan los derechos económicos y sociales colectivos, una preocupación especialmente grave en países en vías de desarrollo y en democracias frágiles y emergentes. Según la herramienta COST, desarrollada por Netblocks para medir el costo financiero de los apagones y bloqueos a internet, Venezuela ha perdido en total USD $402.803.069 a causa de los apagones, mientras que Ecuador ha dejado de percibir USD $82,146,854 y Nicaragua USD $4,724,285.

Ya en 2016, la Asamblea General de la Organización de Naciones Unidas declaró que las medidas intencionales para evitar o interrumpir el acceso o la diseminación de información en línea constituye una violación de las normas internacionales en materia de derechos humanos. Asimismo, la OEA ha repudiado de manera específica “los apagones y disrupciones arbitrarias para restringir el acceso a las redes de telecomunicaciones e internet”. 

Queda claro que este tipo de medidas dejan de manifiesto una intención de restringir la libertad de expresión e información de manera desproporcionada e ilegítima, una decisión que es por completo incompatible con el debido funcionamiento de una democracia.

Consejo Asesor de Facebook: ¿La bala de plata para los problemas de la moderación de contenidos?

Es habitual encontrar quejas sobre el funcionamiento de grandes plataformas y sitios como YouTube, Twitter o Instagram; sea por quitar imágenes o videos de sus usuarias por infracción de sus políticas y condiciones de uso, o bien por mantener en sus sistemas comentarios constitutivos de amenazas o discriminación. En otras palabras: por quitar demasiado sin suficiente justificación o mérito, mientras los nazis circulan sin molestias.

Se trata a menudo de decisiones difíciles, intentando sopesar tanto el interés por la expresión libre con el respeto a la ley o a las reglas de convivencia en la interacción entre usuarios en la plataforma. En una escala planetaria, con cientos o miles de millones de personas haciendo lo mismo a la vez, la tarea de moderación es de una magnitud difícil de medir. A ello se agrega la complejidad de responder a distintas normas legales y sociales existentes entre distintos países y comunidades.

De allí nace el anuncio de un Consejo Asesor de contenido de Facebook, con la misión de actuar como árbitro último en la decisión de cuándo corresponde un retiro de contenido o no. Hace pocos días -y tras un intenso período de consultas en persona y por escrito- se incluyó la respuesta de la coalición Al Sur (p. 126), de la cual Derechos Digitales forma parte, y se realizó el anuncio oficial del Acta constitutiva que despeja varias de incertidumbres; dejando abiertas algunas interrogantes levantadas por diversas organizaciones de la sociedad civil durante el periodo de consultas. 

Un órgano diverso e independiente

Uno de los aspectos clave de la implementación de un Consejo como el planteado es la independencia funcional, esto es, que no se trate de un órgano que responda a Facebook. Por ello, el más reciente anuncio se anota un punto favorable al incluir la formación de un fideicomiso, que recibirá fondos de la compañía pero estará independientemente encargado de financiar la operación del Consejo, incluyendo la compensación por servir en el mismo. La forma de interacción entre los tres órganos está también contemplada en el Acta (art. 5).

El Consejo contará también con capacidad independiente para seleccionar los casos a los que se dedicará. Aunque resta conformar los estatutos para el funcionamiento del Consejo, será este mismo el que podrá modificarlos a futuro, idealmente asegurando así que la primera versión de ellos que producirá Facebook no afectará la forma en que se diseñe su proceso de toma de decisiones.

Por otra parte, la composición del Consejo (art. 1 del Acta) debe ser “diversa”, con entre 11 y 40 personas con un amplia gama de conocimientos, competencias, diversidad y pericia; evitando los conflictos de interés. Puesto que no hay un Consejo conformado todavía, aún no sabemos si en la práctica se cumplirán las aspiraciones de diversidad de voces y perspectivas anunciada, sin embargo ya está en marcha el proceso de selección de miembros iniciales. Aún no queda claro si los criterios para la remoción de miembros del Consejo (art. 1 s. 8), una vez establecidos, serán suficientes para garantizar que la permanencia sirva como modo de presión para la toma de decisiones en uno u otro sentido. Tampoco hay mecanismos establecidos para enfrentar las inevitables acusaciones de sesgo de quienes compongan el Consejo o alguno de sus paneles. Todos estos detalles pendientes resultan esenciales para una evaluación final de los requisitos que miran a la diversidad, independencia y legitimidad de la acción del Consejo Asesor.

La toma de decisiones sobre la expresión global

En principio, el Consejo estará llamado a responder a los casos que Facebook directamente someta a su decisión por su “importancia” y “dificultad”, para posteriormente recibir también solicitudes de las usuarias (art. 2). El Consejo, como hemos dicho, podrá decidir sobre la selección de casos. Las decisiones que se adopten por el Consejo en tales casos serán vinculantes y las medidas adoptadas en su cumplimiento deben ser informadas transparentemente por Facebook (art. 4).

Pero de manera mucho más crucial, las facultades del Consejo no estarán limitadas a lo que Facebook o sus usuarias indiquen sobre retiro de contenidos o comentarios, sino para interpretar las políticas de contenidos en general (art. 1 s. 2). Esto incluye no solo a las Normas Comunitarias, sino también otras cuestiones como el uso de herramientas automatizadas de moderación, o las políticas sobre avisos. Queda por ver si el Consejo extenderá su ámbito de acción, y si Facebook reconocerá esa ampliación. 

El Acta admite que el Consejo entregue “guía” a Facebook para la modificación de sus políticas (art. 1 s. 4), sin hacer obligatorio un cambio de esas políticas para la compañía. Si bien es comprensible que un órgano externo como el Consejo no tenga influencia directa en las reglas de la plataforma, la decisión de formulación de esas reglas continuará exclusivamente en manos de la compañía. Llama la atención a este respecto el lenguaje ambiguo utilizado respecto del carácter vinculante -o no- de las recomendaciones en materia de modificación de políticas, versus el reconocimiento explícito del carácter vinculante de las decisiones referidas a casos específicos que les sean sometidos. Dicha ambigüedad atenta contra las recomendaciones formuladas por Derechos Digitales y otras organizaciones durante el periodo de consultas. El mínimo esperable en este caso, si no existe un efecto vinculante de las recomendaciones del Consejo, es que Facebook se comprometa a proveer explicaciones suficientes y razonadas al Consejo que justifiquen su negativa.

El Consejo podrá también recabar información adicional (art. 3 s. 3), incluyendo opiniones expertas, peticiones de investigación, o traducciones. Es de esperar que no haya una limitación de recursos que haga inviables esas expectativas de información que puede ser crucial para comprender el contexto en que una expresión cuestionada se produce. Además, el Consejo podrá recibir opiniones no solicitadas de personas o grupos afectados o representados en el contenido respectivo, a modo de amici curiae. Por otro lado, se mantiene la posibilidad de someter al Consejo una decisión expedita en casos especiales, con hasta dos semanas para responder, un plazo menos que ideal por ser muy extenso para responder a una situación urgente y muy breve para una decisión razonada. Por ello, esperamos que el Consejo desarrolle mecanismos propios para enfrentar casos urgentes.

El proceso para llegar a una decisión y a su implementación por Facebook está centrado en la determinación sobre si una decisión de retirar contenido es consistente con las políticas de contenido y los “valores” de la compañía. Es decir, se trata de vigilar la observancia de reglas de una empresa privada, y no de reglas legales nacionales o internacionales, en situaciones de expresión que alcanzan a todo el planeta. Aunque se incluyen por primera vez menciones explícitas a la atención necesaria a las “normas de derechos humanos que protegen la libertad de expresión” en el Acta (art. 5 s. 2) y al derecho internacional de los derechos humanos entre los valores que inspiran las Normas Comunitarias (al menos, desde hace unas semanas), es necesario que un compromiso real a futuro con los derechos fundamentales sea más explícito y más amplio; así como que se reconozca de una jerarquía superior a los valores internamente establecidos por la compañía. Tan solo relevar valores de libertad de expresión y no otros derechos humanos implicados en la moderación de contenidos -muy en línea con la perspectiva estadounidense- es insuficiente para reconocer los entramados de derecho internacional de los derechos humanos y las complejidades normativas que pueden variar alrededor del mundo.

También aparece en el Acta la función de marcar “precedentes” de las decisiones (art. 2 s. 2) intentando proveer al mecanismo consistencia en sus decisiones. Sin embargo, se compromete su implementación limitada a lo técnicamente posible y a lo que no esté legalmente prohibido (art. 4), planteando nuevas dudas sobre el real apego a reglas tales como las propias del derecho internacional de los derechos humanos. 

El beneficio de la duda

Desde un inicio el anuncio del Consejo Asesor de contenido fue recibido ampliamente con un sano escepticismo, pero como una buena medida inicial para incrementar la transparencia, el debido proceso, la diversidad y la rendición de cuentas en la moderación de contenidos. Parece un piloto interesante para evaluar soluciones que abarquen más de una compañía o nuevos esfuerzos individuales, aún cuando falta una mayor recuperación del amplio legado del sistema internacional de derechos humanos. Es una preocupación que las decisiones difíciles y con impactos continúen siendo dejadas de este modo en manos privadas, sin primacía de procesos para ponderar la proporcionalidad de afectación a derechos propia del sistema internacional de derechos humanos; a pesar de contar con una larga historia de toma decisiones en casos complejos. 

El escepticismo en torno a la intención de proteger usuarias en lugar de proteger su éxito económico es comprensible, ya que el historial de la compañía hace difícil entregar el beneficio de la duda en un ámbito con consecuencias sensibles. Pero a la vez, podría significar un paso inicial para el reconocimiento de la responsabilidad que -en el marco internacional de los derechos humanos- recae en quien aloja buena parte de la expresión a nivel mundial.

Dada la alta complejidad en torno a mantener espacios a la vez libres de acoso y de contenido dañino, propicios para la expresión libre y ausentes de censura ilegítima, es difícil entregar confianza sobre el control de la misma a un sistema diseñado por una empresa privada por genuino que resulte el esfuerzo. La solución ofrecida por este Consejo Asesor está lejos, por tanto, de ser la -ansiada por muchos- bala de plata de la moderación de contenido.

Contra las nuevas formas de violencia antidemocrática

Un día como hoy, hace 46 años, las Fuerzas Armadas chilenas derrocaron al gobierno democrático de Salvador Allende. El golpe de estado – producto de una confabulación entre militares y civiles, con apoyo de la CIA – dio inicio a 17 años de dictadura sangrienta y voraz, cuya violencia se expresó como asesinato y tortura, pero también como política económica y en la creación de una Constitución todavía hoy vigente. 

Ese 11 de septiembre de 1973, mi madre tenía 14 años; 13 mi padre. El retorno de la democracia los encontró comenzando los 30, con un hijo pequeño y una hija recién nacida. Además de infundir miedo y hambre, la dictadura les arrebató su juventud. Valientemente asumieron la responsabilidad de luchar contra la represión, de todas las maneras que encontraron: marchando, haciendo barricadas, tirando panfletos, organizando actos culturales, haciendo títeres, cantando, tomando vino navegado en las peñas folklóricas, mirando películas censuradas, yendo al teatro. Fue así como se conocieron y quizás su amor haya sido también una manera de resistir, un pequeño gesto de esperanza frente a la monotonía de la desolación. 

Como mis padres, miles de personas lucharon todos los días durante 17 años contra la dictadura, desde distintos frentes, de diferentes maneras. La recuperación de la democracia es su legado, su regalo para quienes les seguimos. Pero la democracia es siempre una promesa, un proyecto inconcluso, susceptible también al retroceso. Y esa es algo de lo que tenemos que ser conscientes, especialmente cuando hemos visto un alza de las voces negacionistas del horror, no solamente en Chile, sino también -por ejemplo- en Brasil, que al igual que otros países Latinoamericanos vivió también una historia de represión, violencia y terrorismo estatal.

Las nuevas tecnologías de la comunicación -desde las redes sociales a las aplicaciones de mensajería- han sido una de las principales armas que han encontrado los grupos negacionistas, que han sabido explotar hábilmente el desinterés de las compañías por generar espacios seguros para quienes las usan y las sociedades en que habitan. Alguna vez celebradas como la vanguardia de la democracia, las redes sociales se han convertido en la mayor caja de resonancia que han encontrado los proyectos filofascistas en el siglo XXI. 

La explotación del miedo con fines políticos -a través del perfilamiento de la población- gracias a la acumulación masiva de datos personales, es también una expresión  que remite al arsenal de herramientas utilizado por las dictaduras latinoamericanas; que además reconocieron el potencial de las campañas de desinformación muchísimo antes de la masificación de los celulares y los grupos de WhatsApp. 

Por su parte, las tecnologías de vigilancia, que de forma cada vez más común se despliegan en los espacios públicos y semi-públicos, tienen el potencial de volver literal la advertencia macabra emitida por el dictador cuando se ufanaba de que en Chile no se movía una hoja sin que él lo supiera ¿Cuánto más efectiva habría sido la CNI si hubiese tenido acceso a la tecnología de reconocimiento facial que hoy se instala de manera casi anecdótica en nuestras ciudades? Y aunque en Chile la CNI ya no existe, periodistas y activistas siguen siendo vigilados y perseguidos por medio de las mismas tecnologías que se suponía venían a liberarnos. 

La relación entre tecnología y violencia no debería extrañarnos, ¿no fue acaso IBM proveedor de la Alemania Nazi? Lo que debería parecernos raro es la ingenuidad con la que se suele abordar esta relación, como si viviéramos constantemente obnubilados por el brillo de las pantallas que hemos decidido anexarnos. 

Frente a estas nuevas formas de violencia que atentan contra nuestras frágiles democracias y los derechos fundamentales de quienes las conforman, nuestro deber es resistir y luchar de todas las formas que encontremos: por quienes lo hicieron antes que nosotros y para quienes nos van a suceder.

Represión contra mujeres periodistas y activistas en México

El viernes 16 de agosto en la Ciudad de México se convocó a una protesta ante las omisiones de justicia en casos de violación donde los culpables son elementos de las fuerzas policiacas. Estos casos, que no han sido pocos ni recientes, llevaron a que cientos de mujeres se encontraran en las inmediaciones de la Glorieta de Insurgentes para dar lugar a lo que se denominó “Diamantada”: donde la diamantina fue retomada como símbolo de protesta durante la manifestación convocada tras los eventos del 12 de agosto.

Cabe recalcar que el tema de la violencia contra mujeres en México es un problema histórico que hoy en día se mantiene al alza, simplemente en este año hemos pasado de tener un promedio de 8 a 10 asesinatos de mujeres al día. Aunado a esto, la violencia también se ha ejercido a través de otros mecanismos y estructuras de poder. No hay que olvidar que hace unos meses atrás aún nos encontrábamos analizando la luz que arrojó la segunda ola del #MeToo sobre casos de acoso y otros tipos de violencia en diferentes gremios: incluso el periodístico.

Desde hace varios años, diversas instancias se han encargado de documentar las implicaciones que -en el contexto de violencia contra periodistas, donde México está consolidado como uno de los peores en América Latina para ejercer esta profesión- recaen en asumir el compromiso con documentar y comunicar la realidad como mujer periodista. No es gratuito que la renombrada periodista Lydia Cacho recientemente haya huido del país.

Por otro lado, existe una dimensión política que también aporta un matiz distinto a la polarización de la información que tanto medios de comunicación como algunos comunicadores han difundido, pues es claro que el feminismo -como la verdad- incomoda a quienes han consolidado su poder en los privilegios que existen para quienes se alinean con estructuras sociales profundamente patriarcales, machistas y misóginas como las que existen en México; estructuras que grupos de mujeres organizadas a través de distintas acciones claramente políticas han estado visibilizando, buscando derribar. Y no pasa por alto que vivimos en una época donde la participación de las mujeres en distintos espacios se ha potenciado y amplificado, evidenciando el recelo (manifestado, algunas veces, a través de agresiones) ante los cambios propios de una sociedad que se está transformando.

Sin embargo, algunos de los principales medios de comunicación han optado por abordar el tema con una mirada sesgada que promueve la polarización y desdibuja el descontento que ha movido a cientos de mujeres en todo el país. Este problema no solamente pasa por evidenciar una falta de perspectiva de género y mirada crítica en estos conglomerados comunicacionales, sino que también alimenta las posturas que suelen tomarse por quienes propagan discursos de odio e incluso dirigen agresiones a activistas y medios de comunicación feminista en redes sociales.

Imponer el silencio

Tras las denuncias públicas de medios independientes con perspectiva feminista como Luchadoras, otras iniciativas de derechos humanos y afines a las causas feministas se sumaron para denunciar la violencia manifestada a través de redes sociales en días posteriores a la marcha.

Además de los casos violencia explícita que se documentaron y los reportes de acoso y violencia en línea, se hicieron visibles estrategias de amedrentamiento que hacían uso de grupos de Facebook para convocar a “golpear feministas hasta la muerte”. Esto hace evidente la instauración del miedo como una herramienta para reprimir la legítima protesta de las mujeres que se han manifestado a través de las movilizaciones en el espacio público y la potencia de las plataformas digitales.

Desde Internet Es Nuestra hicimos un llamado a Facebook y Twitter para agilizar los procesos de reporte, aplicar sus normas comunitarias y promover acciones ante la violencia que se ejerce contra las mujeres en sus plataformas. Al día de hoy nos hemos reunido con Twitter para abordar este tema y pensar medidas conjuntas para hacer frente a los casos reportados, mientras que no hemos recibido respuesta por parte de Facebook.

Estrategias y resistencias

La violencia en línea contra las mujeres en México, así como la violencia contra mujeres periodistas en el mundo no son temas sencillos; tienen una vasta multiplicidad de matices que se complejizan cuando se sitúan en los diferentes contextos en los que aún queda camino por recorrer para alcanzar un punto en el que podamos vivir libres de violencia.

El sumar la dimensión técnica/tecnológica a las propuestas políticas y las acciones feministas no sólo nos permite repensar nuestra relación con las tecnologías, sino cuestionarnos las dependencias hacia ciertas estructuras que menoscaban la autonomía; mientras propagan ideologías que actúan en detrimento de nuestras libertades y derechos.

En México, el año pasado, un grupo diverso de mujeres que se autodenominó Tormenta habilitó un diálogo sobre identidad y feminismo en internet. El resultado fue una reflexión que pasó por abordar las estrategias de aprendizaje y cuidado colectivo por medio de una mirada crítica sobre nuestro uso de las tecnologías: mirando hacia alternativas que permitieran fortalecer la seguridad y la autonomía sobre la información.

Además, no son pocas las iniciativas feministas que trabajan seguridad digital en América Latina. Como Ciberseguras, que también tiene presencia en México y ha sido parte de procesos de acompañamiento y fortalecimiento digital para mujeres, activistas, periodistas y defensoras de derechos humanos en diferentes estados del país. 

Ante la omisión de justicia, la desinformación y la violencia, pensar la seguridad digital como una parte fundamental de nuestras actividades como comunicadoras, periodistas o activistas es fundamental para prevenir ataques o desarrollar estrategias que nos permitan actuar a tiempo: para que nuestras voces se amplifiquen y no sea el miedo lo que defina nuestro futuro. 

¿Hacia dónde va el primer tratado sobe economía digital?

El pasado 17 de mayo, los representantes de Chile, Singapur y Nueva Zelanda anunciaron la negociación de un nuevo tratado de comercio internacional: el Acuerdo de Asociación sobre Economía Digital (Digital Economy Partnership Agreement, DEPA). La novedad es que este será el primer tratado comercial dedicado exclusivamente a abordar los desafíos de la economía digital, especialmente luego del estancamiento de las negociaciones en la materia a nivel de la Organización Mundial del Comercio (OMC).

La semana pasada, la Subsecretaría de Relaciones Económicas Internacionales de Chile (ex DIRECON) convocó la primera reunión oficial, permitiendo a los miembros de la industria, la academia y la sociedad civil chilenas conocer más detalles sobre la iniciativa. Los primeros acercamientos se produjeron en diciembre de 2018 y hasta el momento se han celebrado tres rondas de negociación. La negociación será cerrada entre los tres países hasta su conclusión, pero luego se permitirá la adhesión de cualquier país que pertenezca a la OMC. 

En cuanto a las materias que se van a incorporar en el tratado, estas van desde las más tradicionalmente vinculadas al comercio electrónico (pagos electrónicos, no aplicación de tarifas aduaneras a servicios digitales, firma electrónica, etcétera) a temas nunca incluidos en un tratado internacional, como la regulación de la inteligencia artificial y la tecnología de cadenas de bloques (blockchain). Vamos por partes.

Nobleza obliga

Entre los temas que se han propuesto en la negociación, hay dos que son particularmente positivos (ambos propuestos por Chile). El primero, es la inclusión explícita de normas que promueven la utilización del cifrado. Esto es relevante porque la tecnología de cifrado de comunicaciones (especialmente de punto a punto) se ha transformado en una herramienta indispensable para mejorar los estándares de ciberseguridad de las industrias y los distintos servicios digitales. En este sentido, el cifrado no solo asegura que las personas puedan ejercer su derecho a la inviolabilidad de las comunicaciones, sino que promueve la confianza de los usuarios en la seguridad de los servicios y plataformas que operan en el ciberespacio. Esto tiene un efecto económico tangible, ya que estudios indican que el 33 % de los consumidores expresa haberse abstenido de adquirir productos y servicios en línea debido a consideraciones de seguridad y privacidad.

Su inclusión también resulta positiva a la luz de la iniciativa de distintos países para debilitar el cifrado, exigiendo a los desarrolladores incorporar “puertas traseras” en sus servicios, para “descifrar” el contenido encriptado. Estas puertas traseras son verdaderas vulnerabilidades informáticas, que no solo pueden ser aprovechadas por los gobiernos que las exigen, sino que también por delincuentes informáticos, como ya ha sucedido. Si bien todavía no se han dado a conocer los textos para cada propuesta, la inclusión de una norma que impida a los países exigir la inclusión de puertas traseras en programas informáticos sería un gran paso en la promoción de la ciberseguridad y el comercio electrónico.

Entre los temas propuestos también se encuentra la inclusión de normas que consagren el principio de neutralidad de la red. Este principio busca asegurar que los operadores de internet traten todo el tráfico que pasa por sus redes de la misma forma, impidiendo que puedan bloquear, interferir o priorizar cierto tipo de tráfico por sobre otro. Este principio básico de internet no solo promueve la competencia y la innovación al impedir que los operadores de internet puedan llegar a acuerdos privados con proveedores de contenido, sino que también promueve la existencia de un internet libre y abierta, al impedir que los proveedores puedan decidir qué contenido debe obtener un trato preferencial. 

Lo que puede mejorar

Derechos Digitales ha sido crítico de las disposiciones sobre comercio electrónico que han sido incluidas en tratados internacionales anteriores, como CPTPP o TiSA. Una de nuestras críticas es que las normas sobre flujo transfronterizo de datos personales establecen un mismo criterio para los “datos” (así, en general) que para los datos personales. 

Internet funciona por capas. En un modelo simplificado, existe una capa de infraestructura (cables, servidores, etcétera), una capa de protocolo (estándares y código) y una capa de contenido (interacciones entre seres humanos). Nadie discute que la arquitectura de internet exige que exista un libre flujo de información. En otras palabras, en la capa de infraestructura no debe existir una discriminación de hacia dónde o cómo viaja la información (los unos y los ceros). Sin embargo, los datos personales no se regulan en la capa de infraestructura, sino que en la capa de contenido. Al ser datos que se vinculan a personas naturales, su recolección y procesamiento tiene que cumplir con la regulación de cada país y respetar los derechos fundamentales de las personas. Así, el Reglamento General de Protección de Datos Personales de la Unión Europea permite que los datos personales de sus ciudadanos solo puedan transmitirse a aquellos países que tengan un nivel “adecuado” de protección. 

La negociación de DEPA se presenta como una oportunidad para enmendar el camino y redactar una norma sobre flujo transfronterizo de datos personales que haga las distinciones que hacen falta. Consagrando el valor del libre flujo de datos en la capa de infraestructura, pero estableciendo que (en la capa de contenidos) los datos personales solo podrán ser transmitidos cuando cumplan con la respectiva legislación de datos personales, o a lo menos, con una protección normativa efectiva a favor de sus titulares.

Aspectos preocupantes

Lamentablemente, la negociación del DEPA también incluye materias que resultan sumamente problemáticas y que deberían ser abandonadas de plano. Así, la negociación incluye normas para promover la adopción de políticas públicas sobre “identidad digital” similares al sistema National Digital Identity de Singapur.

Estas políticas no solo son problemáticas en términos de ciberseguridad, ya que implican concentrar el manejo de todos los datos personales de los ciudadanos en una base de datos centralizada , sino que muchas veces van acompañadas de la utilización de tecnologías de control biométrico. Esto hace que cualquier tipo de filtración, vulneración o mal utilización de la información genere una afectación mucho más grave al derecho a la autodeterminación de las personas. 

Si nuestros datos se filtran, siempre podemos cambiar nuestro correo electrónico, teléfono, domicilio e incluso nuestros nombres, pero es imposible cambiar nuestra iris o huella digital. En este sentido, la biometría es como una caja de pandora: una vez abierta las personas se ven imposibilitadas de recuperar el control sobre sus datos. ¿Qué pasará el día que un gobierno sufra la filtración o robo de todos los datos biométricos de sus ciudadanos? Además, las políticas de identidad digital promueven el uso de un método único de identificación frente a organismos públicos, pero también ante el mundo privado como forma de facilitar las transacciones económicas. Esto implica aumentar la capacidad de perfilamiento y vigilancia sobre los ciudadanos, tanto de los gobiernos como de las empresas, con las consecuencias democráticas que ello conlleva. 

Por otro lado, DEPA propone incluir normas sobre regulación de plataformas que buscan combatir el terrorismo y el discurso de odio en línea. Si bien estos son objetivos completamente loables, la responsabilidad de los intermediarios y la regulación del contenido en las plataformas es hoy un tema sumamente polémico, por las profundas consecuencias que puede tener en materia de libertad de expresión. 

Hacer responsables directamente a los intermediarios del contenido que suben sus usuarios obliga a las plataformas a monitorear permanentemente lo que circula en sus servicios y bajar “preventivamente” y sin un debido proceso cualquier material que pueda ser infractor. A eso se suma el uso de algoritmos e inteligencia artificial pero, dado que ninguna máquina tiene la capacidad de comprender las complejidades del lenguaje humano, estos mecanismos han demostrado no ser confiables a la hora de moderar contenido.

Además, tales sistemas terminan bajando más contenido legítimo, mientras que el contenido que se busca combatir se mantiene disponible. También resulta problemático que sean empresas privadas las que terminan decidiendo sobre actos de expresión (muchas veces de forma muy deficiente) sin una ponderación entre derechos fundamentales. Por lo mismo, a pesar de las buenas intenciones, consagrar reglas sobre esta materia en un tratado internacional podría generar profundos efectos perjudiciales a futuro.

Por último, DEPA se propone reconocer la importancia y crear marcos para una implementación progresiva, confiable y segura de tecnologías emergentes como la inteligencia artificial y las cadenas de bloques. Más allá de los peligros que la implementación de la inteligencia artificial puede implicar en materia de sesgos algorítmicos, y que al parecer las cadenas de bloques no serán implementadas en la escala que alguna vez se especuló, no resulta recomendable que un tratado internacional se refiera a tecnologías particulares, que no necesariamente van a resistir el paso del tiempo. Una aproximación que involucre criterios de neutralidad tecnológica resultaría más aconsejable en esta materia.

En definitiva, la negociación de DEPA se presenta como una gran oportunidad para incluir temas que promuevan la ciberseguridad y la neutralidad de la red, al mismo tiempo que se mejora la forma en que se abordan materias que han sido tratadas de forma deficiente en el pasado. La promoción de la ciberseguridad, la certeza jurídica y una aproximación de derechos humanos en el tratamiento de datos personales es un elemento que sin duda favorecerá la confianza en el ciberespacio y el comercio electrónico. Sin embargo, esta oportunidad puede verse opacada por la inclusión de materias sensibles y que pueden ser incompatibles con el ejercicio de los derechos fundamentales de las personas. Por suerte la negociación todavía se encuentra en su etapa inicial y todavía hay tiempo para enmendar el rumbo en los temas problemáticos y profundizar en aquellos que son positivos.

Contra la persecución política a Ola Bini

Ola Bini es un reconocido activista por el software libre y experto en seguridad digital. Desde el 11 de abril de 2019 se encuentra sujeto a un proceso judicial en Ecuador, acusado de haber vulnerado sistemas informáticos. Tal proceso, sin embargo, ha sido ampliamente cuestionado por la multiplicidad de irregularidades cometidas y por estar bajo un sinnúmero de presiones políticas.

El primer elemento ha sido confirmado por el Habeas Corpus otorgado en junio pasado por parte del tribunal de la Corte Provincial de Pichincha y por las expresiones oportunamente realizadas por las Relatorías Especiales sobre la Libertad de Expresión de la Organización de Estados Americanos (OEA) y la Organización de las Naciones Unidas (ONU).[1] [2]

Por su parte, la Misión Internacional de la Electronic Frontier Foundation (EFF) enviada recientemente a Ecuador, tras conversar sobre esta situación con políticos, académicos y periodistas de distintas tendencias, ha concluido que la motivación tras el caso de Ola Bini es política, no criminal.[3] De hecho, todavía se desconoce cuáles son los sistemas informáticos de cuya vulneración se le acusó en un principio.

Junto con ello, una serie de hechos recientes han encendido nuevas alertas. En primer lugar, la vinculación de una nueva persona a la causa por el sólo hecho de mantener un vínculo profesional con Bini y a pesar de que en la audiencia respectiva no se presentaron los elementos jurídicos necesarios para cumplir con dicho trámite. Además, el Fiscal a cargo de la acusación decidió abrir dos nuevas líneas de investigación contra Ola Bini: por “defraudación fiscal” y “tráfico de influencias”. De tal forma, la fiscalía ahora se propone investigar por hasta el plazo de 2 años más al activista.

Esta última decisión sugiere que no se cuentan con pruebas que sustenten las acusaciones originalmente realizadas contra Bini y que la atención de la justicia y el gobierno ecuatoriano no está puesta en un delito, sino en una persona. Esto nos lleva a confirmar el temor expresado por algunas organizaciones internacionales que trabajan por los derechos humanos en internet que desde el momento de la detención de Ola Bini alertaron sobre la espiral de persecución política contra un activista de renombre internacional, cuyo trabajo es globalmente reconocido por la protección de la privacidad.

Considerando lo expresado más arriba y las conversaciones mantenidas en el marco del XII Foro de Gobernanza de Internet de América Latina y el Caribe (LACIGF por sus siglas en inglés), los abajo firmantes rechazamos el escenario persecutorio montado contra Bini, demandamos que se respete el debido proceso por parte de todas las funciones del Estado e instamos a que los actores políticos dejen de interferir en la justicia.

Firman:

  • Asociación para el Progreso de la Comunicaciones
  • Derechos Digitales
  • Electronic Frontier Foundation
  • Internet Bolivia
  • Intervozes
  • Fundación Karisma

[1] https://cnnespanol.cnn.com/2019/06/20/tribunal-de-ecuador-acepta-recurso-de-habeas-corpus-para-ola-bini/

[2] https://www.eluniverso.com/noticias/2019/04/15/nota/7287350/relatorias-onu-oea-cuestionan-detencion-ola-bini

[3] https://www.eff.org/es/deeplinks/2019/08/ecuador-political-actors-must-step-away-ola-binis-case

La concentración del poder para censurar en internet

En los últimos años, las discusiones sobre el rol de las plataformas de internet en la difusión de desinformación, la censura de discursos legítimos y la amplificación de expresiones de odio y violencia han aumentado notablemente. En este contexto, aunado a una fuerte tensión política, se han hecho llamados frecuentes a modificar parte de la legislación de Estados Unidos: país que rige a esas plataformas. 

Particularmente, se ha buscado cambiar el esquema fijado por la sección 230 de la Communications Decency Act. Esta disposición  sienta las bases para una regla general (aunque con excepciones) en que las plataformas de internet no tienen responsabilidad sobre el contenido provisto por terceros, el ánimo por reformas se suma a tendencias globales por provocar que empresas como Google, Facebook o Twitter sean más activas; filtrando o removiendo contenidos nocivos, y a la vez asumiendo responsabilidad por quitar espacio a contenidos legales.

Sin embargo, independientemente de que –a menudo– hay fines loables detrás de estas iniciativas, los posibles efectos sobre la libertad expresión y de información son significativos; ya que, en el particular caso del §230 CDA, tienen consecuencias a nivel global.

En términos simples, el §230(c) CDA distingue a las plataformas de internet de los editores de medios o proveedores de contenidos -cuando la información es provista por terceros- con el fin de eximirles de responsabilidad sobre esos contenidos. Además, les exime de responsabilidad por remover o bloquear de buena fe contenidos obscenos o violentos, aún si son legales: como ocurre con los términos y condiciones de uso. Es habitual que se considere a esta regla una de las piedras angulares (al menos desde el punto de vista normativo) del crecimiento de los gigantes de internet en los Estados Unidos.

La más concreta propuesta de reforma provino del Senado estadounidense en junio de 2019, en un proyecto de ley que busca quitar el “sesgo” de las grandes plataformas –en particular, redes sociales– que supuestamente afectaría a publicaciones afines a opiniones de la extrema derecha política de ese país, percepción compartida por otro troll desde la Casa Blanca. Aunque la reacción transversal negativa a la propuesta fue inmediata, las alertas sobre el riesgo que corre el §230 se encendieron de inmediato: la realidad de las malas propuestas sobre responsabilidad de intermediarios se trasladaron de manera tangible al país que alberga a las mayores empresas de tecnología.

¿Por qué esto debería importarnos, en contextos tan distintos al primer mundo? En primer lugar, por el efecto que podrían tener reglas extranjeras en nuestra propia regulación sobre lo que ocurre en internet, considerando que la reacción a la desinformación, la violencia en línea o la polarización en época electoral son también –con matices propios– problemas en nuestros países. Las malas experiencias en países como Venezuela u Honduras muestran el rol que se pretende desde las plataformas, de manera más que dañina para la libertad de expresión, mientras que otras iniciativas de regulación han terminado excluidas.

En segundo lugar, porque la ley sí tiene impacto sobre las reglas propias de las plataformas. Las normas impuestas por los gigantes de internet para sus usuarias, incluyendo aquellas que alteran la circulación de información y expresión, varían a su vez en razón de las normas a las que se sujetan esas plataformas en los países donde se erigen, o bien donde deciden domiciliarse para reducir su riesgo de responsabilidad. Si con el fin de cuidar sus ganancias cambian sus términos y condiciones de uso, ese impacto será también sufrido en otras latitudes; ya queel poder de las grandes plataformas es tal, que las condiciones de interacción varían a nivel global a partir de las decisiones que resulten lucrativas para reducidos grupos de personas en Silicon Valley.

La implementación de reglas que reflejen principios de justicia en el manejo de contenidos, incluyendo a su vez condiciones de transparencia y rendición de cuentas sobre el retiro -muy especialmente cuando median mecanismos automatizados de detección o bloqueo- son algunas medidas mínimas que deben adoptar esas plataformas. Pero quizás más importante, las reglas mismas requieren una revisión concienzuda, incluyendo la participación de actores de la sociedad civil global.

Es urgente terminar las malas iniciativas de criminalización excesiva de discurso y la radicación de la censura en plataformas. A nivel local es necesario poner al día nuestros anquilosados sistemas jurídicos y generar condiciones normativas para el discurso libre, donde se esclarezcan tanto las condiciones de exención de responsabilidad como los mecanismos y requisitos para forzar el retiro, el bloqueo, o la reposición de información. Más allá de aclarar cómo deberían ser las cosas en escenarios hipotéticos de las plataformas actuales, estas medidas permitirían fijar cómo pueden crecer las plataformas del futuro. Las normativas no deben plantearse para reaccionar a empresas específicas, respecto de las cuales persisten problemas más profundos y amplios que los relativos al contenido; ya que si bien quizás Facebook, Google o Twitter no son escenarios ideales para la discusión política o social que necesitamos, son espacios de intercambio vigente que evidencian la necesidad de establecer condiciones normativas para organizar nuestras propias alternativas.

“Oversight Board” de Facebook: una perspectiva desde América Latina y El Caribe

Las organizaciones que firman este documento forman parte del consorcio «Al Sur», un grupo organizado de la sociedad civil en América Latina que busca fortalecer los derechos humanos en el entorno digital. La razón principal de esta declaración es hacer presente nuestros comentarios conjuntos al llamado público hecho por Facebook para contribuir a su borrador «Draft Charter: An Oversight Board for Content Decisions».

Este «Oversight Board», que podemos traducir como una suerte de «Comité de supervisión», ha sido planteado por Facebook como un órgano independiente al que las personas pueden apelar las decisiones de moderación de contenido de la compañía. Esta iniciativa nace luego de las intensas críticas en el mundo (y de las que Latinoamérica y el Caribe no se han restado), sobre la falta de transparencia con la que Facebook desarrolla y aplica sus estándares comunitarios, lo que ha tenido como efecto el uso de la plataforma para campañas de desinformación, incitación a distintas formas de violencia, etcétera.

Valoramos que una plataforma del tamaño e importancia de Facebook (2,167 millones de usuarios en el mundo) se haya abierto a discutir la urgente necesidad de cambiar la forma en que hasta ahora se ha planteado la moderación de los contenidos. Pero, como veremos a continuación, creemos que este “Oversight Board” puede y debe tener un papel más activo en hacer dialogar las reglas de la comunidad de Facebook con estándares de derechos humanos. Sus decisiones deben tener como fin último la mejora de las políticas comunitarias como los procedimientos para aplicarlas, así como también se debe avanzar decididamente en su transparencia y la representatividad de regiones como la de Latinoamérica y el Caribe.

Así, nuestras recomendaciones se resumen en cinco puntos:

  • Alcance de su mandato

Sin importar la estructura o forma orgánica que adquiera el “Oversight Board” propuesto, y en orden a satisfacer su legitimidad y tener posibilidad práctica de cumplir con su mandato, creemos que el alcance último del “Oversight Board” debe comprender el de hacer recomendaciones de cambios a las políticas de la empresa y los procedimientos de aplicación de éstas, haciendo dialogar los estándares internacionales de derechos humanos con las reglas de comunidad de la empresa. 

Así, proponemos un cambio de la idea original planteada en el borrador de Facebook, y planteamos directamente que el “Oversight Board” tenga la facultad de impactar directamente el diseño regulatorio de las políticas de contenido de la misma plataforma. Entendemos que, para cumplir debidamente con este rol, el “Oversight Board” puede y debe analizar casos específicos ilustrativos, sobre todo, los más complejos y difíciles. Incluso debería sugerir a la empresa cambios en decisiones con efectos reparatorios para esos casos concretos. No obstante, su objetivo central serán las mejoras a las políticas y los procedimientos de cómo la empresa toma decisiones en relación con la moderación de contenido, teniendo la capacidad de establecer cuál debería ser el proceso a seguir, paso por paso, para tomar este tipo de decisiones, con fundamento en lo ya desarrollado en la materia por los estándares internacionales de derechos humanos. Por ejemplo, el llevar a cabo un análisis y ponderación de derechos que se apegue a los tests de necesidad, proporcionalidad e idoneidad. 

En esta propuesta, es importante repensar los insumos con los que contará el “Oversight Board” para hacer su trabajo, en tanto que los casos ilustrativos pueden no advertir a tiempo tendencias preocupantes en el uso de la plataforma y en la moderación de los contenidos. Proponemos, entonces, que además se abran otras instancias donde especialistas en la materia, con conocimiento de los contextos regionales pertinentes, puedan presentar evidencia preocupante de uso y moderación de contenidos en Facebook y que puedan afectar a grupos específicos que, por su vulnerabilidad u otros factores de marginalización, no puedan o no quieran acceder a este mecanismo.

Desde esta perspectiva, creemos fundamental que el organismo asuma tres tareas urgentes:

1) Transparencia algorítmica. Muchas de las decisiones que afectan las reglas de comunidad y, por ende, la moderación de contenidos, tienen efecto en las decisiones algorítmicas que la plataforma tiene sobre contenidos en particular. Este tipo de decisiones automatizadas son más opacas que la remoción de contenido per se (las explicaciones de cómo funcionan y cómo se evitan falsos positivos es más bien inexistente) y, por ende, afectan de igual manera la libertad de expresión. 

2) Aspectos formales de la toma de decisiones. Es urgente que un organismo técnico, representativo e independiente como el “Oversight Board” pueda hacer recomendaciones acerca de aspectos formales en la toma de decisiones de su proceso de moderación de contenidos, pues estos afectan los resultados del mecanismo. Se debe repensar desde la forma en que se notifica a las personas usuarias que su contenido fue removido, pasando por el currículum de los moderadores, hasta las condiciones laborales de estos últimos.

3) Mecanismos de apelación. Creemos también importante que Facebook asuma con urgencia la tarea de reforzar los mecanismos comunes de apelación que tienen las personas usuarias, adoptando criterios de debido proceso y sugerencias desde estándares de derechos humanos que el mismo “Oversight Board” pueda hacer.

Asimismo, el alcance limitado del “Oversight Board” debe ser explícito en dos sentidos para las personas usuarias: (1) el rol de la justicia y del análisis de afectaciones a derechos humanos sigue siendo una tarea del Estado, apegado al contexto local, y (2), las tareas del “Oversight Board” no reemplazarán a los mecanismos de apelación sobre el resto de los contenidos (que, como afirmamos anteriormente, es urgente que mejoren). 

De preferencia, las decisiones del “Oversight Board” tienen que ser vinculantes en primera instancia. Ello favorecería la legitimación de su establecimiento y la confianza de las personas usuarias respecto de su función, en tanto su implementación no estaría sujeta a la discreción de la plataforma. No obstante, si Facebook decide que así no sean, debiera al menos asegurar una explicación profunda y documentada al “Oversight Board” de su razonamiento en esas decisiones.  

  • Derechos humanos por sobre valores corporativos

Creemos que debe dejarse atrás la idea de que el “Oversight Board” responda a los “valores” de Facebook. Más bien, debe avanzarse decididamente a que su criterio principal sean estándares internacionales de derechos humanos.

Los “valores” de una compañía representan solo a su organización y a su cultura empresarial que está, asimismo, limitada a una forma cultural. Por esta razón, de ninguna manera esos “valores” deben ser el estándar de decisiones del “Oversight Board”.

Asimismo, la legitimidad y efectividad del “Oversight Board” queda en duda si sus decisiones se basan conforme a los «valores» o «estándares» fijados por la misma plataforma. La mejor manera de cumplir con la aspiración de imparcialidad e independencia en las decisiones de este organismo, y de generar una mayor confianza en este sentido, es apegarse a un proceso que ya ha sido establecido y elaborado por los estándares internacionales existentes de derechos humanos (como nuestro Sistema Interamericano de Derechos Humanos), y que permita decisiones transparentes y replicables. 

  • Alcance geográfico, diversidad y criterios de selección

Facebook plantea, en principio, un “Oversight Board” mundial con compromiso de “diversidad” con un número aproximado de 40 personas. En este sentido, y como parte de una comunidad del Sur Global y, aún más en particular, de América Latina y el Caribe, creemos que es importante garantizar la diversidad de la composición de este organismo, pero también su pericia técnica. 

Desde el punto de vista de la diversidad, es necesario que haya una composición con equilibrio de género y etnia. Además, creemos que la composición debe ser representativa de manera proporcional al número de las personas usuarias que Facebook tenga en cada región y de su proyección de crecimiento. Del mismo modo, es importante la multidisciplinariedad en sus miembros de manera de entregar visiones diversas a los problemas.

Desde el punto de vista de pericia técnica, debe buscarse en esa proporcionalidad regional, personas que cumplan con estándares claros y transparentes de idoneidad profesional como, por ejemplo, demostrada experiencia en temas de derechos humanos y libertad de expresión. Estos criterios deben ser propuestos y revisados públicamente, de manera que sean idóneos y factibles de cumplir en todas las regiones, y sean transparentes a la comunidad de manera de mejorar la rendición de cuentas de los mismos integrantes seleccionados del “Oversight Board”.

  • Reglamento interno e independencia. 

La independencia del “Oversight Board” debería ser garantizada por Facebook. Eso implica autonomía de este organismo para determinar las formas en que trabajarán, se comunicarán y las reglas con las que se regirán.

En este sentido, nos parece importante que una de las primeras tareas del «Oversight Board» sea trabajar en una propuesta de código de conducta que incluya procesos de denuncia y toma de decisiones. Este documento debe someterse a una consulta abierta. Su versión final debe ser pública, de tal forma de mejorar la transparencia y rendición de cuentas del organismo. Creemos importante que, en particular, el código de conducta debe estipular claramente asuntos como los conflictos de intereses de sus miembros. 

  • Periodo de observaciones.

Una vez que el “Oversight Board” lleve algunos meses de funcionamiento, debe establecerse explícita y públicamente un periodo para hacer observaciones a su funcionamiento, de tal forma de tener información de todas las regiones que permitan ajustar y mejorar este mecanismo. Este periodo de observaciones debe ser abierto y participativo. Sus resultados deben ser públicos, con la información completa sobre la determinación de qué ajustes hacer, así como un plazo adecuado para llevarlos a cabo. Debe, asimismo, contemplarse un mecanismo de observación periódica sobre el funcionamiento del “Oversight Board”, con características de transparencia y publicidad.

Este documento fue firmado el 7 de junio del 2019 por las siguientes organizaciones:

  • R3D: Red en Defensa de los Derechos Digitales, México
  • Fundación Karisma, Colombia
  • Asociación por los Derechos Civiles (ADC), Argentina
  • Coding Rights, Brasil 
  • Derechos Digitales, América Latina
  • Hiperderecho, Perú
  • Ipandetec, Panamá.
  • Tedic, Paraguay.

Resultados del compromiso del Estado chileno con los Derechos Humanos: ¿Avanzamos?

El 4 de Julio se dieron a conocer los resultados del Examen Periódico Universal de Chile. Como hemos abordado en textos previos, esta evaluación no sólo abarcó los derechos humanos en sus aspectos más tradicionales, sino que también por primera vez organizaciones de la sociedad civil -coordinadas por Derechos Digitales- propusimos hacer una revisión más profunda del compromiso del Estado con el respeto de los derechos humanos en los entornos digitales, donde cotidianamente se encuentran inmersas las personas chilenas.

A través de dos reportes sombra -uno centrado en privacidad en el entorno digital y otro en los demás derechos-Derechos Digitales y otras organizaciones de la sociedad civil presentaron información para la evaluación del Estado chileno, con el fin de aportar información precisa sobre el estado de cumplimiento de sus obligaciones de derechos humanos en los entornos digitales en materias tales como: libertad de expresión y reunión pacífica, protección de datos personales, privacidad, violencia de género y el abuso de las tecnologías de vigilancia por parte de la fuerza pública.

Al ser publicada oficialmente las respuestas de Chile a las recomendaciones formuladas por diversos Estados,recibimos con satisfacción ver entre las recomendaciones aceptadas las siguientes, referidas al ejercicio de derechos en los entornos digitales:

  • 125.88 Garantizar y promover los derechos a la libertad de expresión, la libertad de asociación y de reunión pacífica y la protección de los periodistas y los defensores de los derechos humanos, también en Internet (Islandia); 
  • 125.92 Aplicar políticas que faciliten la igualdad de acceso a la tecnología de la información y las comunicaciones, en particular para los pueblos indígenas, las poblaciones rurales y las mujeres (México);
  • 125.108 Evaluar las tecnologías de vigilancia y recopilación de datos personales desde el punto de vista de los derechos humanos, en particular teniendo en cuenta el derecho a la intimidad y el principio de no discriminación (Perú); 
  • 125.109 Aprobar legislación concreta para proteger y promover los derechos humanos en el entorno digital, incluido el derecho a la intimidad (Brasil); 
  • 125.110 Reforzar su legislación para la protección de los datos de sus ciudadanos de conformidad con los principios del estado de derecho, la proporcionalidad y el respeto de la intimidad, en particular considerando la posibilidad de crear una autoridad de control independiente (Suiza);
  • 125.166 Velar por que las mujeres puedan vivir una vida libre de violencia, incluso en contextos digitales, mediante una legislación apropiada, medidas preventivas, educación y recursos adecuados, incluidos servicios para las supervivientes (Canadá); 
  • 125.175 Examinar y revisar las leyes, políticas y reglamentos para hacer frente a la violencia contra la mujer, inclusive en contextos digitales, de conformidad con sus obligaciones internacionales en materia de derechos humanos (Islandia); 

Lo anterior representa un gran logro, desde nuestra perspectiva, en el reconocimiento de compromisos pendientes en estas materias, de acuerdo a las obligaciones internacionales previamente asumidas por el Estado; esperamos que este reconocimiento se materialice en acciones concretas que se ejecuten y reflejen antes del próximo ciclo de revisión. Miraremos ávidos la materialización de los compromisos con las personas chilenas para un futuro digital donde se protejan sus derechos y su dignidad.

Desde Derechos Digitales celebramos que se abran espacios de diálogo y evaluación para mejorar la toma de decisiones y la producción de políticas públicas. Del mismo modo en que participamos en la propuesta de recomendaciones, seguiremos velando por la promoción de éstas para asegurar que en Chile se produzcan medidas para procurar la defensa de los derechos humanos a través de las tecnologías. Es importante recalcar que estas recomendaciones no tienen valor si no se ven reflejadas en acciones concretas por parte del Estado chileno para implementarlas y que éstas tengan un impacto que permita mejorar la calidad de vida de las personas en Chile.

En particular, celebramos que se tomen en cuenta recomendaciones que plantean mejorar las medidas para asegurar que las mujeres vivan libres de violencia en los entornos digitales, y esperamos ello pueda traducirse en acciones concretas de introducción de esta temática en las políticas públicas de la especie, así como en la formación de los operadores del sistema de justicia -policía, fiscales y jueces- para una adecuada respuesta a esta restricción de derechos que sufren las víctimas de violencia de género en línea. Del mismo modo, esperamos que se redoblen los esfuerzos para adecuar la protección de datos los datos personales; en forma consistente a estas recomendaciones y a la reciente reforma constitucional al respecto. 

Ahora, las malas noticias: para nuestra sorpresa, entre las recomendaciones rechazadas se encuentra la realizada por el Estado Plurinacional de Bolivia para «Promover normas que cumplan con los principios de legalidad, necesidad y proporcionalidad en el uso de las comunicaciones y la tecnología, a fin de evitar la criminalización de las protestas sociales indígenas» (125.91).

Ante evidencia reciente del actuar del Estado chileno de forma ilegal en tristemente célebres casos como el denominado «Operación Huracán», al no ajustarse a los principios de proporcionalidad y pasar por encima del derechos fundamental a la privacidad, nos preocupa sobremanera que el Estado rechace una recomendación que precisamente se encamina a adoptar las previsiones legales y operativas que permitan evitar que los hechos documentados se repitan en el futuro. Se pierde una oportunidad clara para que el Estado impulse una evaluación interna crítica de su proceder, tanto desde una perspectiva de controles legales, como desde una perspectiva de compromiso político con el respeto a la libertad de expresión, la privacidad y la seguridad de las personas del pueblo Mapuche.

Sin embargo es de destacar que, a pesar de que la recomendación anteriormente señalada fue rechazada, se aprobó la recomendación 125.88 -hecha por Islandia- que justamente habla de la protección al derecho de libertad de expresión de periodistas y personas defensoras de derechos humanos en Internet. Con ello, esperamos el Estado implemente medidas concretas de control de su fuerza pública para evitar que la tecnología sea usada como medida de represión frente al flujo de información y defensa de derechos que proporcionan los comunicadores sociales y defensores de derechos humanos, incluyendo aquellos que trabajan de cerca por la protección y respeto de los pueblos indígenas.

En suma, la aceptación de estas recomendaciones, en conjunto, nos permite abrigar la esperanza de que el Estado se comprometa a tomar medidas que habiliten la puesta en marcha de políticas públicas que se alineen con la protección de la libertad de expresión, el derecho a la privacidad, la protección de datos y la promoción de entornos digitales libres de violencia hacia las mujeres. 

¿Avanzamos? Sí, aunque no todo lo que quisiéramos. Ahora el Estado tiene cuatro años para demostrar su compromiso con el respeto de los derechos humanos en forma equivalente tanto on line como off line. Derechos Digitales continuará su trabajo de colaboración y observación de las políticas públicas para mantener este recordatorio constante: para que las personas chilenas puedan disfrutar de los beneficios de las tecnologías en sus vidas y no vean restringidos sus derechos por ellas.

¿Chile está a la altura de la tarea? Los derechos humanos en el entorno digital, examinados

El 22 de enero pasado, el Consejo de Derechos Humanos de las Naciones Unidas examinó el historial de derechos humanos de Chile en el contexto del proceso del Examen Periódico Universal (EPU). Este proceso permite rastrear el progreso que ha tenido Chile en sus obligaciones de promover y proteger los derechos humanos.

Como señalamos en un texto anterior, este EPU ha registrado la primera vez que se generó conciencia sobre la necesidad de abordar el impacto de las tecnologías digitales en el ejercicio y la promoción de los derechos humanos: desde el respeto del derecho a la privacidad, la libertad de expresión. , la reunión y asociación pacífica, el ejercicio de los derechos económicos, sociales y culturales, y el impacto de una amplia gama de tecnologías que están afectando cada aspecto de la vida de los chilenos.

El Estado chileno debe ajustarse a las normas internacionales sobre el disfrute de los derechos humanos en internet, el derecho a la privacidad en la era digital y otros instrumentos que combaten la discriminación y la violencia en sus manifestaciones digitales.

Las recomendaciones recibidas por Chile en este último EPU son cruciales para reconocer el compromiso deficiente del Estado con respecto al fomento del ejercicio de los derechos humanos en el entorno digital.

En un artículo anterior advertimos sobre cómo el estado y el sector privado han utilizado algunas tecnologías para realizar la vigilancia de los chilenos, afirmando que era por «su propia seguridad» y «el uso efectivo de los recursos públicos». A continuación echamos un vistazo a las principales áreas de preocupación que se expresaron en el EPU, que también percibimos como desafíos compartidos en varios países de América Latina.

Chile necesita mejores leyes de derechos digitales y autoridades independientes de protección de datos

La delegación brasileña recomendó que Chile «adopte una legislación específica para proteger y promover los derechos humanos en entornos digitales, incluido el derecho a la privacidad». Esta recomendación señaló que Chile se quedó corto en la implementación de políticas concretas y directas sobre la materia.

Perú recomendó que Chile debería trabajar en «la evaluación de las tecnologías de vigilancia y recolección de datos personales desde una perspectiva de derechos humanos, con respecto al derecho a la privacidad y considerando el principio de no discriminación».

En la misma dirección, el Estado suizo señaló «la necesidad de fortalecer la legislación sobre la protección de datos personales» y el establecimiento de políticas públicas «de acuerdo con el estado de derecho, la proporcionalidad y la privacidad». Para que esto suceda, según el Estado suizo, es necesario que Chile «considere la creación de una autoridad de control independiente» que proteja los datos personales.

Actualmente se están discutiendo algunas mejoras en la actualización de la ley chilena de protección de datos; no obstante, estas recomendaciones obligan al Estado chileno a cumplir con las obligaciones internacionales de derechos humanos previamente adoptadas por Chile.

Chile necesita enfrentar la violencia contra las mujeres en entornos digitales

Las recomendaciones de Islandia abordaron otros temas apremiantes, instando al Estado de Chile a «revisar las leyes, políticas y regulaciones que abordan la violencia contra las mujeres, incluida la violencia en entornos digitales». Esta recomendación fue secundada por Canadá, quien recomendó una orden de legislación que permitiría a las mujeres «vivir libres de violencia, incluido el contexto digital».

Si bien Chile ha mejorado considerablemente la implementación de políticas para combatir la violencia contra las mujeres y los jóvenes, no hay políticas específicas para enfrentar este problema en el campo digital: el acoso sexual en las redes sociales y la difusión de material íntimo sin consentimiento son una realidad que requiere un esfuerzo práctico para superar las estructuras patriarcales en espacios fuera de línea y en línea, a fin de garantizar la capacidad de las mujeres para crear, habitar y constuir sus propias narrativas en el espacio digital.

También es necesario señalar que estas recomendaciones son adicionales a los esfuerzos anteriores desarrollados por el Estado, por eso insistimos a las instancias calificadas que tomen en cuenta las recomendaciones para promover su plena integración en los programas futuros y la agenda legislativa; garantizando espacios libres de violencia para el desarrollo de las mujeres a partir de hoy.

Chile necesita dejar de usar la tecnología para violar los derechos humanos

Las recomendaciones bolivianas abordan uno de los temas más apremiantes y escandalosos de Chile en los últimos tiempos: el uso de la tecnología como herramienta de represión. En una declaración contundente, Bolivia recomendó que Chile “promueva estándares que sigan los principios de legalidad, necesidad y proporcionalidad. Así como el uso de las comunicaciones y las tecnologías como una forma de poner fin a la criminalización de las protestas de los indígenas».

La delegación boliviana instó a Chile a evitar la repetición de episodios escandalosos como el «Caso Huracán«, donde se utilizó la tecnología para enmarcar a los líderes indígenas en actos terroristas. En muchos casos, el estado ha utilizado la tecnología para espiar a los líderes, periodistas y medios de comunicación indígenas en un intento por criminalizar sus reclamos legítimos.

Todas esas acciones violan las normas internacionales de derechos humanos al restringir el derecho a la privacidad, evitando la inviolabilidad de las comunicaciones y limitando la libertad de expresión y la reunión pacífica. Estas son algunas de las razones por las que esperamos que las recomendaciones se tengan en cuenta y se canalicen a través de reformas legales e institucionales dentro de los servicios de inteligencia y la aplicación de la ley del país, para evitar que las violaciones a los derechos humanos de las personas chilenas vuelvan a suceder.

¿Qué sigue?

Los Estados que participaron en el EPU de Chile hicieron llamados claros y firmes al Estado de Chile para promover, proteger y respetar plenamente los derechos humanos en el contexto digital. Esperamos que el Estado chileno esté a la altura de la tarea de aceptar esas recomendaciones, avanzar hacia la implementación completa de un enfoque integral de los derechos humanos en el país y, por lo tanto, considere los espacios digitales como entornos protegidos para el ejercicio de los derechos humanos.

Derechos Digitales -con sus socios y simpatizantes- mantendrá la atención en la adopción de las recomendaciones de Chile y estará disponible para colaborar en esta tarea. Como hemos señalado anteriormente: es momento de tomar decisiones y compromisos para garantizar la capacidad de ejercer plenamente los derechos humanos para el futuro, que es ahora. No hay tiempo que perder.

* Estos esfuerzos fueron coordinados por Derechos Digitales y respaldados por IFEX, en colaboración con Privacy International, APC, Ciudadanía Inteligente y Fundación Pro Acceso.