Mensajería segura ¿y también federada?

Después de cinco años de trabajo, el protocolo de Seguridad en la Capa de Mensajería (MLS por sus siglas en inglés) será publicado próximamente por IETF, la principal organización para la definición de estándares de internet. El objetivo principal de este protocolo es facilitar la comunicación cifrada de extremo a extremo entre dos o más personas, quienes pueden utilizar uno o más dispositivos (por ejemplo, utilizar una misma aplicación de mensajería en el celular y el computador). Hasta hoy, algunas aplicaciones como Signal tienen esta capacidad, pero lo hacen por su cuenta y las personas usuarias deben confiar en que pueden hacerlo, y cómo.

Al ser un estándar abierto, MLS es un acuerdo común sobre cómo debe transportarse la información cifrada en sistemas de mensajería instantánea, una vez se ha establecido la comunicación. Por eso, no se ocupa de cuestiones -también importantes para la seguridad- como la autenticación de la identidad de quienes participan de la comunicación y el envío de los mensajes. Solo se trata del transporte. Pero sobre esto volveremos más adelante. Por ahora, es importante mencionar que la publicación de un estándar no garantiza su implementación.

Al igual que Signal, aplicaciones como Whatsapp (con alrededor de 2.400 millones de personas usuarias a finales de 2022) también cifran las comunicaciones, y dada su popularidad es muy probable que sean de las primeras en implementar MLS, ajustándolo a sus necesidades. ¿Qué quiere decir esto? MLS, como muchos protocolos para la privacidad que se han desarrollado en los últimos años, se basan en una mayor complejidad técnica, así como en requerimientos de mayor infraestructura para ser desplegados. Con esto, las empresas más grandes tienen mejores capacidades para implementarlos, sin necesidad de compartir los códigos. Y es así como mantienen su posición dominante en el mercado.

La buena noticia es que existe OpenMLS, un proyecto de implementación de código abierto que permite integrar MLS en cualquier aplicación que incluya mensajería instantánea. La existencia de este tipo de implementaciones contribuye a descentralizar el mercado de internet y también a fortalecer la confianza en los sistemas que utilizamos, pues cuando solo las grandes empresas ofrecen un servicio (como la mensajería instantánea) y nos prometen respetar nuestra privacidad utilizando códigos cerrados, no tenemos más opción que creerles. Pero si el código está abierto, más empresas y personas (con capacidad técnica y de cómputo) pueden instalar y auditar estos sistemas, y es más probable que confiemos en alguna de ellas.

Justamente para limitar el poder de las grandes plataformas digitales, en mayo de 2022 el Parlamento Europeo publicó el Digital Markets Act (DMA), una regulación que en su artículo 7 exige la interoperabilidad entre sistemas de mensajería. Aunque la interoperabilidad, e incluso la federación, han estado en la discusión de MLS desde sus comienzos, esta nueva regulación ha motivado la conformación de un nuevo grupo de trabajo denominado Más Interoperabilidad en la Mensajería Instantánea (mimi), donde se busca encontrar mecanismos para la autenticación de identidad y el envío de mensajes, compatibles con el transporte cifrado de información que ofrece MLS.

¿Qué quiere decir esto? Que varias entidades (empresas, personas) pueden operar servicios MLS independientes. Es decir, que tanto la autenticación como el envío de mensajes no deben ser gestionados por la misma entidad, pero cualquier entidad debe garantizar la seguridad (el cifrado) que ofrece MLS. Protocolos como Matrix soportan el cifrado de extremo a extremo y además la federación. Como puede pasar con cualquier sistema, este protocolo presenta ciertas limitaciones para la garantía plena de la privacidad. En su caso, principalmente por la cantidad de metadatos que requiere para establecer las comunicaciones.

Otra buena noticia es que proyectos como Matrix o Phoenix (involucrado en OpenMLS) están contribuyendo en el grupo de trabajo mimi en IETF. Y aunque este grupo no pretende ocuparse del procesamiento de metadatos, la última buena noticia es que, aún cuando hace tiempo se ha hablado de esto, actualmente en el Comité de Arquitectura de Internet (IAB por sus sigles en inglés), el órgano decisor dentro de IETF, se está desarrollando un documento sobre la minimización de datos como principio necesario para el respeto a la privacidad.

Si bien desde América Latina no es sencillo seguir, involucrarse ni mucho menos contribuir activamente en muchos de los procesos que se adelantan en cuerpos de estandarización como IETF, vale la pena saber que, también allí, hay personas comprometidas con la privacidad, la descentralización y, en últimas, la posibilidad de utilizar internet con cierta autonomía todavía.

Las personas al centro: la apertura en las políticas de ciberseguridad

A mediados de 2022 el gobierno de Chile anunció la designación del nuevo Coordinador Nacional de Ciberseguridad: el Dr. Daniel Álvarez (uno de los fundadores de Derechos Digitales).

La nueva autoridad llegó anunciando dos misiones concretas y cruciales: la evaluación de la Política Nacional de Ciberseguridad 2017-2022, y el desarrollo de su sucesora, una nueva Política Nacional de Ciberseguridad 2023-2028, como cuestiones que se desarrollarán de forma paralela.

El esfuerzo viene acompañado de otros sucesos. A nivel nacional, el avance en la extendida discusión de una reforma profunda a la ley de datos personales, y el retrasado pero recuperado debate de una ley marco de ciberseguridad muestran un contexto de avance en varios frentes.

A nivel internacional, Chile sigue junto a varios países de la región negociando normas no vinculantes para el ciberespacio o “cibernormas” para el comportamiento de los estados en el ciberespacio en un grupo de trabajo de la Primera Comisión de Naciones Unidas, y reglas de combate e investigación de ciberdelitos en el Comité Especial designado en la Tercera Comisión.

Hay un aspecto que sobresale ahora que el proceso de una nueva PNCS está en curso: la participación ciudadana en la definición de posturas y medidas oficiales relacionadas con la seguridad en el ciberespacio.

Proteger personas, no máquinas

La discusión por el desarrollo de reglas, principios y normas no vinculantes para el comportamiento de los estados en el ciberespacio, que lleva varios años y varias iteraciones en el OEWG de la ONU, parece ir encaminada con buenas intenciones en ese sentido.

Con insistencia de organizaciones de la sociedad civil y la academia, y con el apoyo de varios Estados (también de Latinoamérica), se ha destacado la necesidad de poner a las personas y los derechos humanos no solamente en el centro de los esfuerzos de protección, sino también como parte de la discusión en el OEWG.

No obstante, resulta un desafío permanente que la implementación de las normas no vinculantes sea efectivamente un espacio para la participación. Con frecuencia, da la impresión de que ciertos aspectos de la implementación de estas normas no vinculantes son más bien un asunto eminentemente técnico, donde la experiencia, la pericia y la perspectiva de múltiples partes interesadas, distintas del Estado y algunas empresas de seguridad, no tiene un espacio.

¿Es posible confiar en que los Estados incorporen a distintas partes interesadas al momento de implementar normas no vinculantes? ¿Es posible esperar al menos el compromiso de una mayor interacción a través de sus programas y estrategias de ciberseguridad? Ello depende fundamentalmente de la forma en que cada Estado observa, e integra, los aportes de esos distintos actores.

Los próximos pasos

Hace varios años, cuando analizamos los niveles y el impacto de la participación de múltiples partes interesadas en la formulación de la PNCS 2017-2022 de Chile, observamos con grata sorpresa lo que resultaba un positivo ejemplo. La convocatoria del gobierno de la época para sostener reuniones con distintas partes interesadas y de abrir la consulta pública a cualquier persona que quisiera intervenir, se vio reflejada en un texto final que efectivamente incorporaba cambios coincidentes con propuestas desde fuera del gobierno.

En nuestra opinión, esa mayor interacción permitió no solamente mejorar la comprensión y las capacidades entre distintos actores (Estado incluido), sino también dotar a la PNCS 2017-2022 de mayor calidad y legitimidad.

Un informe de la OEA y GPD, lanzado públicamente a fines de junio de 2022, daba cuenta de la experiencia en la región, relevando los procesos que integraron de distinto modo a la participación multisectorial. Tan solo falta que esa apertura se adopte como norma no vinculante a nivel global.

Creemos firmemente que las distintas partes interesadas, especialmente aquellas dedicadas a la promoción de derechos humanos o que representan a grupos especialmente vulnerables a ataques cibernéticos, son actores relevantes en la formulación y en la implementación de políticas sobre el ciberespacio, facilitando la capacitación, proponiendo políticas o medidas concretas, y ayudando a la sensibilización en cuestiones de seguridad digital.

Con esa experiencia, el nivel en materia de participación para una estrategia de ciberseguridad no debería ser un menor que en la ocasión anterior. No obstante, hasta ahora es poco lo que hemos encontrado en mejoras sustantivas.

Es positivo que la política chilena sea objeto de evaluación, como también que el nuevo proceso esté marcado por una mayor participación en audiencias. Pero todavía restan dudas, de cara a la ciudadanía, sobre cuáles son las fechas, etapas e instancias de interacción directa con el proceso, como también extrañamos una difusión amplia de las medidas que se adoptarán hacer de la elaboración un proceso abierto, transparente e inclusivo.

Que las experiencias pasadas se conviertan efectivamente en lecciones aprendidas tanto de lo nacional como de lo regional y mundial, depende ahora de las autoridades. La sociedad civil está atenta.

Los Estados tienen la obligación de reforzar y no poner en peligro los derechos humanos

Como les contamos en abril del año pasado, se encuentra en marcha y avanzando a paso firme la elaboración de una “Convención internacional integral sobre la lucha contra la utilización de las tecnologías de la información y las comunicaciones con fines delictivos” por un Comité Especial (el “Comité Ad Hoc”) en el seno de Naciones Unidas. 

Derechos Digitales participó de la cuarta sesión de trabajo del Comité Ad Hoc que tuvo lugar en Viena entre el 9 y 20 de enero. En esta columna queremos compartir con ustedes nuestras principales preocupaciones, y por qué creemos que se trata de un tema al que todos deberíamos prestarle más atención desde América Latina.

El trabajo de la cuarta sesión se centró en la revisión de un documento de negociación consolidado (DNC). Previo a la sesión, y en conocimiento del documento preparamos en conjunto con otras 79 organizaciones de sociedad civil, una carta para comunicar al Comité y los Estados nuestras preocupaciones.

Desde el inicio del proceso no hemos estado convencidos de la necesidad de una Convención global sobre ciberdelincuencia. Sin embargo, a través de esta nueva carta, reiteramos la necesidad de un enfoque basado en los derechos humanos para su redacción.

Nuestras preocupaciones se centran en la necesidad de garantizar que los derechos fundamentales tengan prioridad en la forma en la cual se definen los delitos cibernéticos, la forma de producir pruebas respecto de ellos, y al establecer mecanismos de cooperación internacional o de asistencia técnica. 

Lamentablemente, el texto examinado en esta cuarta sesión todavía resulta demasiado amplio en su alcance y no se limita solamente a los delitos cibernéticos en los que la tecnología es parte esencial del delito.

El texto se  expande de forma ambigua hacia otros delitos -muchas veces ya regulados- cuando pueden ser facilitados o cometidos a través del uso de tecnologías de la información. Lo anterior es incompatible con obligaciones internacionales de derechos humanos, y amenaza con criminalizar las actividades legítimas con propósitos de interés público como el trabajo de periodistas e investigadores de seguridad. 

Estuvo en el centro de las discusiones la cuestión de reducir el ámbito de alcance de los delitos contemplados en la Convención a aquellos esencialmente vinculados con el uso de la tecnología, y no expandirlo a los que son meramente facilitados por ella. 

Muchos estados manifestaron su preocupación por la excesiva expansión del listado de delitos considerados, sin embargo al término de las negociaciones la criminalización expansiva de delitos de expresión sigue estando presente en el texto.

También hay en el texto limitadas salvaguardias respecto de los ciberdelitos definidos que pueden impactar negativamente en las actividades legítimas de periodistas, informantes, defensores de derechos humanos, investigadores de seguridad y de ciencias sociales, niños y adolescentes, mujeres, diversidades sexuales, grupos vulnerables, opositores políticos, víctimas de delitos, entre otros. 

Qué nos preocupa, por qué y por qué te debe importar

Organizaciones de la sociedad civil, empresas y organismos internacionales como la Oficina del Alto Comisionado en Derechos Humanos presentaron diversas preocupaciones sobre los temas discutidos en la sesión. Sin intentar ser exhaustivos en la lista, queremos llamar la atención sobre algunos puntos que nos parecen cruciales,  en los que se requiere que el texto de la futura Convención continúe refinándose de cara a la presentación del borrador cero.

Particularmente nos preocupan áreas en las que resulta crucial la atención de los representantes de gobiernos de nuestra región para garantizar la adecuada protección de derechos fundamentales en la persecución del ciberdelito, con miras a la realidad normativa e institucional de América Latina.

También nos ocupan cuestiones que creemos que merecen atención general, por el impacto que pueden tener en la habilidad de ejercer la libertad de expresión, el acceso a la información y resguardar la privacidad. 

Riesgos de criminalización de la labor de investigadores de seguridad y ciencias sociales, periodistas y defensores de derechos humanos

El texto necesita incorporar en los delitos esencialmente vinculados con el uso de la tecnología la referencia a que la acción sancionada debe sobrepasar barreras técnicas. Solo así podrá evitar la ambigüedad de que la violación de términos y condiciones de servicio o políticas de seguridad establecidas por empresas privadas puedan permitir criminalizar la investigación de interés público en el funcionamiento de sistemas informáticos.

Delitos de expresión propuestos son una herramienta para la censura y la represión

Algunos delitos propuestos, como los delitos relacionados con el extremismo o con el terrorismo, son incompatibles con los estándares internacionales de libertad de expresión y pueden ser utilizados por los estados con fines represivos y de control social. Adicionalmente, no existen definiciones uniformes de estos conceptos en el derecho internacional, y muchos estados se basan en esta ambigüedad para justificar abusos contra los derechos humanos.

Respeto por la evolución progresiva de niños y adolescentes

Los artículos referidos a la criminalización de los usos de material de abuso sexual a menores han sido en general acogidos como necesarios por los Estados parte de la negociación. Sin embargo, muchos han afirmado la necesidad de asegurar la consistencia con otros instrumentos en que la materia se regula y ya han sido adoptados, cuestión que aún no se ve bien reflejada en en el texto.

Resulta preocupante que las redacciones discutidas no reflejen aún la necesidad de que, tal como lo afirmó UNICEF en sus aportes durante la tercera consulta intersesional, se considere la evolución de los adolescentes, evitando criminalizarlos por actividad sexual consentida y sin explotación, siempre que no haya elementos de coerción, abuso de confianza o dependencia entre los adolescentes. No se debe responsabilizar penalmente a niños por la generación, posesión o intercambio voluntario y consensuado de contenido sexual de sí mismo u otros, únicamente para su uso privado.

Hay también algunas provisiones que extienden la criminalización a dibujos u otras representaciones visuales o auditivas creíbles de niños que amenazan considerablemente la libertad de expresión y las expresiones artísticas. 

Limitación de la distribución de imágenes sexuales no consentidas a expensas de la autonomía de las víctimas

En el caso de la criminalización de la distribución de imágenes íntimas no consentidas y otras conductas relativas a adultos que involucran el uso de imágenes de contenido sexual con fines de acoso, intimidación o extorsión, resulta preocupante la excesiva vaguedad de la forma en la cual se define el elemento de falta consentimiento respecto de tales materiales, lo que arriesga a una sobrecriminalización.

También preocupa  la ausencia de excepciones a la tenencia, uso o distribución de imágenes que pueden tener un interés público, como la cobertura periodística, la atención y acompañamiento de víctimas, o la misma investigación de las conductas. a criminalización de este tipo de conductas no parece contar con una visión centrada en la víctima.uchas veces lo  primoridal es evitar la revictimización a través de procesos criminales, y manifestar preferencia por otro tipo de mecanismos que puedan ser más eficaces en limitar la distribución del material respectivo considerado lesivo.

Salvaguardas de derechos humanos excesivamente débiles

Desde la sociedad civil y de muchos estados comprometidos con los derechos fundamentales se celebró la incorporación de dos artículos -uno en las provisiones generales y otro en las procedimentales- en los que se aborda la protección de los derechos humanos y el respeto por las consideraciones de género y las condiciones de grupos vulnerables.  Sin embargo, esas protecciones se diluyen en las demás disposiciones de la Convención.

Es necesario que el capítulo de medidas procesales exija autorización judicial previa para los poderes intrusivos que se consagran, así como para garantizar explícitamente el derecho a un recurso efectivo. Resulta esencial retener la referencia a los principios de legalidad, necesidad y proporcionalidad, y al reconocimiento de la privacidad como derecho humano. 

Ambigüedades que favorecen el hacking estatal, los intentos de retención masiva de datos y el debilitamiento del uso de tecnologías de privacidad

Las provisiones procesales están redactadas de manera poco precisa.  De este modo, pueden ser usadas como una excusa para justificar la vigilancia masiva de las comunicaciones y dan la posibilidad a los gobiernos de desarrollar acciones ofensivas que debiliten la seguridad de los sistemas a través de puertas traseras en tecnologías de privacidad -como el cifrado- u operaciones de hacking que se beneficien de la explotación de vulnerabilidades, forzando a los proveedores de servicios de internet a transformarse en colaboradores de estas prácticas, que pueden ser tremendamente dañinas para la seguridad integral de los sistemas.

¡Ojo acá, Latinoamérica!

Esta Convención tiene el potencial de impactar profundamente en millones de personas en todo el mundo, y es por esto que debemos dejar muy claro que la lucha global contra el ciberdelito no debe socavar el respeto por los derechos humanos.

En abril el Comité Ad Hoc volverá a reunirse para continuar la revisión del texto y esperamos muchos más ojos atentos a la posición de los gobiernos de América Latina en estas cuestiones escenciales para el ejercicio de nuestros derechos fundamentales.

UNESCO: Un proceso opaco y recomendaciones problemáticas para la regulación de las plataformas digitales

Texto disponível em português.

Text available in English.

A fines de 2022, y de forma completamente sorpresiva, UNESCO inició un proceso de consulta para la generación de una guía para la regulación de las plataformas digitales.En noviembre de ese año, Derechos Digitales fue una de las organizaciones latinoamericanas que tuvo la oportunidad de participar de una consulta sobre el documento inicial, que contenía distintos aspectos problemáticas y al que hicimos varias puntualizaciones. Sin embargo, justo antes de las festividades de fin de año UNESCO inicio un proceso de consulta pública sobre una segunda versión del documento, que solo está disponible en inglés y francés.

La fecha límite para la realización de comentarios es el 20 de enero. UNESCO ha convocado una conferencia global, que tendrá lugar del 21 al 23 de febrero en su sede en París, y se ha anunciado que antes del evento se hará disponible una nueva versión del documento.

Lo primero que llama la atención es la premura y opacidad con la que se ha actuado y que no se condice con la manera en que se han desarrollado otros procesos de producción de lineamientos en materias relativas a internet. Por ejemplo, el proceso de construcción de los Indicadores de Universalidad de Internet (Principios ROAM) estuvo acompañado de un amplio proceso de participación abierta de múltiples partes interesadas. Por su parte, la conceptualización del documento “Por un internet confiable – Regular las Plataformas Digitales de Información como Bien Común” fue acompañada por un grupo de expertos sobre los que existe poca o ninguna información disponible.

Consideramos que el actual proceso presenta fallas desde su inicio, las que dificultan la participación efectiva de la sociedad civil organizada. Consideramos además que la producción de un documento que siga por la senda ya delineada pone en riesgo el ejercicio de derechos humanos, especialmente en los países de la “mayoría global”, que son los más ávidos por contar con guías de esta naturaleza, provenientes de organismos internacionales para la toma de decisión sobre sus regulaciones internas.

¿Qué nos preocupa?

Además de la escasa apertura y transparencia de proceso, en los comentarios realizados al documento compartido durante la consulta regional, hicimos varias críticas de fondo.

En primer lugar, existe una falta de definición respecto de los objetivos del documento. En su versión pública, el borrador indica que su propósito sería la «orientación de alto nivel para los Estados miembros y otras partes interesadas relevantes que están considerando cómo regular el contenido en línea». Sin embargo, a través de una lectura cuidadosa del documento, encontramos que todavía hay una oscilación entre establecer estándares y proporcionar guías, por lo que el objetivo continúa
siendo dudoso.

Una deficiencia fundamental de la propuesta tiene que ver con la conceptualización de lo que se propone. Hay problemas de falta de definición de conceptos clave. Por ejemplo, no hay claridad respecto a qué se entiende por “información como bien público”. Al mismo tiempo, es difícil encontrar conexión con experiencias previas de la propia UNESCO, por lo que no se ve claramente cómo el documento sirve para confirmar este concepto. Nos preocupa de sobremanera que este concepto aluda a una visión aséptica del espacio informacional, que es incompatible con el pluralismo y diversidad, que son parte esencial de la libertad de expresión.

Por otra parte, no se define específicamente cuál sería el contenido potencialmente dañino para la democracia y los derechos humanos que la propuesta busca combatir, a pesar de reconocer la falta de consenso global sobre la definición de lo que constituye contenido potencialmente dañino.

Tal como se presenta, el documento promueve la censura previa por parte de las plataformas y es incompatible con el artículo 13 de la Convención Americana sobre Derechos Humanos. Definir los conceptos es muy importante en la tarea de regular las plataformas. Sin embargo el más reciente borrador indica que esta conceptualización aún se está elaborando y se agregará en la próxima versión.

También se pierde la oportunidad de abordar problemas más sistémicos relacionados con el modelo de negocios basado en la explotación de datos personales de las grandes plataformas, sin atacar el problema de fondo, estrategia regulatoria que Shoshana Zuboff ha calificado como insuficiente pues «los daños sociales se aíslan y se tratan como crisis sin sentido«. 

Las recomendaciones deben apuntar a las causas que producen determinados efectos sobre la moderación de contenidos, algo que no hace actualmente la propuesta aduciendo la complejidad de la coordinación con otros campos regulatorios.

Volver a comenzar, con un proceso confiable

Organizaciones de la sociedad civil, como Article 19, y redes de múltiples partes interesadas, como la Global Network Initiative (GNI) —de la que Derechos Digitales es miembro— han publicado posiciones que critican tanto el proceso como el contenido de la propuesta de la UNESCO. Consideramos que no es posible aprobar ningún documento o declaración en la conferencia que comienza en unos días en París, debido a este proceso turbulento y a la falta de definición de lo que la UNESCO y sus países miembros quieren hacer con este proceso.

Desde Derechos Digitales recomendamos no apresurar el proceso, pues se necesita realizar una consulta significativa y con múltiples partes interesadas.

En lo sustancial, nuestra recomendación es que la propuesta se centre en donde su contribución podría ser más útil, conforme a estándares internacionales de derechos humanos y a las guías de implementación provistas por los Principios Rectores de las Naciones Unidas sobre Derechos Humanos y Empresas. De este modo, debería concentrarse en aspectos tales como obligaciones de transparencia para las plataformas; procesos de reclamo expeditos y regidos por el principio de debido proceso en relación a decisiones de moderación de contenido; debida diligencia en la evaluación y mitigación de riesgos de las plataformas; mecanismos de reclamación, revisión y reparación en caso de decisiones erróneas, como se indica, por ejemplo, en los reportes de Al Sur sobre responsabilidad de intermediarios y moderación de contenidos desde una perspectiva latinoamericana.

Para lograr construir una internet confiable, desde hace años sabemos que los procesos de discusión, regulación y normalización también deben ser confiables, abiertos y transparentes, con un enfoque de múltiples partes interesadas y una participación significativa de la sociedad civil.

UNESCO tiene en sus manos todos los elementos para contribuir positivamente a este entorno, solo resta ponerlo en práctica de manera responsable, con un proceso transparente, con instancias adecuadas y el tiempo necesario de discusión.

Derechos digitales en América Latina: un problema en capas

A mediados de 2019, Derechos Digitales abrió las postulaciones al Fondo de Respuesta Rápida para la Protección de Derechos Digitales en América Latina (FRR), concebido como una manera de responder a las necesidad de las organizaciones y activistas trabajando en la región, ante situaciones urgentes que no pueden ser atendidas por el ciclo regular de financiamiento. El objetivo es contribuir a la construcción de un entorno digital libre y abierto, mediante una opción flexible, sin fechas restrictivas y minimizando los requisitos burocráticos. Al ser un fondo creado en Latinoamérica para Latinoamérica, se reducen también las brechas de idiomas que pueden tener algunos fondos.

Al poco tiempo de haber comenzado sus operaciones, el panorama mundial cambió radicalmente debido a la rápida expansión del COVID-19 y las distintas medidas adoptadas por los gobiernos para hacerle frente, muchas de ellas de carácter tecnológico, lo que conllevo la magnificación y multiplicación de situaciones de riesgo en distintas dimensiones de la cotidianidad. El riesgo de pasar por encima de los derechos humanos, usando como excusa la pandemia, fue una justificación común para la implementación de mecanismos y tecnologías sin la suficiente probidad. Las organizaciones y activistas de la región levantaron la voz, demostrando de paso los derechos digitales no son una preocupación de nichos, sino de todas las comunidades.

Esto hizo que el FRR tuviera una posición privilegiada para comprender el impacto de las amenazas a los derechos humanos en entornos digitales, no como algo teórico y reservado para discusiones especializadas, sino como una situación que pone en desventaja y vulnerabilidad a comunidades y grupos enteros. El contacto directo con organizaciones y activistas durante la pandemia ha hecho que el FRR funcione como línea de atención primaria, que puede dar pistas sobre potenciales problemas estructurales que involucran a los derechos digitales. Da la oportunidad de ver dónde están las dolencias y carencias más importantes, junto con potenciales áreas que serán relevantes en el futuro cercano.

Capas de problemas

Hay que tener en cuenta que, al hablar de América Latina, debemos dar cuenta de las profundas diferencias. En cuestiones de internet, un país puede no ser la unidad descriptiva más adecuada. Más bien, el mapa se configura por capas, es decir niveles o tipos de problemas, y diversas capas pueden estar presente en un mismo país y los mismos retos pueden presentarse en las mismas zonas de varios países.

Por ejemplo, un país puede estar enfrentando problemas con la violencia en línea o con la implementación de tecnología de reconocimiento facial y, al mismo tiempo, tener regiones que estén luchando por tener un acceso significativo a internet que habilite el ejercicios de derechos o comunidades que estén decidiendo cómo conectarse de forma independiente. Países que puedan ser considerados aventajados en la conectividad, pueden no garantizar la calidad de la conectividad, complejizando la aproximación al problema y señalando la necesidad de mejores indicadores de inserción.

Desde el FRR se observan al menos tres capas de trabajo con los derechos digitales:

  • La capa principal son los retos de conectividad y cobertura, así como capacitación, educación y entrenamiento en el uso de Internet que permita el uso y goce de derechos;
  • En la capa media se encuentran los usos y el monitoreo de las actividades de internet que afectan directamente a grupos y personas, como violencia en línea, ataques en línea, acoso a personas y organizaciones, entre otros;
  • Y la tercera capa es de políticas públicas, implementadas por gobiernos nacionales o locales para el uso de tecnología, con poca probidad en la garantía de derechos y sin participación de las comunidades en la toma de decisión.

La descripción de estas capas es un esfuerzo por sistematizar la diversidad que coexiste en Latinoamérica.

Ciertamente, hay prioridades diferentes por países en cuanto a los derechos digitales y su impacto social. Por ejemplo, las consecuencias del censo digital, la implementación de tecnologías de reconocimiento facial en espacios públicos, el impacto de la minería cripto o la violencia basada en género, que sirven para esbozar prioridades futuras en la región y quedan como antecedentes de lo que puede pasar en otros países.

En tanto, constatamos en terreno y con  la experiencia adquirida, más otros esfuerzos de monitoreo, que las zonas rurales de la región son las que más carecen de acceso y herramientas para la conectividad, aunque el porcentaje de cobertura haya crecido en los últimos años. Esto se traduce en una cadena causal visible: menos recursos, menos capacidad de acceso a internet de calidad, menos capacidad de participación y, en consecuencia, las comunidades se hacen más invisibles y con menos capacidad de ejercer sus derechos humanos de participación pública, libertad de asociación, acceso a la información pública y libertad de expresión.

Los indicadores de cobertura, aun cuando cuentan con información de avances, necesitan complementarse con el uso real que tienen las comunidades, cómo se integran estas al uso de internet, qué herramientas de seguridad tienen y, también, qué posibilidades de conectividad independiente podrían lograr. Información que sí manejan o tienen capacidad de recolectar las organizaciones y activistas que hacen trabajo comunitario.

Ya en el 2023, con una pandemia disminuida en fuerza, la prioridad de atender las situaciones urgentes e importantes de los derechos digitales consolida la misión del FRR.

¿Tienes un proyecto que te gustaría postular al FRR? Más información aquí.

Mastodon: rumbo al Fediverso

Las redes sociales como Facebook, Instagram, Twitter y TikTok tienen una estructura centralizada y se caracterizan por tener un dueño que decide las reglas de su funcionamiento. Estas reglas pueden definir cuál contenido es aceptable y cuál no, cuándo suspender una cuenta, qué datos recolectar y qué hacer con los mismos. Las personas que usan estas redes no tienen posibilidad de incidir sobre las reglas que las rigen. Eso es un problema porque parte importante de la interacción social sucede en estos espacios.

Twitter es una fuente relevante de información y un espacio para el debate político en muchos países. Elon Musk compró esta plataforma por más de cuarenta mil millones de dólares y comenzó a tomar decisiones polémicas. Una de las primeras fue despedir a cerca de la mitad de sus empleados. Intentó realizar cambios como el “check-azul” de verificación y suspendió la cuenta que reportaba la ubicación de su avión privado. Varios periodistas que reportaron sobre estos sucesos terminaron con sus cuentas suspendidas.

Estos sucesos provocaron malestar en muchas personas, que buscaron alternativas. El nombre Mastodon comenzó a hacerse cada vez más conocido. Se trata de una plataforma de microblog, similar a Twitter, que permite compartir contenidos cortos y suscribirse a las publicaciones de las demás personas. Si bien son sistemas parecidos, existen al menos tres características que hacen Mastodon diferente de Twitter: es software libre, es un sistema federado y además forma parte de algo más grande que se conoce como el “Fediverso”.

Al igual que Twitter, Mastodon es un sistema cliente-servidor, donde existen una o varias máquinas, conocidas como servidores, a las que nos conectamos a través de aplicaciones instaladas en nuestros dispositivos, conocidos como clientes. Twitter trabaja con miles de servidores que hacen que la red funcione y la gente se conecta desde la página web o la aplicación de Twitter en dispositivos móviles. Todo el software que hace funcionar la red es propiedad de Twitter y no se puede saber cómo funciona, pues sus algoritmos son secretos.

Mastodon es software libre. Cualquier persona u organización que tenga el conocimiento y las capacidades puede montar su propia red de microblogging, del mismo modo en que cualquier persona que sepa cómo usarlo puede montar su propio sitio web gracias a WordPress. Que Mastodon sea software libre permite a personas y colectivos tener su espacio en Internet y, de esta manera, mayor autonomía: cada una podría implementar una instancia propia de Mastodon y formar una comunidad de personas donde compartir contenido con algún fin específico.

Que una comunidad o un colectivo tenga un espacio en internet para comunicarse es útil, pero la audiencia podría estar limitada, en especial si se compara con redes como Twitter. Es ahí donde la federación hace la diferencia. En su momento escribí un artículo sobre este tópico y las aplicaciones de mensajería. Básicamente, significa que una instancia de Mastodon puede interactuar con otras instancias de Mastodon.

En un ambiente federado no existe una empresa dueña de la red como sucede con las redes sociales centralizadas. El caso más conocido de servicios federados es el correo electrónico: se puede enviar un correo de Gmail a Hotmail o al servidor propio de una organización.

Los términos de uso y las reglas que rigen a una instancia de Mastodon dependen de las personas que gestionan la instancia. Si no estamos de acuerdo con esos términos podemos buscar otra instancia o gestionar la implementación de una instancia propia y definir nuestros propios términos.

Mastodon no es la única red social basada en software libre que es descentralizada. En realidad, es parte de algo más grande conocido como el Fediverso. Mastodon, al igual que GNU Social o Pleroma, son implementaciones de microblog similares a Twitter; Pixelfed es una herramienta para publicar fotografías, similar a Instagram; PeerTube es una plataforma que permite compartir videos a la manera de Youtube. Todas estas redes interactúan entre si a través del protocolo ActivityPub, el mismo que define las reglas que permiten a las participantes del Fediverso interactuar. En el Fediverso es posible seguir a una cuenta de Pixelfed desde Mastodon y viceversa. Es como si desde Twitter se pudiese seguir una cuenta de Instagram o al revés.

El estándar de ActivityPub ha sido construido de forma colaborativa y forma parte de los estándares publicados por la W3C, organización responsable de mantener estándares como el HTML. En lugar de ser una empresa la que define el funcionamiento de un sistema, en el Fediverso trabajan varias organizaciones y personas a nivel mundial y llegan a acuerdos sobre cómo se debería funcionar una red de redes sociales.

Soy usuario de Mastodon desde el año 2017, y entre 2009 y 2013 fui muy activo en una plataforma similar conocida como Identica. Creo que las redes sociales federadas son el camino correcto hacia una internet más libre, diversa y donde la ciudadanía puede empoderarse de la tecnología. La actividad de Elon Musk como dueño de Twitter a finales de 2022 muestran los riesgos de depender de plataformas de un solo dueño.

En este momento existe una oleada de gente nueva a Mastodon y hay mucho más contenido que el existente previo a que Musk comprara Twitter. Espero que esto sirva para que más gente se dé cuenta de que existen otras formas en la que internet puede funcionar y podamos apropiarnos de la tecnología. Sin embargo, dudo mucho que este sea el fin de Twitter y el despegue del Fediverso. Probablemente en un futuro, a través de legislación, Twitter y las otras redes sociales se vean obligadas a federar con ActivityPub u otro estándar.

Las redes federadas tienen cierta complejidad, que en un principio puede hacer la transición menos sencilla de lo que la mayoría de la gente quisiera. Sin embargo, debemos valorar que todavía podemos tener cierta autonomía. Twitter sigue siendo más conveniente para la mayoría de las personas, pero hay que ser conscientes de que no somos su prioridad.

La libertad no es gratuita y la conveniencia es una droga muy adictiva. Es importante dudar de los sistemas que utilizamos, saber quién está detrás de los mismos, cuestionarnos si nos dan libertad o nos capturan para hacernos dependientes. De nosotres depende decidir si queremos tener control sobre la tecnología o si queremos cederlo a un puñado de millonarios.

Sigue a Derechos Digitales en Mastodon: https://mastodon.social/@derechosdigital

Una última mirada a los derechos digitales en 2022

Cuando comenzamos 2022, una esperanza comenzaba a crecer en buena parte del mundo: las vacunas para reducir los contagios y los síntomas de la COVID-19 surtieron efecto y llegaron a más grupos de la población. Lentamente, aspectos de la vida prepandémica volvían a materializarse y, después de dos años dramáticos, el mundo parecía realinearse.

Pero el año inició con tumulto mundial: una invasión en Europa oriental creaba una crisis humanitaria de incalculable costo humano, que a su vez desviaba la atención de otras crisis en África oriental, en Asia meridional, en América Latina. Nuevas desigualdades, internas y externas, se hicieron patentes, ahora bajo la presión del riesgo vital de una pandemia que no termina.

Como en buena parte del mundo, América Latina ha visto el agravamiento de las distintas crisis superpuestas, agudizadas por un horizonte de crisis económica que está en pleno desarrollo. Aun así, grandes aires de esperanza se sintieron en la región, en la resistencia al abuso y la injusticia, y en la participación política en varias elecciones.

En América Latina, el 2022 partió con revelaciones de hackeo a periodistas en El Salvador, en una réplica de lo que fue descubierto años antes en México, revelando que el espionaje ilegal estatal con herramientas importadas continúa en la región.

A la vez, la vigilancia masiva todavía es una disputa inconclusa. En una insigne victoria para el activismo local, en México el invasivo Padrón Nacional de Usuarios de Telefonía Móvil (PANAUT), aprobado a fines de 2021, fue declarado inconstitucional, impidiendo la vinculación entre la identidad de un usuario de teléfono y su información biométrica, entre otros datos, en una decisión anunciada en abril. Poco antes, se había detenido en el metro de San Pablo, Brasil, el uso de un sistema de reconocimiento facial automatizado, aunque luego fue autorizado por la justicia. Esa batalla continúa, ahora contra una iniciativa por extender el reconocimiento facial a toda la urbe. En la Ciudad de Buenos Aires, en tanto, la justicia declaraba la inconstitucionalidad de un sistema de reconocimiento facial.

En Colombia, una preocupación constante por la incorporación de mecanismos legales para fórmulas riesgosas de identidad digital, como también un debate sobre neutralidad de la red y zero-rating se tomaron parte de la agenda después de la fuerte escalada de violencia de las protestas de 2021. El uso de máquinas digitales para el proceso electoral fue, como siempre, objeto de escrutinio.

Al igual que en Colombia, y ante los ojos del mundo, una nueva elección presidencial en Brasil ofrecía esperanza, pero también mostraba algunos de los peores temores de la región: torpes intentos de control de la desinformación amenazaban con alterar el funcionamiento de la mensajería personal, mientras varias acusaciones de desinformación enfrentaban al gobierno y a las iniciativas de empresas privadas por controlar el discurso en línea. Que todo eso ocurriera mientras aumentaba el gasto en tecnología de hackeo y vigilancia hacía temer por el futuro.

Por cierto, las protestas sociales de los últimos años no cesaron. En Ecuador, fuimos parte del reclamo de la sociedad civil en rechazo a la represión y la vigilancia en el marco de protestas sociales a mediados de año. Presentamos a la ONU múltiples antecedentes sobre situaciones de afectación de derechos, especialmente vinculados a la expresión y la protesta, en un informe dentro del contexto del Examen Periódico Universal. En paralelo, continúa el cuestionado juicio contra Ola Bini a pesar de las reportadas infracciones al debido proceso. También vimos que persiste la represión de la expresión y la protesta en Nicaragua, incluido el allanamiento y cierre de organizaciones y de medios de comunicación, alarmando a expertos internacionales que exigen visitar el país. Y, en Venezuela, informes tanto de la industria de las telecomunicaciones como de la sociedad civil, mostraron el nivel de vigilancia y represión en ese país.

Al mismo tiempo, Brasil progresaba en un área sensible para toda la región: la protección de datos personales. Sin ser un debate ajeno a la contingencia, Brasil avanzó en el otorgamiento de autarquía de carácter especial a su nueva autoridad de control de datos personales. Por su parte, Ecuador –que promulgó su ley en 2021– inició este año el proceso de reglamentación de la ley. En Chile, paso a paso se Avanza en un proyecto de reemplazo a una ley que hoy es ineficaz ante casos públicos de vulneración de los derechos sobre los datos.

También hubo otros relevantes debates legislativos en la región, para los que este recuento quizás no basta. Fuimos testigos de la discusión por una nueva ley de inteligencia artificial en Brasil, como también en iniciativas de leyes sobre ciberseguridad, sobre desinformación y sobre ciberdelitos en varios países de la región. Nuestro trabajo de monitoreo continúa con intensidad para identificar las oportunidades, los riesgos a las libertades y derechos que puedan acompañar a esas iniciativas. Nos involucramos en la discusión por una nueva constitución en Chile, con propuestas surgidas desde distintos lugares y grupos del país.

No obstante también aprovechamos instancias globales que afectan a América Latina. Como ejemplos, contribuimos a informes de oficinas de expertos de Naciones Unidas sobre apagones de internet y sobre inteligencia artificial y privacidad. Participamos en procesos como la reunión de plenipotenciarios de la UIT, en la peligrosa discusión por un nuevo tratado sobre ciberdelitos, en el debate global sobre normas para el comportamiento de los Estados en el ciberespacio, y mucho más.

Mirar hacia el futuro

Todo lo anterior es apenas una muestra de lo intenso que fue el trabajo del año desde nuestro activismo. No obstante, también hubo muchísima colaboración, la misma que creemos que es parte esencial de la proyección hacia el futuro de la labor de Derechos Digitales.

Como organización, el año también fue de oportunidades de cooperación cruciales para la región. Volvimos a albergar un evento virtual de difusión, intercambios y aprendizajes. Participamos muy activamente en la organización del Foro de Gobernanza de Internet de América Latina y el Caribe, el LAC IGF. Nos reunimos con nuestras aliadas de la coalición Al Sur para comenzar a pensar en el futuro, en un primer encuentro presencial después de años. Mantuvimos numerosos talleres y reuniones con organizaciones e instituciones a nivel regional y global. Y nos sumamos como socios organizadores, con esperanza, al Movimiento por una Mejor Internet.

Logramos también apoyar a 21 iniciativas de acción de 12 países de la región a través de nuestro Fondo de Respuesta Rápida, no solo facilitando la respuesta ágil a situaciones de emergencia, sino también favoreciendo el aprendizaje en múltiples contextos de activismo. Es a través de procesos como este que la colaboración de 2021 con el ODIA argentino ayudó en la declaración de inconstitucionalidad del sistema de reconocimiento facial en Buenos Aires. Mecanismos de apoyo como este Fondo demuestran que existen nuevas posibilidades para la articulación de organizaciones en la región.

Lo más importante: en una época global de grandes cambios, consolidamos un equipo sólido, de muy diversos orígenes y perfiles, fortaleciendo nuestra capacidad de trabajar en distintos ámbitos. Sabemos que en 2023 habrá más cambios, pero también que con ellos vendrán nuevas oportunidades de colaboración interna y externa.

Aunque ha sido un año desafiante, sentimos orgullo por el camino recorrido y mucha esperanza en el que queda por recorrer. La mirada introspectiva ha sido fuente de gran aprendizaje, como también de importante reflexión sobre lo que necesitamos seguir haciendo. Porque creemos en nuestro derecho y en nuestra capacidad de crear un futuro más justo para América Latina, reconocemos lo que significa el fin de 2022 y damos la bienvenida a 2023.

Más allá de las elecciones en la UIT (o de la agencia de la que nunca has oído hablar)

El creciente número de incidentes y casos de ciberataques a empresas y gobiernos ha provocado numerosas discusiones sobre la necesidad de políticas públicas en ciberseguridad con enfoque de derechos humanos. Los derechos de los ciudadanos son doblemente vulnerados. Primero, porque sufren en carne propia los efectos perversos de estos ataques, y segundo, por la falta de inversión y coordinación por parte de los estados y las empresas. Por otra parte, hemos visto discusiones crecientes, a menudo acaloradas, sobre las regulaciones de inteligencia artificial.

El ámbito de la Unión Internacional de Telecomunicaciones (UIT) no fue la excepción. Como decíamos en un texto anterior, este año tuvieron lugar los tres mayores eventos de la UIT, la Asamblea Mundial de Normalización de las Telecomunicaciones (AMNT), en marzo en Ginebra, la Conferencia Mundial de Desarrollo de las Telecomunicaciones (CMDT), sin precedentes en el continente africano, acogida por Ruanda en junio, y la reunión de Plenipotenciarios, que tuvo lugar en Rumania en octubre. Desde Derechos Digitales participamos personalmente en las reuniones de Ruanda y Rumania.

Marcada por las elecciones de varios puestos de liderazgo, y cuyo máximo cargo como secretaria general fue ganado por Doreen Bogdan-Martin en una disputa que tenía connotaciones geopolíticas y puntos de vista diferentes entre la candidata estadounidense y su competidor ruso, la reunión de Plenipotenciarios discutió muchos temas que marcarán las actividades de la agencia en los próximos años

En este texto evaluaremos algunos avances en el tema de ciberseguridad, principalmente desde el punto de vista de cuál ha sido el rol de la UIT y por qué su desempeño ha sido importante para los países del sur global. También analizaremos cómo una nueva resolución sobre IA en el ámbito de la UIT puede ser vista como una continuación de los proyectos de “IA para el bien” que la agencia ya venía desarrollando.

Las acciones de la UIT en el tema de la ciberseguridad

La UIT ha sido llamada la agencia de la ONU más importante de la que nunca has oído hablar. Es el organismo especializado de las Naciones Unidas para las tecnologías de la información y la comunicación (TIC), formada en 1865. Cada cuatro años, los Estados miembros se reúnen en la reunión de plenipotenciarios para discutir y planificar el curso de los próximos años. El tema de la ciberseguridad se ha discutido cada vez más en esta reunión y principalmente dentro del ámbito de trabajo de los sectores de normalización (UIT-T) y desarrollo (UIT-D).

Son múltiples los roles desempeñados por la UIT en el campo de la ciberseguridad, que resultan particularmente importantes para los países del sur global. Junto con otros actores como el Banco Mundial, la UIT publicó la “Guía para el desarrollo de una Estrategia Nacional de Ciberseguridad”, que actualmente se encuentra en su segunda edición. Además de abordar cuestiones básicas del proceso sobre cómo crear esta política pública, la Guía incluye buenas prácticas sobre el contenido de la propia estrategia. Esto es relevante para países que, como Chile y México, actualmente están discutiendo la evaluación y renovación de una estrategia nacional e incluso la creación de leyes de ciberseguridad.

Además, el Índice Global de Ciberseguridad ha servido durante años como indicador y referencia para la evaluación de los Estados en temas clave cuando se habla de ciberseguridad. La  Agenda Global de Ciberseguridad es otra herramienta lanzada en 2007, que ha influido en la creación de políticas públicas a nivel nacional, especialmente en los países del sur global. Se trata de un instrumento internacional de cooperación lanzado en 2015, que hasta el día de hoy genera controversia por tratarse de un instrumento internacional fuera del mandato de la agencia, como pudimos ver en las intensas discusiones de la reunión Plenipotenciaria este año. 

“IA para el bien”: consolidación del trabajo de IA

El trabajo de la UIT sobre inteligencia artificial (IA) no es nuevo. El programa “AI for Good” y junto con el Gobierno de Suiza y otras 40 agencias asociadas en el sistema de las Naciones Unidas, como la UNESCO, la UNCTAD, la FAO, por ejemplo, la UIT ha desarrollado proyectos para identificar aplicaciones prácticas de la IA, proporcionar soluciones a escalar para tener impactos globales y acelerar el uso de esta tecnología para cumplir con los Objetivos de Desarrollo Sostenible (ODS). 

Funciona  como una gran plataforma de IA en el sistema de la ONU, pero que vemos al margen de otras discusiones importantes sobre el uso de este tipo de tecnología contra los derechos humanos, como lo han destacado en varias ocasiones otros órganos de los sistemas de derechos humanos. La novedad este año fue la aprobación de una resolución específica sobre IA en el ámbito de la UIT ahora en Plenipotenciario, que consolida la actuación del organismo en esta materia. El riesgo en este caso es que la UIT ignore la existencia de violaciones de derechos o vaya más allá de su mandato.

La acción interinstitucional de esta agencia en temas de IA debe entenderse en el contexto de otros espacios multilaterales donde se discutan los usos de la IA contra los derechos humanos. Este es un factor de suma importancia para que los ejemplos de “AI for good” no oculten posibles sesgos discriminatorios y otros riesgos señalados en el uso de esta tecnología.

La perspectiva de derechos humanos

Debemos prestar atención a lo que se está discutiendo en la UIT. Primero, en el cumplimiento de la actuación de la agencia dentro de su competencia, por ejemplo, siguiendo su rol como mediadora/facilitadora de la línea de acción C5 de la Cumbre Mundial sobre la Sociedad de la Información (CMSI), en la creación de confianza y seguridad de las TIC. En segundo lugar, evitar que en este espacio se desarrollen temas ajenos al ámbito de la agencia en lugar de otros espacios idóneos, más participativos y multisectoriales.

Por un lado, vemos a la UIT jugando un papel importante en ciberseguridad para el sector público y privado, principalmente relacionado con actividades de investigación, normalización, difusión de buenas prácticas y formación. 

Este rol resulta muy importante para los países del sur global, dado que es un referente. Es necesario entender que la apertura de la agencia es fundamental para fomentar la discusión de aspectos relevantes en la construcción de políticas públicas de ciberseguridad, que está relacionada con el cumplimiento de los derechos humanos.

Posibles caminos a seguir

Es necesaria una mayor participación de la sociedad civil en las decisiones y diseños que se hacen en la UIT. Quizás los resultados de las elecciones de la agencia apunten a un camino más abierto para la participación de las múltiples partes interesadas. Mientras tanto, las organizaciones pueden seguir uno de los cuatro caminos para participar en este espacio, descritos por la organización Artículo 19: afiliación a la UIT, participación en una delegación nacional, participación en consultas públicas o  estar al tanto de los temas que la UIT pretende incluir en su ámbito de trabajo. 

Tenemos por delante cuatro años de discusiones importantísimas en la UIT y necesitamos una mayor participación en temas de ciberseguridad e IA, ya sea discutiendo los temas de las comisiones de estudio de cada sector, contribuyendo en contribuciones locales o regionales a la agencia, demandando más espacio para la participación de la sociedad civil o participando en los proyectos desarrollados por la agencia.

Discursos y plataformas: un campo minado

Recientemente, el Consejo Nacional de Televisión (CNTV) de Chile dio a conocer un estudio titulado “Televisión y Derechos Humanos”, en el marco de las actividades de conmemoración del Día Internacional de los Derechos Humanos, celebrado el 10 de diciembre. La investigación comprende una consulta a quienes han realizado reportes ante esta institución, denunciando contenido inapropiado en televisión. La metodología incluyó preguntas sobre el tratamiento a grupos minoritarios, expresiones del negacionismo y discursos de odio.

Sin embargo, algunas de preguntas incluidas en la consulta no se circunscriben específicamente a la televisión. Por ejemplo, frente a la pregunta sobre en cuáles medios es más frecuente encontrar discursos de odio o negacionismo, las alternativas contemplan televisión, radio y redes sociales, con un 69,3% de la muestra (N = 2.004 personas) de preferencia por esta última opción. Hemos argumentado anteriormente que la idea de que las redes sociales constituyen medios contraviene el principio de no responsabilidad de los intermediarios de internet, con una serie de problemas asociados a la defensa de la libertad de expresión. Al margen de este aspecto, tampoco es posible desconocer que, a pesar de los litros de tinta y caracteres derramados en tono ominoso anunciando su fin inminente, las redes sociales gozan de buena salud y siguen marcando la pauta de la conversación cotidiana. Lo que sucede ahí sin duda que tiene efectos en cómo percibimos y juzgamos lo que nos rodea.

Un ejemplo de ello sucedió hace algunas semanas en Chile: los dichos emitidos por una animadora de televisión sobre tallas de prendas de vestir desataron una ola de críticas, algunas acusándola de proferir discursos de odio, y el asunto culminó con ella pidiendo disculpas públicas. Señalamos en la prensa que la libertad de expresión “protege los discursos desagradables”, siendo el límite la incitación a la violencia y las amenazas, mientras sean creíbles y revistan gravedad. Es decir, este derecho garantiza tanto los dichos en cuestión como la reacción desatada en redes.

El mismo estudio mencionado al inicio indica que un 53% del universo muestral (2.037 personas) considera imprescindible que los discursos de odio estén sujetos a regulación, mientras que un 23,5% cree que esta medida es necesaria, pero equilibrándola con el resguardo a la libertad de expresión. Si aceptamos que las redes sociales no equivalen a medios de comunicación, la pregunta entonces es qué tipo de regulación es necesaria.  

Nos enfrentamos, entonces, a un doble dilema: el límite de la libertad de expresión, por un lado, y el riesgo de que la sanción al discurso de odio devenga en obligaciones que puedan degenerar en censura, por otro. Encontrar el equilibrio perfecto entre ambas garantías reviste una especial dificultad, considerando el debate que se ha dado en torno a las directrices comunitarias de algunas plataformas, las condiciones laborales de quienes están a cargo de implementarlas, el carácter de interés público que puede revestir la discusión en plataformas que están administradas por empresas privadas, y la falta de transparencia respecto del modo en que se toman las decisiones de moderación de contenido. En última instancia, la pregunta es respecto a quién decide y bajo cuáles criterios.

En condiciones ideales, y mientras no impliquen la comisión de un delito, los discursos en línea deberían ser tratados al amparo de la igualdad en la participación de la palabra. Alguna vez fue así: los foros solían estructurarse de modo que la moderación del contenido inapropiado rotaba entre sus participantes. No obstante, pretender volver a ese estado prístino de internet ciertamente no es posible y los desafíos del presente requieren de una imaginación colectiva para resolver este nudo discursivo. Ni cegarnos ante el contenido desagradable evitará su crecimiento, ni combatir el fuego con fuego no hará que este amaine. 

En los últimos años, no obstante, solo se acrecientan las dudas y los desacuerdos. La Comisión Interamericana de los Derechos Humanos y el Centro de Estudios en Libertad de Expresión y Acceso a la Información advirtieron este problema en 2019, apuntando a que la concentración de poder en el Big Tech, el crecimiento tecnológico sin precedentes y la automatización de procesos han contribuido a este confuso panorama; y, lamentablemente, las herramientas legales, aunque existentes, no han resultado suficientes. La única herramienta que contempla la restricción a la libertad de expresión, considerando en primera instancia la importancia que este derecho tiene para la vida democrática, es el test tripartito.

Sin duda es urgente volver a traer este tema a la mesa y discutirlo con altura de miras y teniendo siempre presente que, en los entornos digitales, sus reglas y tiempos tienen características propias que requieren una mayor prolijidad en el diseño de una arquitectura legal y técnica que asegure que tengamos derecho a expresarnos. Uno de los avances interesantes en esta materia es el trabajo desarrollado por Observacom en el reporte “Transparencia de la moderación privada de contenidos – una mirada de las propuestas de sociedad civil y legisladores de América Latina”, donde se repasan propuestas y directrices necesarias a considerar en esta materia.

No es posible regular los discursos de odio solo con buena voluntad y una mirada parcial de las cosas. Tampoco es admisible un concepto absolutista de la libertad de expresión sin barrera alguna, y se vuelva un instrumento que vulnere los derechos humanos.

Construyendo caminos hacia un futuro digital común: notas desde el IGF en Adís Abeba

El Foro para la Gobernanza de Internet (IGF), un evento anual que desde 2006 supone una instancia de discusión abierta, global y multisectorial sobre internet, con el patrocinio de la Organización de las Naciones Unidas, tuvo recientemente su decimoséptimo encuentro anual en Adís Abeba, Etiopía

El evento estuvo organizado alrededor de la consigna “Internet resiliente para un futuro sostenible compartido y común”. El programa,  construido a partir de propuestas recibidas de la comunidad de gobernanza de internet, tenía como temas  “Conectando a todas las personas y protegiendo los derechos humanos”; “Evitando la fragmentación de internet”; “Gobernando datos y protegiendo la privacidad”; “Facilitando la seguridad y rendición de cuentas”, y “lidiando con las nuevas tecnologías, incluso IA”.

Derechos Digitales estuvo nuevamente allí. Participamos de numerosos paneles y reuniones sobre inteligencia artificial, inclusión y regulación de plataformas (entre muchos otros temas), llevando preocupaciones y propuestas desde América Latina. Además, intervinimos en la sesión inaugural, buscando resaltar las desigualdades que permean el ecosistema de gobernanza de internet y demandar acciones proactivas que garanticen la participación equitativa de todas las partes interesadas.

El evento fue una oportunidad de reencuentro, articulación y profunda reflexión. Además, puso acento en la necesidad de coordinar debates globales y equilibrar voces. Es la primera ocasión en que el IGF vuelve a realizarse en un país del Sur Global, desde su décima edición en 2016. Y nuevamente se volvió destacar la necesidad de que estos países y sus comunidades tengan una participación activa en la definición de prioridades y la toma de decisiones.

Conectividad desde el Sur: inclusión digital entre contradicciones

La realización del IGF en Etiopía generó cuestionamientos en la sociedad civil, dentro y fuera del país. Mientras algunas personas y organizaciones optaron por no participar, otras, como la Asociación para el Progreso de las Comunicaciones (APC, de la cual Derechos Digitales es miembro), defendieron la participación en el evento para conectarse con organizaciones locales, visibilizar su trabajo y denunciar abusos a los derechos humanos ocurridos en el país. Eso fue reconocido por representantes de distintos sectores y países en la sesión de cierre, durante la cual una representante de la coalición de sociedad civil brasileña por derechos digitales agradeció la recepción local: “la historia de este país es inspiradora y todas deberíamos dedicar algún tiempo a aprender más sobre su lucha por la libertad”.

El foco principal de las demandas fue restaurar la conexión a internet en regiones como Tigré, en el norte de Etiopía, afectada por un conflicto armado entre fuerzas separatistas y el gobierno central desde fines de 2020. Los cortes de internet en el país y sus impactos fueron objeto de discusión en diferentes sesiones, actividades paralelas e, incluso, en eventos previos a la realización del IGF, que tenía la conexión de todas las personas como parte de sus temas centrales. Según el Consejo de Derechos Humanos de las Naciones Unidas, “las interrupciones del acceso a Internet menoscaban directamente los esfuerzos para cerrar la brecha digital […] lo que amenaza el logro de los Objetivos de Desarrollo Sostenible. Estas interrupciones socavan la capacidad de las personas de participar en los debates y las decisiones que configuran su vida y contribuyen a crear sociedades seguras y prósperas”.

Resulta inoficioso e inconsistente boicotear a un país del mundo mayoritario por sus situaciones de crisis de derechos humanos, mientras aceptamos aquellas provocadas o apoyadas desde el norte global. Tener parte del mundo conectado y parte del mundo excluido no es un problema meramente técnico o económico, ni un problema exclusivo del sur, sino un problema político global. Un futuro digital justo, inclusivo y sostenible demanda no solo un pacto global, sino responsabilidades compartidas, incluso desde los países más conectados en promover mecanismos de apoyo y cooperación que faciliten entornos propicios para su construcción.

Hacia un Pacto Digital Mundial

Más allá de las contingencias, debemos también considerar al IGF dentro del contexto global más amplio. En septiembre de 2021, la oficina del Secretario General de las Naciones Unidas lanzó el informe “Nuestra Agenda Común”, proponiendo un Pacto Digital Mundial (o “Global Digital Compact”), cuyo objetivo es esbozar “principios compartidos para un futuro digital abierto, libre y seguro para todos”. La propuesta orientó buena parte de las discusiones en el IGF17, así como en  la reciente reunión de Latinoamérica y el Caribe del IGF.

Por cierto, se trata de un proceso amplio y extenso. Desde hace varios años, los miembros de la Organización de las Naciones Unidas han tomado más seriamente la gobernanza de internet, designando un Panel de Alto Nivel sobre la Cooperación Digital en 2018, cuyo reporte de 2019 fue usado como la base para la Hoja de ruta para la Cooperación Digital del Secretario General de la ONU en 2020. Se creó desde la cabeza de la ONU una Oficina del Enviado del Secretario General para la Tecnología (el “Tech Envoy”) y en 2022 se designó un Panel de Liderazgo del IGF.

Sin embargo, el Pacto Digital Mundial —que será objeto de ratificación por la ONU en la Cumbre del Futuro en septiembre de 2024— debería ser un producto de deliberaciones como las que tienen lugar en el IGF. Por esto, a medida que las decisiones sobre el futuro de internet ganan mayor importancia, la centralidad del IGF como plataforma de colaboración y coordinación efectiva de múltiples partes interesadas debería aumentar en lugar de disminuir.

Más allá de las buenas intenciones de la ONU y los loables fines de los informes de alto nivel, es necesario reconocer un contexto de creciente fragmentación y segmentación en las decisiones sobre gobernanza de internet, lo que genera nuevos desafíos para la participación, por ejemplo, de organizaciones de la sociedad civil en los distintos espacios de debate. Frente a ese escenario, el rol de organizaciones como Derechos Digitales es clave en reclamar espacios como el IGF desde el mundo mayoritario, como uno de los pocos espacios multisectoriales donde todavía es posible tener una voz para influir en el futuro digital.

El IGF sigue siendo una oportunidad valiosa de cooperación entre la comunidad internacional dedicada a la defensa de los derechos humanos en el entorno digital. Que esa interacción tenga impacto real depende tanto de la propia comunidad como de la membresía ONU que ha puesto la atención en ella. Sin fingir ignorancia  sobre las fuerzas que intentan dar forma al futuro digital, la democratización de los espacios de gobernanza depende también de nuestra activa participación en los mismos.