UNESCO: Un proceso opaco y recomendaciones problemáticas para la regulación de las plataformas digitales

Texto disponível em português.

Text available in English.

A fines de 2022, y de forma completamente sorpresiva, UNESCO inició un proceso de consulta para la generación de una guía para la regulación de las plataformas digitales.En noviembre de ese año, Derechos Digitales fue una de las organizaciones latinoamericanas que tuvo la oportunidad de participar de una consulta sobre el documento inicial, que contenía distintos aspectos problemáticas y al que hicimos varias puntualizaciones. Sin embargo, justo antes de las festividades de fin de año UNESCO inicio un proceso de consulta pública sobre una segunda versión del documento, que solo está disponible en inglés y francés.

La fecha límite para la realización de comentarios es el 20 de enero. UNESCO ha convocado una conferencia global, que tendrá lugar del 21 al 23 de febrero en su sede en París, y se ha anunciado que antes del evento se hará disponible una nueva versión del documento.

Lo primero que llama la atención es la premura y opacidad con la que se ha actuado y que no se condice con la manera en que se han desarrollado otros procesos de producción de lineamientos en materias relativas a internet. Por ejemplo, el proceso de construcción de los Indicadores de Universalidad de Internet (Principios ROAM) estuvo acompañado de un amplio proceso de participación abierta de múltiples partes interesadas. Por su parte, la conceptualización del documento “Por un internet confiable – Regular las Plataformas Digitales de Información como Bien Común” fue acompañada por un grupo de expertos sobre los que existe poca o ninguna información disponible.

Consideramos que el actual proceso presenta fallas desde su inicio, las que dificultan la participación efectiva de la sociedad civil organizada. Consideramos además que la producción de un documento que siga por la senda ya delineada pone en riesgo el ejercicio de derechos humanos, especialmente en los países de la “mayoría global”, que son los más ávidos por contar con guías de esta naturaleza, provenientes de organismos internacionales para la toma de decisión sobre sus regulaciones internas.

¿Qué nos preocupa?

Además de la escasa apertura y transparencia de proceso, en los comentarios realizados al documento compartido durante la consulta regional, hicimos varias críticas de fondo.

En primer lugar, existe una falta de definición respecto de los objetivos del documento. En su versión pública, el borrador indica que su propósito sería la «orientación de alto nivel para los Estados miembros y otras partes interesadas relevantes que están considerando cómo regular el contenido en línea». Sin embargo, a través de una lectura cuidadosa del documento, encontramos que todavía hay una oscilación entre establecer estándares y proporcionar guías, por lo que el objetivo continúa
siendo dudoso.

Una deficiencia fundamental de la propuesta tiene que ver con la conceptualización de lo que se propone. Hay problemas de falta de definición de conceptos clave. Por ejemplo, no hay claridad respecto a qué se entiende por “información como bien público”. Al mismo tiempo, es difícil encontrar conexión con experiencias previas de la propia UNESCO, por lo que no se ve claramente cómo el documento sirve para confirmar este concepto. Nos preocupa de sobremanera que este concepto aluda a una visión aséptica del espacio informacional, que es incompatible con el pluralismo y diversidad, que son parte esencial de la libertad de expresión.

Por otra parte, no se define específicamente cuál sería el contenido potencialmente dañino para la democracia y los derechos humanos que la propuesta busca combatir, a pesar de reconocer la falta de consenso global sobre la definición de lo que constituye contenido potencialmente dañino.

Tal como se presenta, el documento promueve la censura previa por parte de las plataformas y es incompatible con el artículo 13 de la Convención Americana sobre Derechos Humanos. Definir los conceptos es muy importante en la tarea de regular las plataformas. Sin embargo el más reciente borrador indica que esta conceptualización aún se está elaborando y se agregará en la próxima versión.

También se pierde la oportunidad de abordar problemas más sistémicos relacionados con el modelo de negocios basado en la explotación de datos personales de las grandes plataformas, sin atacar el problema de fondo, estrategia regulatoria que Shoshana Zuboff ha calificado como insuficiente pues «los daños sociales se aíslan y se tratan como crisis sin sentido«. 

Las recomendaciones deben apuntar a las causas que producen determinados efectos sobre la moderación de contenidos, algo que no hace actualmente la propuesta aduciendo la complejidad de la coordinación con otros campos regulatorios.

Volver a comenzar, con un proceso confiable

Organizaciones de la sociedad civil, como Article 19, y redes de múltiples partes interesadas, como la Global Network Initiative (GNI) —de la que Derechos Digitales es miembro— han publicado posiciones que critican tanto el proceso como el contenido de la propuesta de la UNESCO. Consideramos que no es posible aprobar ningún documento o declaración en la conferencia que comienza en unos días en París, debido a este proceso turbulento y a la falta de definición de lo que la UNESCO y sus países miembros quieren hacer con este proceso.

Desde Derechos Digitales recomendamos no apresurar el proceso, pues se necesita realizar una consulta significativa y con múltiples partes interesadas.

En lo sustancial, nuestra recomendación es que la propuesta se centre en donde su contribución podría ser más útil, conforme a estándares internacionales de derechos humanos y a las guías de implementación provistas por los Principios Rectores de las Naciones Unidas sobre Derechos Humanos y Empresas. De este modo, debería concentrarse en aspectos tales como obligaciones de transparencia para las plataformas; procesos de reclamo expeditos y regidos por el principio de debido proceso en relación a decisiones de moderación de contenido; debida diligencia en la evaluación y mitigación de riesgos de las plataformas; mecanismos de reclamación, revisión y reparación en caso de decisiones erróneas, como se indica, por ejemplo, en los reportes de Al Sur sobre responsabilidad de intermediarios y moderación de contenidos desde una perspectiva latinoamericana.

Para lograr construir una internet confiable, desde hace años sabemos que los procesos de discusión, regulación y normalización también deben ser confiables, abiertos y transparentes, con un enfoque de múltiples partes interesadas y una participación significativa de la sociedad civil.

UNESCO tiene en sus manos todos los elementos para contribuir positivamente a este entorno, solo resta ponerlo en práctica de manera responsable, con un proceso transparente, con instancias adecuadas y el tiempo necesario de discusión.

Derechos digitales en América Latina: un problema en capas

A mediados de 2019, Derechos Digitales abrió las postulaciones al Fondo de Respuesta Rápida para la Protección de Derechos Digitales en América Latina (FRR), concebido como una manera de responder a las necesidad de las organizaciones y activistas trabajando en la región, ante situaciones urgentes que no pueden ser atendidas por el ciclo regular de financiamiento. El objetivo es contribuir a la construcción de un entorno digital libre y abierto, mediante una opción flexible, sin fechas restrictivas y minimizando los requisitos burocráticos. Al ser un fondo creado en Latinoamérica para Latinoamérica, se reducen también las brechas de idiomas que pueden tener algunos fondos.

Al poco tiempo de haber comenzado sus operaciones, el panorama mundial cambió radicalmente debido a la rápida expansión del COVID-19 y las distintas medidas adoptadas por los gobiernos para hacerle frente, muchas de ellas de carácter tecnológico, lo que conllevo la magnificación y multiplicación de situaciones de riesgo en distintas dimensiones de la cotidianidad. El riesgo de pasar por encima de los derechos humanos, usando como excusa la pandemia, fue una justificación común para la implementación de mecanismos y tecnologías sin la suficiente probidad. Las organizaciones y activistas de la región levantaron la voz, demostrando de paso los derechos digitales no son una preocupación de nichos, sino de todas las comunidades.

Esto hizo que el FRR tuviera una posición privilegiada para comprender el impacto de las amenazas a los derechos humanos en entornos digitales, no como algo teórico y reservado para discusiones especializadas, sino como una situación que pone en desventaja y vulnerabilidad a comunidades y grupos enteros. El contacto directo con organizaciones y activistas durante la pandemia ha hecho que el FRR funcione como línea de atención primaria, que puede dar pistas sobre potenciales problemas estructurales que involucran a los derechos digitales. Da la oportunidad de ver dónde están las dolencias y carencias más importantes, junto con potenciales áreas que serán relevantes en el futuro cercano.

Capas de problemas

Hay que tener en cuenta que, al hablar de América Latina, debemos dar cuenta de las profundas diferencias. En cuestiones de internet, un país puede no ser la unidad descriptiva más adecuada. Más bien, el mapa se configura por capas, es decir niveles o tipos de problemas, y diversas capas pueden estar presente en un mismo país y los mismos retos pueden presentarse en las mismas zonas de varios países.

Por ejemplo, un país puede estar enfrentando problemas con la violencia en línea o con la implementación de tecnología de reconocimiento facial y, al mismo tiempo, tener regiones que estén luchando por tener un acceso significativo a internet que habilite el ejercicios de derechos o comunidades que estén decidiendo cómo conectarse de forma independiente. Países que puedan ser considerados aventajados en la conectividad, pueden no garantizar la calidad de la conectividad, complejizando la aproximación al problema y señalando la necesidad de mejores indicadores de inserción.

Desde el FRR se observan al menos tres capas de trabajo con los derechos digitales:

  • La capa principal son los retos de conectividad y cobertura, así como capacitación, educación y entrenamiento en el uso de Internet que permita el uso y goce de derechos;
  • En la capa media se encuentran los usos y el monitoreo de las actividades de internet que afectan directamente a grupos y personas, como violencia en línea, ataques en línea, acoso a personas y organizaciones, entre otros;
  • Y la tercera capa es de políticas públicas, implementadas por gobiernos nacionales o locales para el uso de tecnología, con poca probidad en la garantía de derechos y sin participación de las comunidades en la toma de decisión.

La descripción de estas capas es un esfuerzo por sistematizar la diversidad que coexiste en Latinoamérica.

Ciertamente, hay prioridades diferentes por países en cuanto a los derechos digitales y su impacto social. Por ejemplo, las consecuencias del censo digital, la implementación de tecnologías de reconocimiento facial en espacios públicos, el impacto de la minería cripto o la violencia basada en género, que sirven para esbozar prioridades futuras en la región y quedan como antecedentes de lo que puede pasar en otros países.

En tanto, constatamos en terreno y con  la experiencia adquirida, más otros esfuerzos de monitoreo, que las zonas rurales de la región son las que más carecen de acceso y herramientas para la conectividad, aunque el porcentaje de cobertura haya crecido en los últimos años. Esto se traduce en una cadena causal visible: menos recursos, menos capacidad de acceso a internet de calidad, menos capacidad de participación y, en consecuencia, las comunidades se hacen más invisibles y con menos capacidad de ejercer sus derechos humanos de participación pública, libertad de asociación, acceso a la información pública y libertad de expresión.

Los indicadores de cobertura, aun cuando cuentan con información de avances, necesitan complementarse con el uso real que tienen las comunidades, cómo se integran estas al uso de internet, qué herramientas de seguridad tienen y, también, qué posibilidades de conectividad independiente podrían lograr. Información que sí manejan o tienen capacidad de recolectar las organizaciones y activistas que hacen trabajo comunitario.

Ya en el 2023, con una pandemia disminuida en fuerza, la prioridad de atender las situaciones urgentes e importantes de los derechos digitales consolida la misión del FRR.

¿Tienes un proyecto que te gustaría postular al FRR? Más información aquí.

Mastodon: rumbo al Fediverso

Las redes sociales como Facebook, Instagram, Twitter y TikTok tienen una estructura centralizada y se caracterizan por tener un dueño que decide las reglas de su funcionamiento. Estas reglas pueden definir cuál contenido es aceptable y cuál no, cuándo suspender una cuenta, qué datos recolectar y qué hacer con los mismos. Las personas que usan estas redes no tienen posibilidad de incidir sobre las reglas que las rigen. Eso es un problema porque parte importante de la interacción social sucede en estos espacios.

Twitter es una fuente relevante de información y un espacio para el debate político en muchos países. Elon Musk compró esta plataforma por más de cuarenta mil millones de dólares y comenzó a tomar decisiones polémicas. Una de las primeras fue despedir a cerca de la mitad de sus empleados. Intentó realizar cambios como el “check-azul” de verificación y suspendió la cuenta que reportaba la ubicación de su avión privado. Varios periodistas que reportaron sobre estos sucesos terminaron con sus cuentas suspendidas.

Estos sucesos provocaron malestar en muchas personas, que buscaron alternativas. El nombre Mastodon comenzó a hacerse cada vez más conocido. Se trata de una plataforma de microblog, similar a Twitter, que permite compartir contenidos cortos y suscribirse a las publicaciones de las demás personas. Si bien son sistemas parecidos, existen al menos tres características que hacen Mastodon diferente de Twitter: es software libre, es un sistema federado y además forma parte de algo más grande que se conoce como el “Fediverso”.

Al igual que Twitter, Mastodon es un sistema cliente-servidor, donde existen una o varias máquinas, conocidas como servidores, a las que nos conectamos a través de aplicaciones instaladas en nuestros dispositivos, conocidos como clientes. Twitter trabaja con miles de servidores que hacen que la red funcione y la gente se conecta desde la página web o la aplicación de Twitter en dispositivos móviles. Todo el software que hace funcionar la red es propiedad de Twitter y no se puede saber cómo funciona, pues sus algoritmos son secretos.

Mastodon es software libre. Cualquier persona u organización que tenga el conocimiento y las capacidades puede montar su propia red de microblogging, del mismo modo en que cualquier persona que sepa cómo usarlo puede montar su propio sitio web gracias a WordPress. Que Mastodon sea software libre permite a personas y colectivos tener su espacio en Internet y, de esta manera, mayor autonomía: cada una podría implementar una instancia propia de Mastodon y formar una comunidad de personas donde compartir contenido con algún fin específico.

Que una comunidad o un colectivo tenga un espacio en internet para comunicarse es útil, pero la audiencia podría estar limitada, en especial si se compara con redes como Twitter. Es ahí donde la federación hace la diferencia. En su momento escribí un artículo sobre este tópico y las aplicaciones de mensajería. Básicamente, significa que una instancia de Mastodon puede interactuar con otras instancias de Mastodon.

En un ambiente federado no existe una empresa dueña de la red como sucede con las redes sociales centralizadas. El caso más conocido de servicios federados es el correo electrónico: se puede enviar un correo de Gmail a Hotmail o al servidor propio de una organización.

Los términos de uso y las reglas que rigen a una instancia de Mastodon dependen de las personas que gestionan la instancia. Si no estamos de acuerdo con esos términos podemos buscar otra instancia o gestionar la implementación de una instancia propia y definir nuestros propios términos.

Mastodon no es la única red social basada en software libre que es descentralizada. En realidad, es parte de algo más grande conocido como el Fediverso. Mastodon, al igual que GNU Social o Pleroma, son implementaciones de microblog similares a Twitter; Pixelfed es una herramienta para publicar fotografías, similar a Instagram; PeerTube es una plataforma que permite compartir videos a la manera de Youtube. Todas estas redes interactúan entre si a través del protocolo ActivityPub, el mismo que define las reglas que permiten a las participantes del Fediverso interactuar. En el Fediverso es posible seguir a una cuenta de Pixelfed desde Mastodon y viceversa. Es como si desde Twitter se pudiese seguir una cuenta de Instagram o al revés.

El estándar de ActivityPub ha sido construido de forma colaborativa y forma parte de los estándares publicados por la W3C, organización responsable de mantener estándares como el HTML. En lugar de ser una empresa la que define el funcionamiento de un sistema, en el Fediverso trabajan varias organizaciones y personas a nivel mundial y llegan a acuerdos sobre cómo se debería funcionar una red de redes sociales.

Soy usuario de Mastodon desde el año 2017, y entre 2009 y 2013 fui muy activo en una plataforma similar conocida como Identica. Creo que las redes sociales federadas son el camino correcto hacia una internet más libre, diversa y donde la ciudadanía puede empoderarse de la tecnología. La actividad de Elon Musk como dueño de Twitter a finales de 2022 muestran los riesgos de depender de plataformas de un solo dueño.

En este momento existe una oleada de gente nueva a Mastodon y hay mucho más contenido que el existente previo a que Musk comprara Twitter. Espero que esto sirva para que más gente se dé cuenta de que existen otras formas en la que internet puede funcionar y podamos apropiarnos de la tecnología. Sin embargo, dudo mucho que este sea el fin de Twitter y el despegue del Fediverso. Probablemente en un futuro, a través de legislación, Twitter y las otras redes sociales se vean obligadas a federar con ActivityPub u otro estándar.

Las redes federadas tienen cierta complejidad, que en un principio puede hacer la transición menos sencilla de lo que la mayoría de la gente quisiera. Sin embargo, debemos valorar que todavía podemos tener cierta autonomía. Twitter sigue siendo más conveniente para la mayoría de las personas, pero hay que ser conscientes de que no somos su prioridad.

La libertad no es gratuita y la conveniencia es una droga muy adictiva. Es importante dudar de los sistemas que utilizamos, saber quién está detrás de los mismos, cuestionarnos si nos dan libertad o nos capturan para hacernos dependientes. De nosotres depende decidir si queremos tener control sobre la tecnología o si queremos cederlo a un puñado de millonarios.

Sigue a Derechos Digitales en Mastodon: https://mastodon.social/@derechosdigital

Una última mirada a los derechos digitales en 2022

Cuando comenzamos 2022, una esperanza comenzaba a crecer en buena parte del mundo: las vacunas para reducir los contagios y los síntomas de la COVID-19 surtieron efecto y llegaron a más grupos de la población. Lentamente, aspectos de la vida prepandémica volvían a materializarse y, después de dos años dramáticos, el mundo parecía realinearse.

Pero el año inició con tumulto mundial: una invasión en Europa oriental creaba una crisis humanitaria de incalculable costo humano, que a su vez desviaba la atención de otras crisis en África oriental, en Asia meridional, en América Latina. Nuevas desigualdades, internas y externas, se hicieron patentes, ahora bajo la presión del riesgo vital de una pandemia que no termina.

Como en buena parte del mundo, América Latina ha visto el agravamiento de las distintas crisis superpuestas, agudizadas por un horizonte de crisis económica que está en pleno desarrollo. Aun así, grandes aires de esperanza se sintieron en la región, en la resistencia al abuso y la injusticia, y en la participación política en varias elecciones.

En América Latina, el 2022 partió con revelaciones de hackeo a periodistas en El Salvador, en una réplica de lo que fue descubierto años antes en México, revelando que el espionaje ilegal estatal con herramientas importadas continúa en la región.

A la vez, la vigilancia masiva todavía es una disputa inconclusa. En una insigne victoria para el activismo local, en México el invasivo Padrón Nacional de Usuarios de Telefonía Móvil (PANAUT), aprobado a fines de 2021, fue declarado inconstitucional, impidiendo la vinculación entre la identidad de un usuario de teléfono y su información biométrica, entre otros datos, en una decisión anunciada en abril. Poco antes, se había detenido en el metro de San Pablo, Brasil, el uso de un sistema de reconocimiento facial automatizado, aunque luego fue autorizado por la justicia. Esa batalla continúa, ahora contra una iniciativa por extender el reconocimiento facial a toda la urbe. En la Ciudad de Buenos Aires, en tanto, la justicia declaraba la inconstitucionalidad de un sistema de reconocimiento facial.

En Colombia, una preocupación constante por la incorporación de mecanismos legales para fórmulas riesgosas de identidad digital, como también un debate sobre neutralidad de la red y zero-rating se tomaron parte de la agenda después de la fuerte escalada de violencia de las protestas de 2021. El uso de máquinas digitales para el proceso electoral fue, como siempre, objeto de escrutinio.

Al igual que en Colombia, y ante los ojos del mundo, una nueva elección presidencial en Brasil ofrecía esperanza, pero también mostraba algunos de los peores temores de la región: torpes intentos de control de la desinformación amenazaban con alterar el funcionamiento de la mensajería personal, mientras varias acusaciones de desinformación enfrentaban al gobierno y a las iniciativas de empresas privadas por controlar el discurso en línea. Que todo eso ocurriera mientras aumentaba el gasto en tecnología de hackeo y vigilancia hacía temer por el futuro.

Por cierto, las protestas sociales de los últimos años no cesaron. En Ecuador, fuimos parte del reclamo de la sociedad civil en rechazo a la represión y la vigilancia en el marco de protestas sociales a mediados de año. Presentamos a la ONU múltiples antecedentes sobre situaciones de afectación de derechos, especialmente vinculados a la expresión y la protesta, en un informe dentro del contexto del Examen Periódico Universal. En paralelo, continúa el cuestionado juicio contra Ola Bini a pesar de las reportadas infracciones al debido proceso. También vimos que persiste la represión de la expresión y la protesta en Nicaragua, incluido el allanamiento y cierre de organizaciones y de medios de comunicación, alarmando a expertos internacionales que exigen visitar el país. Y, en Venezuela, informes tanto de la industria de las telecomunicaciones como de la sociedad civil, mostraron el nivel de vigilancia y represión en ese país.

Al mismo tiempo, Brasil progresaba en un área sensible para toda la región: la protección de datos personales. Sin ser un debate ajeno a la contingencia, Brasil avanzó en el otorgamiento de autarquía de carácter especial a su nueva autoridad de control de datos personales. Por su parte, Ecuador –que promulgó su ley en 2021– inició este año el proceso de reglamentación de la ley. En Chile, paso a paso se Avanza en un proyecto de reemplazo a una ley que hoy es ineficaz ante casos públicos de vulneración de los derechos sobre los datos.

También hubo otros relevantes debates legislativos en la región, para los que este recuento quizás no basta. Fuimos testigos de la discusión por una nueva ley de inteligencia artificial en Brasil, como también en iniciativas de leyes sobre ciberseguridad, sobre desinformación y sobre ciberdelitos en varios países de la región. Nuestro trabajo de monitoreo continúa con intensidad para identificar las oportunidades, los riesgos a las libertades y derechos que puedan acompañar a esas iniciativas. Nos involucramos en la discusión por una nueva constitución en Chile, con propuestas surgidas desde distintos lugares y grupos del país.

No obstante también aprovechamos instancias globales que afectan a América Latina. Como ejemplos, contribuimos a informes de oficinas de expertos de Naciones Unidas sobre apagones de internet y sobre inteligencia artificial y privacidad. Participamos en procesos como la reunión de plenipotenciarios de la UIT, en la peligrosa discusión por un nuevo tratado sobre ciberdelitos, en el debate global sobre normas para el comportamiento de los Estados en el ciberespacio, y mucho más.

Mirar hacia el futuro

Todo lo anterior es apenas una muestra de lo intenso que fue el trabajo del año desde nuestro activismo. No obstante, también hubo muchísima colaboración, la misma que creemos que es parte esencial de la proyección hacia el futuro de la labor de Derechos Digitales.

Como organización, el año también fue de oportunidades de cooperación cruciales para la región. Volvimos a albergar un evento virtual de difusión, intercambios y aprendizajes. Participamos muy activamente en la organización del Foro de Gobernanza de Internet de América Latina y el Caribe, el LAC IGF. Nos reunimos con nuestras aliadas de la coalición Al Sur para comenzar a pensar en el futuro, en un primer encuentro presencial después de años. Mantuvimos numerosos talleres y reuniones con organizaciones e instituciones a nivel regional y global. Y nos sumamos como socios organizadores, con esperanza, al Movimiento por una Mejor Internet.

Logramos también apoyar a 21 iniciativas de acción de 12 países de la región a través de nuestro Fondo de Respuesta Rápida, no solo facilitando la respuesta ágil a situaciones de emergencia, sino también favoreciendo el aprendizaje en múltiples contextos de activismo. Es a través de procesos como este que la colaboración de 2021 con el ODIA argentino ayudó en la declaración de inconstitucionalidad del sistema de reconocimiento facial en Buenos Aires. Mecanismos de apoyo como este Fondo demuestran que existen nuevas posibilidades para la articulación de organizaciones en la región.

Lo más importante: en una época global de grandes cambios, consolidamos un equipo sólido, de muy diversos orígenes y perfiles, fortaleciendo nuestra capacidad de trabajar en distintos ámbitos. Sabemos que en 2023 habrá más cambios, pero también que con ellos vendrán nuevas oportunidades de colaboración interna y externa.

Aunque ha sido un año desafiante, sentimos orgullo por el camino recorrido y mucha esperanza en el que queda por recorrer. La mirada introspectiva ha sido fuente de gran aprendizaje, como también de importante reflexión sobre lo que necesitamos seguir haciendo. Porque creemos en nuestro derecho y en nuestra capacidad de crear un futuro más justo para América Latina, reconocemos lo que significa el fin de 2022 y damos la bienvenida a 2023.

Más allá de las elecciones en la UIT (o de la agencia de la que nunca has oído hablar)

El creciente número de incidentes y casos de ciberataques a empresas y gobiernos ha provocado numerosas discusiones sobre la necesidad de políticas públicas en ciberseguridad con enfoque de derechos humanos. Los derechos de los ciudadanos son doblemente vulnerados. Primero, porque sufren en carne propia los efectos perversos de estos ataques, y segundo, por la falta de inversión y coordinación por parte de los estados y las empresas. Por otra parte, hemos visto discusiones crecientes, a menudo acaloradas, sobre las regulaciones de inteligencia artificial.

El ámbito de la Unión Internacional de Telecomunicaciones (UIT) no fue la excepción. Como decíamos en un texto anterior, este año tuvieron lugar los tres mayores eventos de la UIT, la Asamblea Mundial de Normalización de las Telecomunicaciones (AMNT), en marzo en Ginebra, la Conferencia Mundial de Desarrollo de las Telecomunicaciones (CMDT), sin precedentes en el continente africano, acogida por Ruanda en junio, y la reunión de Plenipotenciarios, que tuvo lugar en Rumania en octubre. Desde Derechos Digitales participamos personalmente en las reuniones de Ruanda y Rumania.

Marcada por las elecciones de varios puestos de liderazgo, y cuyo máximo cargo como secretaria general fue ganado por Doreen Bogdan-Martin en una disputa que tenía connotaciones geopolíticas y puntos de vista diferentes entre la candidata estadounidense y su competidor ruso, la reunión de Plenipotenciarios discutió muchos temas que marcarán las actividades de la agencia en los próximos años

En este texto evaluaremos algunos avances en el tema de ciberseguridad, principalmente desde el punto de vista de cuál ha sido el rol de la UIT y por qué su desempeño ha sido importante para los países del sur global. También analizaremos cómo una nueva resolución sobre IA en el ámbito de la UIT puede ser vista como una continuación de los proyectos de “IA para el bien” que la agencia ya venía desarrollando.

Las acciones de la UIT en el tema de la ciberseguridad

La UIT ha sido llamada la agencia de la ONU más importante de la que nunca has oído hablar. Es el organismo especializado de las Naciones Unidas para las tecnologías de la información y la comunicación (TIC), formada en 1865. Cada cuatro años, los Estados miembros se reúnen en la reunión de plenipotenciarios para discutir y planificar el curso de los próximos años. El tema de la ciberseguridad se ha discutido cada vez más en esta reunión y principalmente dentro del ámbito de trabajo de los sectores de normalización (UIT-T) y desarrollo (UIT-D).

Son múltiples los roles desempeñados por la UIT en el campo de la ciberseguridad, que resultan particularmente importantes para los países del sur global. Junto con otros actores como el Banco Mundial, la UIT publicó la “Guía para el desarrollo de una Estrategia Nacional de Ciberseguridad”, que actualmente se encuentra en su segunda edición. Además de abordar cuestiones básicas del proceso sobre cómo crear esta política pública, la Guía incluye buenas prácticas sobre el contenido de la propia estrategia. Esto es relevante para países que, como Chile y México, actualmente están discutiendo la evaluación y renovación de una estrategia nacional e incluso la creación de leyes de ciberseguridad.

Además, el Índice Global de Ciberseguridad ha servido durante años como indicador y referencia para la evaluación de los Estados en temas clave cuando se habla de ciberseguridad. La  Agenda Global de Ciberseguridad es otra herramienta lanzada en 2007, que ha influido en la creación de políticas públicas a nivel nacional, especialmente en los países del sur global. Se trata de un instrumento internacional de cooperación lanzado en 2015, que hasta el día de hoy genera controversia por tratarse de un instrumento internacional fuera del mandato de la agencia, como pudimos ver en las intensas discusiones de la reunión Plenipotenciaria este año. 

“IA para el bien”: consolidación del trabajo de IA

El trabajo de la UIT sobre inteligencia artificial (IA) no es nuevo. El programa “AI for Good” y junto con el Gobierno de Suiza y otras 40 agencias asociadas en el sistema de las Naciones Unidas, como la UNESCO, la UNCTAD, la FAO, por ejemplo, la UIT ha desarrollado proyectos para identificar aplicaciones prácticas de la IA, proporcionar soluciones a escalar para tener impactos globales y acelerar el uso de esta tecnología para cumplir con los Objetivos de Desarrollo Sostenible (ODS). 

Funciona  como una gran plataforma de IA en el sistema de la ONU, pero que vemos al margen de otras discusiones importantes sobre el uso de este tipo de tecnología contra los derechos humanos, como lo han destacado en varias ocasiones otros órganos de los sistemas de derechos humanos. La novedad este año fue la aprobación de una resolución específica sobre IA en el ámbito de la UIT ahora en Plenipotenciario, que consolida la actuación del organismo en esta materia. El riesgo en este caso es que la UIT ignore la existencia de violaciones de derechos o vaya más allá de su mandato.

La acción interinstitucional de esta agencia en temas de IA debe entenderse en el contexto de otros espacios multilaterales donde se discutan los usos de la IA contra los derechos humanos. Este es un factor de suma importancia para que los ejemplos de “AI for good” no oculten posibles sesgos discriminatorios y otros riesgos señalados en el uso de esta tecnología.

La perspectiva de derechos humanos

Debemos prestar atención a lo que se está discutiendo en la UIT. Primero, en el cumplimiento de la actuación de la agencia dentro de su competencia, por ejemplo, siguiendo su rol como mediadora/facilitadora de la línea de acción C5 de la Cumbre Mundial sobre la Sociedad de la Información (CMSI), en la creación de confianza y seguridad de las TIC. En segundo lugar, evitar que en este espacio se desarrollen temas ajenos al ámbito de la agencia en lugar de otros espacios idóneos, más participativos y multisectoriales.

Por un lado, vemos a la UIT jugando un papel importante en ciberseguridad para el sector público y privado, principalmente relacionado con actividades de investigación, normalización, difusión de buenas prácticas y formación. 

Este rol resulta muy importante para los países del sur global, dado que es un referente. Es necesario entender que la apertura de la agencia es fundamental para fomentar la discusión de aspectos relevantes en la construcción de políticas públicas de ciberseguridad, que está relacionada con el cumplimiento de los derechos humanos.

Posibles caminos a seguir

Es necesaria una mayor participación de la sociedad civil en las decisiones y diseños que se hacen en la UIT. Quizás los resultados de las elecciones de la agencia apunten a un camino más abierto para la participación de las múltiples partes interesadas. Mientras tanto, las organizaciones pueden seguir uno de los cuatro caminos para participar en este espacio, descritos por la organización Artículo 19: afiliación a la UIT, participación en una delegación nacional, participación en consultas públicas o  estar al tanto de los temas que la UIT pretende incluir en su ámbito de trabajo. 

Tenemos por delante cuatro años de discusiones importantísimas en la UIT y necesitamos una mayor participación en temas de ciberseguridad e IA, ya sea discutiendo los temas de las comisiones de estudio de cada sector, contribuyendo en contribuciones locales o regionales a la agencia, demandando más espacio para la participación de la sociedad civil o participando en los proyectos desarrollados por la agencia.

Discursos y plataformas: un campo minado

Recientemente, el Consejo Nacional de Televisión (CNTV) de Chile dio a conocer un estudio titulado “Televisión y Derechos Humanos”, en el marco de las actividades de conmemoración del Día Internacional de los Derechos Humanos, celebrado el 10 de diciembre. La investigación comprende una consulta a quienes han realizado reportes ante esta institución, denunciando contenido inapropiado en televisión. La metodología incluyó preguntas sobre el tratamiento a grupos minoritarios, expresiones del negacionismo y discursos de odio.

Sin embargo, algunas de preguntas incluidas en la consulta no se circunscriben específicamente a la televisión. Por ejemplo, frente a la pregunta sobre en cuáles medios es más frecuente encontrar discursos de odio o negacionismo, las alternativas contemplan televisión, radio y redes sociales, con un 69,3% de la muestra (N = 2.004 personas) de preferencia por esta última opción. Hemos argumentado anteriormente que la idea de que las redes sociales constituyen medios contraviene el principio de no responsabilidad de los intermediarios de internet, con una serie de problemas asociados a la defensa de la libertad de expresión. Al margen de este aspecto, tampoco es posible desconocer que, a pesar de los litros de tinta y caracteres derramados en tono ominoso anunciando su fin inminente, las redes sociales gozan de buena salud y siguen marcando la pauta de la conversación cotidiana. Lo que sucede ahí sin duda que tiene efectos en cómo percibimos y juzgamos lo que nos rodea.

Un ejemplo de ello sucedió hace algunas semanas en Chile: los dichos emitidos por una animadora de televisión sobre tallas de prendas de vestir desataron una ola de críticas, algunas acusándola de proferir discursos de odio, y el asunto culminó con ella pidiendo disculpas públicas. Señalamos en la prensa que la libertad de expresión “protege los discursos desagradables”, siendo el límite la incitación a la violencia y las amenazas, mientras sean creíbles y revistan gravedad. Es decir, este derecho garantiza tanto los dichos en cuestión como la reacción desatada en redes.

El mismo estudio mencionado al inicio indica que un 53% del universo muestral (2.037 personas) considera imprescindible que los discursos de odio estén sujetos a regulación, mientras que un 23,5% cree que esta medida es necesaria, pero equilibrándola con el resguardo a la libertad de expresión. Si aceptamos que las redes sociales no equivalen a medios de comunicación, la pregunta entonces es qué tipo de regulación es necesaria.  

Nos enfrentamos, entonces, a un doble dilema: el límite de la libertad de expresión, por un lado, y el riesgo de que la sanción al discurso de odio devenga en obligaciones que puedan degenerar en censura, por otro. Encontrar el equilibrio perfecto entre ambas garantías reviste una especial dificultad, considerando el debate que se ha dado en torno a las directrices comunitarias de algunas plataformas, las condiciones laborales de quienes están a cargo de implementarlas, el carácter de interés público que puede revestir la discusión en plataformas que están administradas por empresas privadas, y la falta de transparencia respecto del modo en que se toman las decisiones de moderación de contenido. En última instancia, la pregunta es respecto a quién decide y bajo cuáles criterios.

En condiciones ideales, y mientras no impliquen la comisión de un delito, los discursos en línea deberían ser tratados al amparo de la igualdad en la participación de la palabra. Alguna vez fue así: los foros solían estructurarse de modo que la moderación del contenido inapropiado rotaba entre sus participantes. No obstante, pretender volver a ese estado prístino de internet ciertamente no es posible y los desafíos del presente requieren de una imaginación colectiva para resolver este nudo discursivo. Ni cegarnos ante el contenido desagradable evitará su crecimiento, ni combatir el fuego con fuego no hará que este amaine. 

En los últimos años, no obstante, solo se acrecientan las dudas y los desacuerdos. La Comisión Interamericana de los Derechos Humanos y el Centro de Estudios en Libertad de Expresión y Acceso a la Información advirtieron este problema en 2019, apuntando a que la concentración de poder en el Big Tech, el crecimiento tecnológico sin precedentes y la automatización de procesos han contribuido a este confuso panorama; y, lamentablemente, las herramientas legales, aunque existentes, no han resultado suficientes. La única herramienta que contempla la restricción a la libertad de expresión, considerando en primera instancia la importancia que este derecho tiene para la vida democrática, es el test tripartito.

Sin duda es urgente volver a traer este tema a la mesa y discutirlo con altura de miras y teniendo siempre presente que, en los entornos digitales, sus reglas y tiempos tienen características propias que requieren una mayor prolijidad en el diseño de una arquitectura legal y técnica que asegure que tengamos derecho a expresarnos. Uno de los avances interesantes en esta materia es el trabajo desarrollado por Observacom en el reporte “Transparencia de la moderación privada de contenidos – una mirada de las propuestas de sociedad civil y legisladores de América Latina”, donde se repasan propuestas y directrices necesarias a considerar en esta materia.

No es posible regular los discursos de odio solo con buena voluntad y una mirada parcial de las cosas. Tampoco es admisible un concepto absolutista de la libertad de expresión sin barrera alguna, y se vuelva un instrumento que vulnere los derechos humanos.

Cyber-violencia contra mujeres y niñas: el caso de los stalkerwares

Desde el inicio de la pandemia por COVID-19, la violencia contra mujeres y niñas se ha agravado. Este aumento se compone de diversas aristas, y comprende aquello que ocurre tanto los espacios “físicos” como en internet.

De acuerdo con un estudio de la Unión Europea sobre “ciber-violencia” contra niñas y mujeres, existen diferentes tipos de violencia en internet, de las cuales se destacan el cyber-stalking (equivalente al ciber-acoso), trolling, cyber-harrasment (equivalente al grooming), cyber-bullying, discursos de odio online, flaming (comentarios de odio, insultos y otros), abuso sexual basado en compartir imágenes no consensuadas y doxxing (publicación de documentos y datos privados al público).

En línea con el reciente Día Internacional para Eliminar la Violencia contra las mujeres y niñas, y dentro del contexto de 16 días de activismo de Naciones Unidas, es necesario reflexionar sobre el stalkerware, un tipo de software que habilita una forma particular de violencia.

¿Qué es un stalkerware?

Normalmente comercializados como herramientas de seguridad para controlar el acceso al contenido online de niños y niñas, el stalkerware es precisamente lo que indica su nombre en inglés: software diseñado para acechar (observar con atención y con cautela a alguien sin ser visto) y acosar (perseguir sin tregua ni descanso a una persona a una persona).

Se trata de software que en muchos casos está disponible en el comercio y que al ser instalados en un celular, computadora u otros dispositivos electrónicos, otorgan acceso de forma remota a la información contenida en los dispositivos, pudiendo incluir la ubicación geográfica, las búsquedas en la web, mensajes de texto, correos electrónicos, fotos y contactos. Usualmente el stalkerware se ejecuta en segundo plano, sin que la persona afectada haya dado su consentimiento o siquiera sepa que está instalado en su dispositivo, y es común que el uso de estas herramientas se realice en el marco de una relación afectiva, (amigos, novios, familiares, etc.), cuando una persona busca controlar a la otra.

Uno de los problemas principales es el gran desconocimiento sobre los stalkerwares: según un reporte publicado por Kaspersky, un 60% de las personas no sabe de su existencia. Esta falta de reconocimiento e información genera vulnerabilidades que pueden facilitar el sometimiento de una persona a esta forma de violencia.

Un estudio publicado por Women’s Aid documentó que, en al menos el 29% de los casos de violencia intra-familiar, las parejas o ex parejas utilizaron stalkerware; por ejemplo, en múltiples casos en Estados Unidos, los perpretadores reconocieron instalar el software en teléfonos que regalaron a sus hijos e hijas después de un divorcio, con el objetivo de vigilar a la expareja. En otros países se identifican dinámicas similares en casos de “amistad”, las cuales instalaban stalkerware en el dispositivo de conocidos o también en el caso de parejas que no necesariamente experimentaban violencia física.

Sin embargo, todos los casos son claro ejemplo de una intención, realizada sin consentimiento, con el fin de tener poder y control por sobre la otra persona, lo cual es una trasgresión a la privacidad, acoso, y, por ende, violencia. 

Impactos más allá de internet

Todas las monedas tienen dos caras. Aquí, una cara es aquello que ocurre en línea y la otra es lo que sucede fuera de internet. Uno de los aspectos que deben ser considerados al entender los impactos de la utilización de stalkerwares es que no solamente tienen repercusiones sobre nuestras acciones en línea, sino que el acceso a la información personal y sensible, sin autorización, por parte de un tercero extiende su capacidad de control fuera de internet, perpetuando esta situación de violencia.

Para tener una radiografía de la situación del cyber-stalking, un estudio reciente de Plan Internacional reveló que más de la mitad de niñas y mujeres jóvenes, entre los 15 y 25 años, han sido víctimas de esta forma de violencia, mientras que el el 1er Estudio Nacional de Ciber Acoso y Salud Mental realizado en Chile, y publicado en 2021, revela que un 47% de las personas entre 15 y 29 años declara haber sido víctima de “violencia digital” en los últimos tres meses; tanto en 2020 como en 2021 se observó que la mayoría de las personas afectadas eran mujeres.

El stalkerware no es una consecuencia directa del cyber-stalking, sin embargo, es necesario considerar desde una perspectiva más amplia el contexto, como se explica en el reporte “Protecting Women and girls from violence in the Digital Age”: en una sociedad patriarcal, quienes cometen actos de violencia probablemente tienen una red de apoyo que se comporta de la misma forma, justifica y normaliza la violencia. Estos aliados, que antes solamente podían encontrarse de forma off-line, hoy en día comparten ideas que se desarrollan, fomentan y fortalecen en internet. 

Desafíos a futuro

Si bien en la región existen diferentes políticas públicas que abarcan estos temas, con la intención de mitigar la violencia contra mujeres y niñas en el ámbito digital se identifican dos desafíos principales, que deben ser tomados en cuenta para avanzar hacia la erradicación de la ciber-violencia: primero, no existe una definición universal, ni regional, que considere las violencias en internet y fuera de internet en un mismo nivel, dejando el ámbito digital como un área subyacente de la violencia con las mujeres y niñas. Se genera así la percepción de una falta de priorización de las variables involucradas en este tipo de violencias. 

Por otro lado, es clave considerar la importancia de reflexionar sobre la existencia de medidas efectivas para la erradicación de estas prácticas, las cuales deben ser aprendidas de la historia, dejando de tomar medidas centradas en las víctimas, sino que deben considerar los problemas estructurales a nivel macro, que permiten que estos problemas ocurran. La educación a potenciales perpetradores de este tipo de violencia y el reforzamiento de estructuras legales, que regulen y no permitan la agravación de estas situaciones, son clave para generar avances sustantivos.


Daniela Horta es Cientista política de la Pontificia Universidad Católica de Chile y Máster en Políticas Públicas: Desarrollo y Gobernanza del Institute of Social Studies – Erasmus University Rotterdam y la University of York. Actualmente está cursando una especialización en la universidad Roma Tre (Italia) en Política y Género, y es pasante en Derechos Digitales.

Construyendo caminos hacia un futuro digital común: notas desde el IGF en Adís Abeba

El Foro para la Gobernanza de Internet (IGF), un evento anual que desde 2006 supone una instancia de discusión abierta, global y multisectorial sobre internet, con el patrocinio de la Organización de las Naciones Unidas, tuvo recientemente su decimoséptimo encuentro anual en Adís Abeba, Etiopía

El evento estuvo organizado alrededor de la consigna “Internet resiliente para un futuro sostenible compartido y común”. El programa,  construido a partir de propuestas recibidas de la comunidad de gobernanza de internet, tenía como temas  “Conectando a todas las personas y protegiendo los derechos humanos”; “Evitando la fragmentación de internet”; “Gobernando datos y protegiendo la privacidad”; “Facilitando la seguridad y rendición de cuentas”, y “lidiando con las nuevas tecnologías, incluso IA”.

Derechos Digitales estuvo nuevamente allí. Participamos de numerosos paneles y reuniones sobre inteligencia artificial, inclusión y regulación de plataformas (entre muchos otros temas), llevando preocupaciones y propuestas desde América Latina. Además, intervinimos en la sesión inaugural, buscando resaltar las desigualdades que permean el ecosistema de gobernanza de internet y demandar acciones proactivas que garanticen la participación equitativa de todas las partes interesadas.

El evento fue una oportunidad de reencuentro, articulación y profunda reflexión. Además, puso acento en la necesidad de coordinar debates globales y equilibrar voces. Es la primera ocasión en que el IGF vuelve a realizarse en un país del Sur Global, desde su décima edición en 2016. Y nuevamente se volvió destacar la necesidad de que estos países y sus comunidades tengan una participación activa en la definición de prioridades y la toma de decisiones.

Conectividad desde el Sur: inclusión digital entre contradicciones

La realización del IGF en Etiopía generó cuestionamientos en la sociedad civil, dentro y fuera del país. Mientras algunas personas y organizaciones optaron por no participar, otras, como la Asociación para el Progreso de las Comunicaciones (APC, de la cual Derechos Digitales es miembro), defendieron la participación en el evento para conectarse con organizaciones locales, visibilizar su trabajo y denunciar abusos a los derechos humanos ocurridos en el país. Eso fue reconocido por representantes de distintos sectores y países en la sesión de cierre, durante la cual una representante de la coalición de sociedad civil brasileña por derechos digitales agradeció la recepción local: “la historia de este país es inspiradora y todas deberíamos dedicar algún tiempo a aprender más sobre su lucha por la libertad”.

El foco principal de las demandas fue restaurar la conexión a internet en regiones como Tigré, en el norte de Etiopía, afectada por un conflicto armado entre fuerzas separatistas y el gobierno central desde fines de 2020. Los cortes de internet en el país y sus impactos fueron objeto de discusión en diferentes sesiones, actividades paralelas e, incluso, en eventos previos a la realización del IGF, que tenía la conexión de todas las personas como parte de sus temas centrales. Según el Consejo de Derechos Humanos de las Naciones Unidas, “las interrupciones del acceso a Internet menoscaban directamente los esfuerzos para cerrar la brecha digital […] lo que amenaza el logro de los Objetivos de Desarrollo Sostenible. Estas interrupciones socavan la capacidad de las personas de participar en los debates y las decisiones que configuran su vida y contribuyen a crear sociedades seguras y prósperas”.

Resulta inoficioso e inconsistente boicotear a un país del mundo mayoritario por sus situaciones de crisis de derechos humanos, mientras aceptamos aquellas provocadas o apoyadas desde el norte global. Tener parte del mundo conectado y parte del mundo excluido no es un problema meramente técnico o económico, ni un problema exclusivo del sur, sino un problema político global. Un futuro digital justo, inclusivo y sostenible demanda no solo un pacto global, sino responsabilidades compartidas, incluso desde los países más conectados en promover mecanismos de apoyo y cooperación que faciliten entornos propicios para su construcción.

Hacia un Pacto Digital Mundial

Más allá de las contingencias, debemos también considerar al IGF dentro del contexto global más amplio. En septiembre de 2021, la oficina del Secretario General de las Naciones Unidas lanzó el informe “Nuestra Agenda Común”, proponiendo un Pacto Digital Mundial (o “Global Digital Compact”), cuyo objetivo es esbozar “principios compartidos para un futuro digital abierto, libre y seguro para todos”. La propuesta orientó buena parte de las discusiones en el IGF17, así como en  la reciente reunión de Latinoamérica y el Caribe del IGF.

Por cierto, se trata de un proceso amplio y extenso. Desde hace varios años, los miembros de la Organización de las Naciones Unidas han tomado más seriamente la gobernanza de internet, designando un Panel de Alto Nivel sobre la Cooperación Digital en 2018, cuyo reporte de 2019 fue usado como la base para la Hoja de ruta para la Cooperación Digital del Secretario General de la ONU en 2020. Se creó desde la cabeza de la ONU una Oficina del Enviado del Secretario General para la Tecnología (el “Tech Envoy”) y en 2022 se designó un Panel de Liderazgo del IGF.

Sin embargo, el Pacto Digital Mundial —que será objeto de ratificación por la ONU en la Cumbre del Futuro en septiembre de 2024— debería ser un producto de deliberaciones como las que tienen lugar en el IGF. Por esto, a medida que las decisiones sobre el futuro de internet ganan mayor importancia, la centralidad del IGF como plataforma de colaboración y coordinación efectiva de múltiples partes interesadas debería aumentar en lugar de disminuir.

Más allá de las buenas intenciones de la ONU y los loables fines de los informes de alto nivel, es necesario reconocer un contexto de creciente fragmentación y segmentación en las decisiones sobre gobernanza de internet, lo que genera nuevos desafíos para la participación, por ejemplo, de organizaciones de la sociedad civil en los distintos espacios de debate. Frente a ese escenario, el rol de organizaciones como Derechos Digitales es clave en reclamar espacios como el IGF desde el mundo mayoritario, como uno de los pocos espacios multisectoriales donde todavía es posible tener una voz para influir en el futuro digital.

El IGF sigue siendo una oportunidad valiosa de cooperación entre la comunidad internacional dedicada a la defensa de los derechos humanos en el entorno digital. Que esa interacción tenga impacto real depende tanto de la propia comunidad como de la membresía ONU que ha puesto la atención en ella. Sin fingir ignorancia  sobre las fuerzas que intentan dar forma al futuro digital, la democratización de los espacios de gobernanza depende también de nuestra activa participación en los mismos.

Privacidad por diseño y otros asuntos necesarios

Hace algunas semanas se celebró la reunión 115 del IETF, un foro del que hemos hablado antes, donde se definen los protocolos técnicos con que funciona internet. Esta vez los derechos humanos fueron tema de conversación en varias sesiones de trabajo, incluyendo la reunión abierta del Comité de Arquitectura de Internet (IAB por sus siglas en inglés), su directiva técnica. Allí se discutieron los mecanismos de censura de internet, y en general el rol de la tecnología en la crisis política y social que se vive actualmente en Irán.

En esa misma sesión se presentó una primera versión del documento Particiones para la privacidad, que propone una terminología común para los distintos protocolos que buscan mejorar la privacidad manejando por separado la identidad (quién) y los datos (qué) de las personas usuarias. Este tipo de protocolos están siendo desarrollados en cuatro grupos de trabajo dentro de IETF, y desde el IAB se espera recibir comentarios de retroalimentación para definir mejor en qué consiste el principio de “partición”, reconociendo que no es una solución completa, sino apenas una herramienta para mejorar la privacidad en internet.

Uno de los primeros comentarios recibidos propone alimentar el documento con el RFC6973 sobre consideraciones de privacidad para los protocolos de internet. Allí se declara que la forma más simple de reducir los riesgos para la privacidad asociados al uso de cierto protocolo consiste en “limitar la cantidad de datos que se pueden recolectar” a través de este; otro comentario plantea la necesidad de aclarar que los efectos positivos o negativos sobre la privacidad en estas arquitecturas, dependen de quién tenga la capacidad de decidir hacia dónde se dirige el tráfico particionado, ya que las arquitecturas más complejas tienden a promover una mayor centralización del mercado.

Los dos comentarios apuntan a asuntos que transcienden el carácter técnico de la discusión, pues tienen que ver con el poder de decisión sobre la manera como las empresas implementan los protocolos, es decir, qué tipo de información se espera que manejen, y cómo. En lo técnico, la discusión no se ha centrado en cómo recolectar menos datos, sino en desarrollar protocolos más sofisticados para que la misma cantidad de datos se maneje con “mejor privacidad” para las personas usuarias. Y este asunto está presente en distintos escenarios de IETF. Por ejemplo, durante una reunión paralela cuya convocatoria partía de la siguiente pregunta: ¿es posible un filtrado web que preserve la privacidad?

Las opciones técnicas para responder a esa pregunta apuntan al cifrado, pero como mencionó uno de los asistentes, la cuestión no es técnica sino política y el foco del problema no es el filtrado sino el consentimiento de la persona usuaria. Sin su consentimiento, cualquier forma de filtrado se convierte en censura y requiere un despliegue técnico más complejo. ¿Y para qué se necesita? En este caso, para combatir la explotación sexual infantil. El problema con las infraestructuras de censura es que, una vez establecidas, se pueden usar para propósitos muy diferentes, y con casos como este se corre el riesgo de cerrar rápidamente el debate pues resulta difícil oponerse a la urgencia de proteger los derechos de los niños, niñas y niñes.

Como señala la antropóloga Corinne Cath-Speth en su artículo La tecnología que decidimos crear, la preocupación por el ejercicio de derechos humanos ha estado presente en IETF desde hace décadas. Sin embargo, la idea compartida de que quienes diseñan las tecnologías no deben ordenar la manera como estas deben ser usadas, dificulta mucho la posibilidad de sostener discusiones explícitas sobre derechos humanos durante el proceso de diseño de protocolos, pues se considera que todo lo que no pueda ser medido, probado estadísticamente y observado en la red, no puede hacer parte del proceso de diseño.

Este artículo fue ganador del Premio a la Investigación Aplicada en Redes 2022 por la descripción etnográfica que hace de la cultura organizativa del IETF y cómo esta limita la capacidad de quienes defienden los derechos humanos para incluir sus preocupaciones en los debates técnicos. Durante IETF 115 fue presentado en dos sesiones: la reunión abierta del Grupo de investigación de internet (IRTF por sus siglas en inglés) y el Grupo sobre consideraciones de derechos humanos en los protocolos (HRPC por sus siglas en inglés).

Para la autora, quien participó de la creación de HRPC en 2014, el panorama hoy ha cambiado bastante y este premio es una muestra de ello. Por eso, considera necesario pensar en cuáles son los siguientes pasos para continuar integrando las discusiones políticas dentro del desarrollo técnico. En concordancia, desde la coordinación de HRPC se propuso una revisión de los objetivos y alcance del Grupo, que se realizará de aquí a la próxima reunión, en marzo de 2023.

En nuestra experiencia como Derechos Digitales, que hemos intentado participar activamente desde 2017, en IETF se está abriendo un campo cada vez más propicio para la incidencia de temas de derechos humanos y justicia social, desde las etapas tempranas de diseño de tecnologías de internet. Todavía falta mucho, y vale la pena involucrarse en esta conversación.

Zero-rating: una discusión ineludible

Es probable que cuando hayas contratado un paquete de datos móviles, de prepago o pospago, tu proveedor te haya ofrecido el que incluye redes sociales “gratis” o “ilimitadas”, como Facebook, WhatsApp, Instagram o Twitter. En algunos casos, incluso puedes seguir utilizando estas aplicaciones una vez consumidos los datos móviles contratados. Esta práctica se denomina zero rating o “tarifa cero”.

En Derechos Digitales creemos que este modelo de acceso a internet vulnera el principio de la neutralidad de la red cuando es aplicado sin un diagnóstico sobre las necesidades de la población. Para que internet funcione de manera abierta y libre es necesario que los proveedores de servicios de internet (PSI) no intervengan el flujo de datos, privilegiando algunos contenidos, servicios y aplicaciones sobre otras. Eso es precisamente lo que hace el  zero rating, favorece el uso de un grupo de aplicaciones. La consecuencia es que la experiencia de internet se reduce a aquello que circula en un puñado de redes sociales.

Por ello,  la tarifa cero es en un tema de derechos humanos, pero que también compete al mercado. Cuando se aplica el zero rating, se promueve una “lógica de escasez artificial”, lo que significa que, al haber un cúmulo de información limitada (solo la que se encuentra en estas aplicaciones), las personas modifican su comportamiento y “eligen” usar aplicaciones “gratuitas”. Esto beneficia tanto a los PSI como a las empresas que logran generar este tipo de acuerdos, pues la “oferta” facilita atrae nuevos clientes. Sin embargo, perjudica a las poblaciones con menores ingresos, que solamente pueden experimentar esta versión reducida de internet, con limitaciones a su derecho al acceso a la información y a la libertad de expresión.

El caso colombiano ante la Corte Constitucional

El zero rating es una práctica extendida en toda América Latina. En Colombia, el artículo 56 de la Ley 1450 de 2011 establece que los PSI “podrán hacer ofertas según las necesidades de los segmentos de mercado o de sus usuarios de acuerdo con sus perfiles de uso y consumo, lo cual no se entenderá como discriminación”. Sin embargo, un grupo de ciudadanas y ciudadanos liderados por la activista Ana Bejarano, de la organización El Veinte, interpuso una demanda para solicitar la inconstitucionalidad de esta sección del artículo. En respuesta, la Corte Constitucional abrió un proceso de participación al que actores provenientes del sector privado, instituciones públicas, universidades y organizaciones de la sociedad civil realizaron un total de 24 contribuciones.

Derechos Digitales participó del proceso mediante la presentación de un amicus curiae. Además, la Corte Constitucional convocó a una audiencia pública que concentró a un grupo multisectorial para entregar opiniones especializadas en la materia. A lo largo de la audiencia hubo diversas posturas encontradas. Mientras que los representantes del sector privado y Gobierno defendieron el zero rating, por considerarlas medidas para la reducción de la brecha digital, la sociedad civil constató que es una práctica que limita el acceso a una internet libre, abierta e inclusiva.

Organizaciones como DeJusticia, R3D, Fundación Karisma y Derechos Digitales hicimos visible que el zero rating podría representar un falso dilema, en el que se cree que el acceso a redes sociales equivale a  internet, siendo que en realidad solo representa lo que ocurre en un universo muy acotado de aplicaciones, beneficiando al mercado compuesto por PSI y plataformas digitales. Si bien desde sociedad civil se reconoce que el zero rating permite un primer encuentro con internet, también se sostiene que no resuelve la brecha de acceso.

En tal sentido, las propuestas fueron diversas. Por una parte, se planteó trabajar en la conectividad mediante la implementación de políticas públicas, en conjunto con una tarifa cero temporal que desaparezca con el paso del tiempo cuando la brecha se haya cerrado. Por otra, hay quienes propusieron un zero rating “agnóstico”, el cual no privilegia un grupo de aplicaciones, sino que propicia otras medidas basadas en las necesidades y posibilidades en las poblaciones, como, un número de datos gratis para ser usados en determinadas zonas geográficas o en horas específicas, por ejemplo, en horario de bajo tráfico en la madrugada.

También hay quienes proponen la inconstitucionalidad total de la medida y piden su prohibición. En la audiencia, el sector privado estableció que la oferta de tarifa cero se define con base en análisis de mercadeo, que tienen como insumo bases de datos anonimizadas. Esto resulta en la identificación de “preferencias” sobre las plataformas utilizadas. Frente a esto, la sociedad civil dejó entrever que los resultados de estos análisis no hacen referencia a las “preferencias”, sino a comportamientos que pueden estar influenciados por múltiples factores sociales y económicos.

Con estos argumentos, las organizaciones de la sociedad civil contribuyeron a favor de la demanda impuesta por el grupo de ciudadanas y ciudadanos, exponiendo los problemas que esta práctica implica para la libertad de expresión.

Colombia no es el único país que necesita una decisión judicial firme: la experiencia comparada

Uno de los puntos expuestos por la sociedad civil y los expertos convocados a la audiencia fue la experiencia de otros países. A diferencia de lo que afirman las empresas, existen importantes decisiones judiciales que reconocen que tales prácticas son incompatibles con la neutralidad de red.

El Tribunal de Justicia Europeo entiende que tales prácticas son ilegales, porque no cumplen con las salvaguardas del acceso a internet abierta y “sin discriminación, restricción o interferencia, e independientemente del emisor y el receptor, el contenido al que se accede o que se distribuye, las aplicaciones o servicios utilizados o prestados, o el equipo terminal empleado”. El regulador europeo actualizó recientemente su regulación en la materia para cumplir y dar seguimiento a estas decisiones judiciales. Las nuevas directrices del BEREC (la agencia de regulación del mercado de las telecomunicaciones en la Unión Europea), publicadas en junio de este año, se oponen explícitamente al uso de todas las opciones de zero rating en toda Europa

Hoy BEREC considera que cualquier práctica de precios diferenciados que no sea independiente de la aplicación (application-agnostic) es inadmisible para las ofertas de los proveedores de internet. La decisión que tomará la Corte Constitucional de Colombia en este caso es fundamental en América Latina, pues sentará un precedente para garantizar la neutralidad de la red. Declarar la inconstitucionalidad, total o parcial, puede abrir una puerta para que otros países eliminen sus prácticas de zero rating o las transformen en iniciativas agnósticas o temporales basadas en necesidades locales.

 De otro modo, declarar la constitucionalidad y mantener esta práctica, tal cual se aplica actualmente, puede perjudicar el debate en la materia. Está en las manos de las magistradas y magistrados de la Corte colombiana definir si tendremos un acceso a internet libre y abierto o un acceso limitado que no garantiza el cumplimiento de los derechos humanos.