Construyendo caminos hacia un futuro digital común: notas desde el IGF en Adís Abeba

El Foro para la Gobernanza de Internet (IGF), un evento anual que desde 2006 supone una instancia de discusión abierta, global y multisectorial sobre internet, con el patrocinio de la Organización de las Naciones Unidas, tuvo recientemente su decimoséptimo encuentro anual en Adís Abeba, Etiopía

El evento estuvo organizado alrededor de la consigna “Internet resiliente para un futuro sostenible compartido y común”. El programa,  construido a partir de propuestas recibidas de la comunidad de gobernanza de internet, tenía como temas  “Conectando a todas las personas y protegiendo los derechos humanos”; “Evitando la fragmentación de internet”; “Gobernando datos y protegiendo la privacidad”; “Facilitando la seguridad y rendición de cuentas”, y “lidiando con las nuevas tecnologías, incluso IA”.

Derechos Digitales estuvo nuevamente allí. Participamos de numerosos paneles y reuniones sobre inteligencia artificial, inclusión y regulación de plataformas (entre muchos otros temas), llevando preocupaciones y propuestas desde América Latina. Además, intervinimos en la sesión inaugural, buscando resaltar las desigualdades que permean el ecosistema de gobernanza de internet y demandar acciones proactivas que garanticen la participación equitativa de todas las partes interesadas.

El evento fue una oportunidad de reencuentro, articulación y profunda reflexión. Además, puso acento en la necesidad de coordinar debates globales y equilibrar voces. Es la primera ocasión en que el IGF vuelve a realizarse en un país del Sur Global, desde su décima edición en 2016. Y nuevamente se volvió destacar la necesidad de que estos países y sus comunidades tengan una participación activa en la definición de prioridades y la toma de decisiones.

Conectividad desde el Sur: inclusión digital entre contradicciones

La realización del IGF en Etiopía generó cuestionamientos en la sociedad civil, dentro y fuera del país. Mientras algunas personas y organizaciones optaron por no participar, otras, como la Asociación para el Progreso de las Comunicaciones (APC, de la cual Derechos Digitales es miembro), defendieron la participación en el evento para conectarse con organizaciones locales, visibilizar su trabajo y denunciar abusos a los derechos humanos ocurridos en el país. Eso fue reconocido por representantes de distintos sectores y países en la sesión de cierre, durante la cual una representante de la coalición de sociedad civil brasileña por derechos digitales agradeció la recepción local: “la historia de este país es inspiradora y todas deberíamos dedicar algún tiempo a aprender más sobre su lucha por la libertad”.

El foco principal de las demandas fue restaurar la conexión a internet en regiones como Tigré, en el norte de Etiopía, afectada por un conflicto armado entre fuerzas separatistas y el gobierno central desde fines de 2020. Los cortes de internet en el país y sus impactos fueron objeto de discusión en diferentes sesiones, actividades paralelas e, incluso, en eventos previos a la realización del IGF, que tenía la conexión de todas las personas como parte de sus temas centrales. Según el Consejo de Derechos Humanos de las Naciones Unidas, “las interrupciones del acceso a Internet menoscaban directamente los esfuerzos para cerrar la brecha digital […] lo que amenaza el logro de los Objetivos de Desarrollo Sostenible. Estas interrupciones socavan la capacidad de las personas de participar en los debates y las decisiones que configuran su vida y contribuyen a crear sociedades seguras y prósperas”.

Resulta inoficioso e inconsistente boicotear a un país del mundo mayoritario por sus situaciones de crisis de derechos humanos, mientras aceptamos aquellas provocadas o apoyadas desde el norte global. Tener parte del mundo conectado y parte del mundo excluido no es un problema meramente técnico o económico, ni un problema exclusivo del sur, sino un problema político global. Un futuro digital justo, inclusivo y sostenible demanda no solo un pacto global, sino responsabilidades compartidas, incluso desde los países más conectados en promover mecanismos de apoyo y cooperación que faciliten entornos propicios para su construcción.

Hacia un Pacto Digital Mundial

Más allá de las contingencias, debemos también considerar al IGF dentro del contexto global más amplio. En septiembre de 2021, la oficina del Secretario General de las Naciones Unidas lanzó el informe “Nuestra Agenda Común”, proponiendo un Pacto Digital Mundial (o “Global Digital Compact”), cuyo objetivo es esbozar “principios compartidos para un futuro digital abierto, libre y seguro para todos”. La propuesta orientó buena parte de las discusiones en el IGF17, así como en  la reciente reunión de Latinoamérica y el Caribe del IGF.

Por cierto, se trata de un proceso amplio y extenso. Desde hace varios años, los miembros de la Organización de las Naciones Unidas han tomado más seriamente la gobernanza de internet, designando un Panel de Alto Nivel sobre la Cooperación Digital en 2018, cuyo reporte de 2019 fue usado como la base para la Hoja de ruta para la Cooperación Digital del Secretario General de la ONU en 2020. Se creó desde la cabeza de la ONU una Oficina del Enviado del Secretario General para la Tecnología (el “Tech Envoy”) y en 2022 se designó un Panel de Liderazgo del IGF.

Sin embargo, el Pacto Digital Mundial —que será objeto de ratificación por la ONU en la Cumbre del Futuro en septiembre de 2024— debería ser un producto de deliberaciones como las que tienen lugar en el IGF. Por esto, a medida que las decisiones sobre el futuro de internet ganan mayor importancia, la centralidad del IGF como plataforma de colaboración y coordinación efectiva de múltiples partes interesadas debería aumentar en lugar de disminuir.

Más allá de las buenas intenciones de la ONU y los loables fines de los informes de alto nivel, es necesario reconocer un contexto de creciente fragmentación y segmentación en las decisiones sobre gobernanza de internet, lo que genera nuevos desafíos para la participación, por ejemplo, de organizaciones de la sociedad civil en los distintos espacios de debate. Frente a ese escenario, el rol de organizaciones como Derechos Digitales es clave en reclamar espacios como el IGF desde el mundo mayoritario, como uno de los pocos espacios multisectoriales donde todavía es posible tener una voz para influir en el futuro digital.

El IGF sigue siendo una oportunidad valiosa de cooperación entre la comunidad internacional dedicada a la defensa de los derechos humanos en el entorno digital. Que esa interacción tenga impacto real depende tanto de la propia comunidad como de la membresía ONU que ha puesto la atención en ella. Sin fingir ignorancia  sobre las fuerzas que intentan dar forma al futuro digital, la democratización de los espacios de gobernanza depende también de nuestra activa participación en los mismos.

Cyber-violencia contra mujeres y niñas: el caso de los stalkerwares

Desde el inicio de la pandemia por COVID-19, la violencia contra mujeres y niñas se ha agravado. Este aumento se compone de diversas aristas, y comprende aquello que ocurre tanto los espacios “físicos” como en internet.

De acuerdo con un estudio de la Unión Europea sobre “ciber-violencia” contra niñas y mujeres, existen diferentes tipos de violencia en internet, de las cuales se destacan el cyber-stalking (equivalente al ciber-acoso), trolling, cyber-harrasment (equivalente al grooming), cyber-bullying, discursos de odio online, flaming (comentarios de odio, insultos y otros), abuso sexual basado en compartir imágenes no consensuadas y doxxing (publicación de documentos y datos privados al público).

En línea con el reciente Día Internacional para Eliminar la Violencia contra las mujeres y niñas, y dentro del contexto de 16 días de activismo de Naciones Unidas, es necesario reflexionar sobre el stalkerware, un tipo de software que habilita una forma particular de violencia.

¿Qué es un stalkerware?

Normalmente comercializados como herramientas de seguridad para controlar el acceso al contenido online de niños y niñas, el stalkerware es precisamente lo que indica su nombre en inglés: software diseñado para acechar (observar con atención y con cautela a alguien sin ser visto) y acosar (perseguir sin tregua ni descanso a una persona a una persona).

Se trata de software que en muchos casos está disponible en el comercio y que al ser instalados en un celular, computadora u otros dispositivos electrónicos, otorgan acceso de forma remota a la información contenida en los dispositivos, pudiendo incluir la ubicación geográfica, las búsquedas en la web, mensajes de texto, correos electrónicos, fotos y contactos. Usualmente el stalkerware se ejecuta en segundo plano, sin que la persona afectada haya dado su consentimiento o siquiera sepa que está instalado en su dispositivo, y es común que el uso de estas herramientas se realice en el marco de una relación afectiva, (amigos, novios, familiares, etc.), cuando una persona busca controlar a la otra.

Uno de los problemas principales es el gran desconocimiento sobre los stalkerwares: según un reporte publicado por Kaspersky, un 60% de las personas no sabe de su existencia. Esta falta de reconocimiento e información genera vulnerabilidades que pueden facilitar el sometimiento de una persona a esta forma de violencia.

Un estudio publicado por Women’s Aid documentó que, en al menos el 29% de los casos de violencia intra-familiar, las parejas o ex parejas utilizaron stalkerware; por ejemplo, en múltiples casos en Estados Unidos, los perpretadores reconocieron instalar el software en teléfonos que regalaron a sus hijos e hijas después de un divorcio, con el objetivo de vigilar a la expareja. En otros países se identifican dinámicas similares en casos de “amistad”, las cuales instalaban stalkerware en el dispositivo de conocidos o también en el caso de parejas que no necesariamente experimentaban violencia física.

Sin embargo, todos los casos son claro ejemplo de una intención, realizada sin consentimiento, con el fin de tener poder y control por sobre la otra persona, lo cual es una trasgresión a la privacidad, acoso, y, por ende, violencia. 

Impactos más allá de internet

Todas las monedas tienen dos caras. Aquí, una cara es aquello que ocurre en línea y la otra es lo que sucede fuera de internet. Uno de los aspectos que deben ser considerados al entender los impactos de la utilización de stalkerwares es que no solamente tienen repercusiones sobre nuestras acciones en línea, sino que el acceso a la información personal y sensible, sin autorización, por parte de un tercero extiende su capacidad de control fuera de internet, perpetuando esta situación de violencia.

Para tener una radiografía de la situación del cyber-stalking, un estudio reciente de Plan Internacional reveló que más de la mitad de niñas y mujeres jóvenes, entre los 15 y 25 años, han sido víctimas de esta forma de violencia, mientras que el el 1er Estudio Nacional de Ciber Acoso y Salud Mental realizado en Chile, y publicado en 2021, revela que un 47% de las personas entre 15 y 29 años declara haber sido víctima de “violencia digital” en los últimos tres meses; tanto en 2020 como en 2021 se observó que la mayoría de las personas afectadas eran mujeres.

El stalkerware no es una consecuencia directa del cyber-stalking, sin embargo, es necesario considerar desde una perspectiva más amplia el contexto, como se explica en el reporte “Protecting Women and girls from violence in the Digital Age”: en una sociedad patriarcal, quienes cometen actos de violencia probablemente tienen una red de apoyo que se comporta de la misma forma, justifica y normaliza la violencia. Estos aliados, que antes solamente podían encontrarse de forma off-line, hoy en día comparten ideas que se desarrollan, fomentan y fortalecen en internet. 

Desafíos a futuro

Si bien en la región existen diferentes políticas públicas que abarcan estos temas, con la intención de mitigar la violencia contra mujeres y niñas en el ámbito digital se identifican dos desafíos principales, que deben ser tomados en cuenta para avanzar hacia la erradicación de la ciber-violencia: primero, no existe una definición universal, ni regional, que considere las violencias en internet y fuera de internet en un mismo nivel, dejando el ámbito digital como un área subyacente de la violencia con las mujeres y niñas. Se genera así la percepción de una falta de priorización de las variables involucradas en este tipo de violencias. 

Por otro lado, es clave considerar la importancia de reflexionar sobre la existencia de medidas efectivas para la erradicación de estas prácticas, las cuales deben ser aprendidas de la historia, dejando de tomar medidas centradas en las víctimas, sino que deben considerar los problemas estructurales a nivel macro, que permiten que estos problemas ocurran. La educación a potenciales perpetradores de este tipo de violencia y el reforzamiento de estructuras legales, que regulen y no permitan la agravación de estas situaciones, son clave para generar avances sustantivos.


Daniela Horta es Cientista política de la Pontificia Universidad Católica de Chile y Máster en Políticas Públicas: Desarrollo y Gobernanza del Institute of Social Studies – Erasmus University Rotterdam y la University of York. Actualmente está cursando una especialización en la universidad Roma Tre (Italia) en Política y Género, y es pasante en Derechos Digitales.

Privacidad por diseño y otros asuntos necesarios

Hace algunas semanas se celebró la reunión 115 del IETF, un foro del que hemos hablado antes, donde se definen los protocolos técnicos con que funciona internet. Esta vez los derechos humanos fueron tema de conversación en varias sesiones de trabajo, incluyendo la reunión abierta del Comité de Arquitectura de Internet (IAB por sus siglas en inglés), su directiva técnica. Allí se discutieron los mecanismos de censura de internet, y en general el rol de la tecnología en la crisis política y social que se vive actualmente en Irán.

En esa misma sesión se presentó una primera versión del documento Particiones para la privacidad, que propone una terminología común para los distintos protocolos que buscan mejorar la privacidad manejando por separado la identidad (quién) y los datos (qué) de las personas usuarias. Este tipo de protocolos están siendo desarrollados en cuatro grupos de trabajo dentro de IETF, y desde el IAB se espera recibir comentarios de retroalimentación para definir mejor en qué consiste el principio de “partición”, reconociendo que no es una solución completa, sino apenas una herramienta para mejorar la privacidad en internet.

Uno de los primeros comentarios recibidos propone alimentar el documento con el RFC6973 sobre consideraciones de privacidad para los protocolos de internet. Allí se declara que la forma más simple de reducir los riesgos para la privacidad asociados al uso de cierto protocolo consiste en “limitar la cantidad de datos que se pueden recolectar” a través de este; otro comentario plantea la necesidad de aclarar que los efectos positivos o negativos sobre la privacidad en estas arquitecturas, dependen de quién tenga la capacidad de decidir hacia dónde se dirige el tráfico particionado, ya que las arquitecturas más complejas tienden a promover una mayor centralización del mercado.

Los dos comentarios apuntan a asuntos que transcienden el carácter técnico de la discusión, pues tienen que ver con el poder de decisión sobre la manera como las empresas implementan los protocolos, es decir, qué tipo de información se espera que manejen, y cómo. En lo técnico, la discusión no se ha centrado en cómo recolectar menos datos, sino en desarrollar protocolos más sofisticados para que la misma cantidad de datos se maneje con “mejor privacidad” para las personas usuarias. Y este asunto está presente en distintos escenarios de IETF. Por ejemplo, durante una reunión paralela cuya convocatoria partía de la siguiente pregunta: ¿es posible un filtrado web que preserve la privacidad?

Las opciones técnicas para responder a esa pregunta apuntan al cifrado, pero como mencionó uno de los asistentes, la cuestión no es técnica sino política y el foco del problema no es el filtrado sino el consentimiento de la persona usuaria. Sin su consentimiento, cualquier forma de filtrado se convierte en censura y requiere un despliegue técnico más complejo. ¿Y para qué se necesita? En este caso, para combatir la explotación sexual infantil. El problema con las infraestructuras de censura es que, una vez establecidas, se pueden usar para propósitos muy diferentes, y con casos como este se corre el riesgo de cerrar rápidamente el debate pues resulta difícil oponerse a la urgencia de proteger los derechos de los niños, niñas y niñes.

Como señala la antropóloga Corinne Cath-Speth en su artículo La tecnología que decidimos crear, la preocupación por el ejercicio de derechos humanos ha estado presente en IETF desde hace décadas. Sin embargo, la idea compartida de que quienes diseñan las tecnologías no deben ordenar la manera como estas deben ser usadas, dificulta mucho la posibilidad de sostener discusiones explícitas sobre derechos humanos durante el proceso de diseño de protocolos, pues se considera que todo lo que no pueda ser medido, probado estadísticamente y observado en la red, no puede hacer parte del proceso de diseño.

Este artículo fue ganador del Premio a la Investigación Aplicada en Redes 2022 por la descripción etnográfica que hace de la cultura organizativa del IETF y cómo esta limita la capacidad de quienes defienden los derechos humanos para incluir sus preocupaciones en los debates técnicos. Durante IETF 115 fue presentado en dos sesiones: la reunión abierta del Grupo de investigación de internet (IRTF por sus siglas en inglés) y el Grupo sobre consideraciones de derechos humanos en los protocolos (HRPC por sus siglas en inglés).

Para la autora, quien participó de la creación de HRPC en 2014, el panorama hoy ha cambiado bastante y este premio es una muestra de ello. Por eso, considera necesario pensar en cuáles son los siguientes pasos para continuar integrando las discusiones políticas dentro del desarrollo técnico. En concordancia, desde la coordinación de HRPC se propuso una revisión de los objetivos y alcance del Grupo, que se realizará de aquí a la próxima reunión, en marzo de 2023.

En nuestra experiencia como Derechos Digitales, que hemos intentado participar activamente desde 2017, en IETF se está abriendo un campo cada vez más propicio para la incidencia de temas de derechos humanos y justicia social, desde las etapas tempranas de diseño de tecnologías de internet. Todavía falta mucho, y vale la pena involucrarse en esta conversación.

Zero-rating: una discusión ineludible

Es probable que cuando hayas contratado un paquete de datos móviles, de prepago o pospago, tu proveedor te haya ofrecido el que incluye redes sociales “gratis” o “ilimitadas”, como Facebook, WhatsApp, Instagram o Twitter. En algunos casos, incluso puedes seguir utilizando estas aplicaciones una vez consumidos los datos móviles contratados. Esta práctica se denomina zero rating o “tarifa cero”.

En Derechos Digitales creemos que este modelo de acceso a internet vulnera el principio de la neutralidad de la red cuando es aplicado sin un diagnóstico sobre las necesidades de la población. Para que internet funcione de manera abierta y libre es necesario que los proveedores de servicios de internet (PSI) no intervengan el flujo de datos, privilegiando algunos contenidos, servicios y aplicaciones sobre otras. Eso es precisamente lo que hace el  zero rating, favorece el uso de un grupo de aplicaciones. La consecuencia es que la experiencia de internet se reduce a aquello que circula en un puñado de redes sociales.

Por ello,  la tarifa cero es en un tema de derechos humanos, pero que también compete al mercado. Cuando se aplica el zero rating, se promueve una “lógica de escasez artificial”, lo que significa que, al haber un cúmulo de información limitada (solo la que se encuentra en estas aplicaciones), las personas modifican su comportamiento y “eligen” usar aplicaciones “gratuitas”. Esto beneficia tanto a los PSI como a las empresas que logran generar este tipo de acuerdos, pues la “oferta” facilita atrae nuevos clientes. Sin embargo, perjudica a las poblaciones con menores ingresos, que solamente pueden experimentar esta versión reducida de internet, con limitaciones a su derecho al acceso a la información y a la libertad de expresión.

El caso colombiano ante la Corte Constitucional

El zero rating es una práctica extendida en toda América Latina. En Colombia, el artículo 56 de la Ley 1450 de 2011 establece que los PSI “podrán hacer ofertas según las necesidades de los segmentos de mercado o de sus usuarios de acuerdo con sus perfiles de uso y consumo, lo cual no se entenderá como discriminación”. Sin embargo, un grupo de ciudadanas y ciudadanos liderados por la activista Ana Bejarano, de la organización El Veinte, interpuso una demanda para solicitar la inconstitucionalidad de esta sección del artículo. En respuesta, la Corte Constitucional abrió un proceso de participación al que actores provenientes del sector privado, instituciones públicas, universidades y organizaciones de la sociedad civil realizaron un total de 24 contribuciones.

Derechos Digitales participó del proceso mediante la presentación de un amicus curiae. Además, la Corte Constitucional convocó a una audiencia pública que concentró a un grupo multisectorial para entregar opiniones especializadas en la materia. A lo largo de la audiencia hubo diversas posturas encontradas. Mientras que los representantes del sector privado y Gobierno defendieron el zero rating, por considerarlas medidas para la reducción de la brecha digital, la sociedad civil constató que es una práctica que limita el acceso a una internet libre, abierta e inclusiva.

Organizaciones como DeJusticia, R3D, Fundación Karisma y Derechos Digitales hicimos visible que el zero rating podría representar un falso dilema, en el que se cree que el acceso a redes sociales equivale a  internet, siendo que en realidad solo representa lo que ocurre en un universo muy acotado de aplicaciones, beneficiando al mercado compuesto por PSI y plataformas digitales. Si bien desde sociedad civil se reconoce que el zero rating permite un primer encuentro con internet, también se sostiene que no resuelve la brecha de acceso.

En tal sentido, las propuestas fueron diversas. Por una parte, se planteó trabajar en la conectividad mediante la implementación de políticas públicas, en conjunto con una tarifa cero temporal que desaparezca con el paso del tiempo cuando la brecha se haya cerrado. Por otra, hay quienes propusieron un zero rating “agnóstico”, el cual no privilegia un grupo de aplicaciones, sino que propicia otras medidas basadas en las necesidades y posibilidades en las poblaciones, como, un número de datos gratis para ser usados en determinadas zonas geográficas o en horas específicas, por ejemplo, en horario de bajo tráfico en la madrugada.

También hay quienes proponen la inconstitucionalidad total de la medida y piden su prohibición. En la audiencia, el sector privado estableció que la oferta de tarifa cero se define con base en análisis de mercadeo, que tienen como insumo bases de datos anonimizadas. Esto resulta en la identificación de “preferencias” sobre las plataformas utilizadas. Frente a esto, la sociedad civil dejó entrever que los resultados de estos análisis no hacen referencia a las “preferencias”, sino a comportamientos que pueden estar influenciados por múltiples factores sociales y económicos.

Con estos argumentos, las organizaciones de la sociedad civil contribuyeron a favor de la demanda impuesta por el grupo de ciudadanas y ciudadanos, exponiendo los problemas que esta práctica implica para la libertad de expresión.

Colombia no es el único país que necesita una decisión judicial firme: la experiencia comparada

Uno de los puntos expuestos por la sociedad civil y los expertos convocados a la audiencia fue la experiencia de otros países. A diferencia de lo que afirman las empresas, existen importantes decisiones judiciales que reconocen que tales prácticas son incompatibles con la neutralidad de red.

El Tribunal de Justicia Europeo entiende que tales prácticas son ilegales, porque no cumplen con las salvaguardas del acceso a internet abierta y “sin discriminación, restricción o interferencia, e independientemente del emisor y el receptor, el contenido al que se accede o que se distribuye, las aplicaciones o servicios utilizados o prestados, o el equipo terminal empleado”. El regulador europeo actualizó recientemente su regulación en la materia para cumplir y dar seguimiento a estas decisiones judiciales. Las nuevas directrices del BEREC (la agencia de regulación del mercado de las telecomunicaciones en la Unión Europea), publicadas en junio de este año, se oponen explícitamente al uso de todas las opciones de zero rating en toda Europa

Hoy BEREC considera que cualquier práctica de precios diferenciados que no sea independiente de la aplicación (application-agnostic) es inadmisible para las ofertas de los proveedores de internet. La decisión que tomará la Corte Constitucional de Colombia en este caso es fundamental en América Latina, pues sentará un precedente para garantizar la neutralidad de la red. Declarar la inconstitucionalidad, total o parcial, puede abrir una puerta para que otros países eliminen sus prácticas de zero rating o las transformen en iniciativas agnósticas o temporales basadas en necesidades locales.

 De otro modo, declarar la constitucionalidad y mantener esta práctica, tal cual se aplica actualmente, puede perjudicar el debate en la materia. Está en las manos de las magistradas y magistrados de la Corte colombiana definir si tendremos un acceso a internet libre y abierto o un acceso limitado que no garantiza el cumplimiento de los derechos humanos.

Twitter: ¿El principio del fin?

Finalmente sucedió. Después de varios meses de especulación, y ante el riesgo de tener que ir a juicio, Elon Musk se convirtió en el dueño de Twitter. Y las cosas van más o menos como se esperaba: despidos masivos, una caída importante en los ingresos por avisaje y una sensación de caos generalizado al interior de la compañía.

Ciertamente, hay algo gratificante en ver fracasar a un multimillonario fanfarrón. Y, sin embargo, la eventual ruina de Twitter puede y debe ser entendida también como una pérdida para sus varios millones de usuarios y usuarias alrededor del mundo. Las expectativas crecen con cada nuevo chisme y con cada nuevo error. En este preciso instante, las oficinas de Twitter están cerradas, después de que una gran mayoría de los empleados haya optado por rechazar un ultimátum de Musk. Más que nunca, el futuro es incierto.

¿Es esto simplemente la obra de un hombre particularmente poco adecuado para el trabajo que compró o es sintomático de algo mayor? ¿Cómo nos afecta este fiasco a quienes usamos la plataforma? ¿Qué podemos aprender de todo esto y qué es lo que sigue?

La libertad de expresión en riesgo

La compra de Twitter ha estado ligada a una serie de declaraciones críticas realizada por Elon Musk sobre el rol de Twitter en relación con la libertad de expresión, que muchas veces hacen eco de predicamentos infundados de la derecha política estadounidense.

A fines de enero de este año, cuando recién había comenzado a comprar acciones en Twitter, Musk criticó a la plataforma por no “adherir a los principios de la libertad de expresión”. Tras la adquisición, a fines de octubre, Musk intentó clarificar su postura, señalando que por libertad de expresión entiende “aquello que la ley permite” (más precisamente, la ley de Estados Unidos). 

Musk se autodefine como un absolutista en materia de libertad de expresión, pero su historial señala algo distinto: “Comedy is now legal”, decía una de las primeras publicaciones que realizó tras convertirse en dueño de Twitter, aludiendo a la idea de que la corrección política destruye no solo la comedia, sino a la civilización. Y sin embargo, quienes osaron burlarse del nuevo dueño vieron sus cuentas suspendidas. Tanto sus acciones como sus dichos demuestran la escasa comprensión que tiene Elon Musk de los complejos desafíos que supone defender la libertad de expresión en internet, en una plataforma de escala global.  

Entre los primeros despidos estuvo el equipo de derechos humanos, el equipo encargado de la accesibilidad para personas discapacitadas y el equipo dedicado a la ética y transparencia algorítmica.  Muy comentado fue el despido de Vijaya Gadde, jefa legal de la compañía y responsable de distintas decisiones en materia de libertad de expresión, moderación de contenido y seguridad de la plataforma: fue ella la que decidió vetar a Donald Trump y prohibir la venta de publicidad electoral en Twitter. En abril, Musk había compartido un meme burlándose de la ejecutiva, lo que le significó recibir gran cantidad de mensajes de odio.

La nueva administración está desmantelando la estructura creada por Twitter para combatir las verdaderas amenazas a la libertad de expresión: el discurso de odio, la violencia y la persecución política. Durante el fin de semana recién pasado, despidieron al equipo encargado de moderar este tipo de contenidos.

Los principales perjudicados de un brusco cambio de dirección en materia de libertad de expresión son los disidentes políticos, particularmente en países autoritarios y en las zonas de conflicto, además de las mujeres, las personas LGBTQI+ y los miembros de grupos históricamente marginados, quienes son las principales víctimas de acoso y violencia a través de Twitter.

Actualmente, Twitter está en medio de un litigio de muy alto perfil en India, enfrentándose a un Gobierno muy propenso a hacer uso de una ley que les faculta a exigir el bloqueo de plataformas y cuentas que han publicado información que consideran difamatoria. El impacto puede ser vasto, pero si continuarán con este proceso es un misterio. Como hemos mencionado antes, el respeto por los derechos humanos en la plataforma no puede depender de su propiedad, pero ese es el piso mínimo. Un verdadero compromiso con la libertad de expresión requiere tomar pasos extra, incluyendo enfrentar juicios que son largos, pesados y costosos. No obstante, la compleja situación económica en la que se encuentra Twitter hace difícil que esto pueda materializarse.

¿Cuánto vale Twitter?

¿De qué hablamos cuando hablamos del colapso de Twitter? No se trata de que, de un día para otro, la empresa simplemente deje de existir, sus servidores desconectados de internet, inaccesibles. Después de todo, los retazos de MySpace todavía están en línea. Más bien es el punto en el que, debido al desmantelamiento de los diferentes procesos y sistemas que establecen mínimos básicos de civilidad, la plataforma se torna suficientemente poco atractiva y las usuarios y usuarios dejan de utilizarla, al punto de la irrelevancia.

Se trata de un escenario plausible y frustrante, particularmente para quienes han invertido tiempo y esfuerzo creado redes y un número importante de seguidores en Twitter. Cambiar de plataforma implica no solamente dejar atrás un trabajo arduo y constante, sino que además es perder una audiencia. Tener que hacerlo por la incompetencia del hombre más rico del mundo es todavía peor.

Musk pagó 44 mil millones de dólares por Twitter y existe consenso respecto a que la cifra es excesiva, cuestión que él mismo ha reconocido (no olvidemos que intentó dar marcha atrás con el acuerdo y no pudo). Se estima que el valor real de la plataforma ronda los 25 mil millones de dólares. De cualquier forma, no valdría absolutamente nada si nadie la usara. El verdadero valor radica en la suma del esfuerzo invertido por cada persona que publica, comparte, comenta, lee, sigue y agrega a sus favoritos.

Siguiendo a Antonio Negri y Michael Hardt, podríamos denominar a esta lógica como bioeconómica, a partir del desarrollo del concepto foucaultiano de biopoder: “La vida ya no es producida en los ciclos de reproducción subordinados a la jornada laboral; por el contrario, la vida es la que infunde y domina toda la producción. De hecho, el valor del trabajo y la producción está determinado en las profundidades de la víscera de la vida. La industria no produce más excedente que el generado por la actividad social”.

No es la tecnología, son las personas. La plataforma y la tecnología constituyen los medios de producción para una forma particular de comunicación conocida como Twitter. La economía de las redes sociales está construida sobre la explotación de la totalidad de las relaciones sociales entre usuarios y usuarias, entendidas como trabajo y rentabilizadas en el mercado de valores y en la venta de avisaje. El producto no eres tú, si no los lazos comunicativos que estableces en la plataforma.

Por ello, tener que renunciar a Twitter es perder dos veces: es el despojo del valor de tu trabajo en la plataforma en tanto usuario, así como del capital social que has sido capaz de acumular. Por lo mismo, las especulaciones sobre un potencial modelo de suscripciones se siente como una estafa, y muy probablemente no funcione.

Sin embargo, no son muchas las opciones de Musk, quien está obligado a encontrar una forma en la que la plataforma genere dinero. Sin embargo, las transformaciones impuestas desde el inicio de su mandato apuntan en la dirección contraria.

Pero ¿es solo Twitter?

Mientras la atención estaba puesta en Elon Musk, Mark Zuckerberg aprovechó de despedir a 12000 empleados, aproximadamente el 13% del personal de la compañía y casi el triple de despidos que en Twitter. Las acciones de META han caído un 70% durante este año, perdiendo una capitalización de mercado cercana a los 800 mil millones de dólares.

Las razones son múltiples: demasiado personal contratado para trabajar en proyectos fracasados en un intento por retener un sitial que la compañía, alguna vez todopoderosa, ha comenzado a perder frente a competidores con los cuales no sabe cómo competir. La obsesión de Zuckerberg con construir el Metaverso tampoco ayuda. Reality Labs, la empresa encargada del desarrollo del Metaverso, perdió más de 21 mil millones de dólares entre 2019 y 2021, con otros 9.4 mil millones en pérdidas durante los últimos tres cuatrimestres.

Financieramente, las cosas son todavía peores en Twitter. En el último reporte cuatrimestral previo a la compra, la compañía reportó una pérdida de $344 millones de dólares. Para financiar la adquisición, Musk tuvo que reunir una deuda de alrededor de 13 mil millones de dólares, que acumulan anualmente alrededor de mil millones de dólares en intereses. Musk desesperadamente necesita hacer rentable la compañía, pero Twitter solamente ha logrado utilidades durante dos periodos en su historia.

Tanto la obsesión de Zuckerberg con la realidad virtual, como el desastroso intento de Musk de cobrar por verificación en Twitter dan cuenta de lo mismo: ambas compañías ven la necesidad de encontrar nuevas fuentes de financiamiento, distintas del avisaje. Si a ese cuadro agregamos las múltiples dificultades asociadas a la moderación de contenidos en plataformas con pretensiones globales —que constituye el núcleo fundamental de una plataforma que necesita atraer usuarios y publicidad— y el surgimiento de nuevas lógicas respecto al modo en que nos relacionamos con el contenido online, quizás lo que estamos presenciando sea el estallido de la burbuja, el fin de una era, el abandono próximo de una forma de producción en línea que no es sustentable.

Varias voces comienzan a declarar el fin de las redes sociales (algunas, con argumentos más conservadores que otras). Puede ser, si de algo podemos estar seguros es que todo termina, todo muere.  ¿Y ahora qué? Durante los primeros días del reinado de Musk en Twitter muchas personas acudieron a Mastodon, una plataforma caracterizada como el anti-Twitter. Y aunque Mastodon tiene sus propios problemas y es difícil saber si este influjo de nuevos usuarios se mantendrá en el tiempo, hay algo respecto de los postulados con los que está construido que puede dar pistas respecto a las amplias posibilidades de la experiencia online. 

Quizás el futuro pueda ser a escala humana: más pequeño, más localizado, más comunitario, más silencioso.

Veremos.

Las máquinas no son suficientes

Palabras como “bot”, “algoritmo” e “inteligencia artificial” se han vuelto parte de nuestro lenguaje cotidiano. A pesar de que muchas veces no tenemos del todo claro qué significan, aluden a un imaginario de total automatización, sistemas súper inteligentes capaces de tomar mejores decisiones, más rápido, sin sesgos, basadas en el análisis de grandes volúmenes de datos.

Sin embargo, la realidad está muy lejos. Y cuando hablamos de la moderación de contenidos en redes sociales son necesarias personas que trabajan como “escudos humanos de internet”, dedicadas a leer, escuchar y mirar todo lo que el resto del mundo no quiere ver.

La moderación de contenidos es un trabajo esencial  en las redes sociales y tiene como función mantener los contenidos de las plataformas en un mínimo aceptable tanto para asegurar la experiencia de las comunidades de usuarias y usuarios, como para incentivar la inversión publicitaria. En 2021, los ingresos de compañías como Meta y TikTok superaron los  50.000 millones de euros, un negocio que solo es posible gracias a la moderación de contenidos.

Se trata de un trabajo que, en gran medida, se hace de forma manual: equipos de personas buscando y marcando textos, imágenes y audios inapropiados; clasificación que, a su vez, se utiliza para entrenar sistemas automatizados. Es decir, la capacidad de un algoritmo para identificar contenido nocivo descansa en trabajo humano. Cada vez que un contenido es retirado de una plataforma, este ha sido visto y marcado por un moderador de contenido humano o un sistema automatizado entrenado con datos proporcionados por un humano.

En general, se trata de un mal trabajo. En su libro GhostWork: How to Stop Silicon Valley from Building a New Global Underclass (Trabajo fantasma: cómo evitar que Silicon Valley construya una nueva subclase global) la antropóloga Mary L. Gray y el científico social Siddharth Suri analizan particularmente el rol de los etiquetadores de datos y moderadores de contenido.

Diariamente, el 98% de los contenidos violentos son retirados de las plataformas por humanos. Quienes realizan estas tareas están sujetas a múltiples riesgos, incluyendo daño psicológico, producto tanto del tipo de contenidos al que están expuestas —asesinatos, suicidios, pedofilia, accidentes y hasta canibalismo, lo peor de internet— y condiciones laborales precarias: vigilancia laboral extrema y jornadas extenuantes, en un trabajo de corta permanencia y alta rotación que no provee la atención psicológica necesaria. Algunas de las consecuencias que se han identificado son son síntomas de ansiedad, depresión y trastorno de estrés postraumático.

Además, es común que las compañías contraten empleados a través de empresas tercerizadas, lo que dificulta la sindicalización y la posibilidad de rechazar prácticas poco éticas o exigir mejores condiciones de trabajo.

Recientemente en Colombia, donde se encuentra uno de los principales centros de moderación de contenidos de TikTok en América Latina (el otro es Brasil), un grupo de empleados denunció sus condiciones laborales, que implican jornadas de 10 a 12 horas, 6 días a la semana, por un salario que apenas supera el mínimo. A cambio, deben analizar más de 1.200 vídeos cortos por turno, con escasos para tomar una decisión respecto a si el contenido viola o no las normas de la plataforma.

 Además, deben mantener su cámara encendida durante todo el turno, para asegurar que nadie más vea el contenido, y su escritorio debe permanecer vacío, con excepción de un vaso transparente con líquido.

Mientras nos enteramos que una red social se vende por sumas exorbitantes y escuchamos sobre los miles de trabajadores despedidos en otra, es mandatorio que reflexionemos sobre el trabajo de las personas que permiten el funcionamiento de las plataformas, quienes aportan la materia prima sobre la cual se sustenta el negocio.

Salarios justos, beneficios laborales, entrenamiento, condiciones mínimas de seguridad y apoyo psicológico a quienes se enfrentan a contenidos que luego serán vetados debería ser una condición irrenunciable para quienes aspiramos a habitar espacios virtuales más democráticos y humanos.

Guacamaya: El espectro de color de su mensaje

Una vez más es a través de la acción de un grupo de activistas informáticos que varios países de América Latina (Chile, Colombia, El Salvador, México y Perú, hasta ahora) han conocido información acerca de las acciones reñidas con el estado de derecho que dan cuenta de la vigilancia selectiva de periodistas y activistas de derechos humanos, así como de otros ilícitos de corrupción, obstrucción de la justicia y asociación criminal.

La técnica utilizada por los especialistas informáticos no reviste el nivel de sofisticación a que la ciencia ficción nos tiene acostumbradas Más bien toma ventaja de la falta de diligencia de los organismos públicos implicados para protegerse de las vulnerabilidades de los softwares que utilizan en sus labores, las cuales venían siendo advertidas por los proveedores a sus usuarios desde marzo de 2021.

Pero más allá de la espectacularidad de la deficiencia de los ejércitos de la región implicados en las revelaciones -que se sirven de tecnología sofisticada de vigilancia, pero fallan en actualizar sus softwares más básicos- lo que nos interesa aquí es dedicar una reflexión a la tensión que esta nueva filtración revela entre el interés público y la proporcionalidad de los impactos de tal revelación para individuos y países.

La falta de mecanismos efectivos de control sobre la acción de fuerzas armadas y sistemas de inteligencia dependientes de éstas en nuestra región, nos deja sistémicamente con este tipo de filtraciones como la única fuente efectiva de información para que -mediada por la valiente acción de sus reveladores y de la prensa que la procesa- la ciudadanía tenga ocasión de exigir rendición de cuentas a estos organismos y al poder político que se supone los controla, pero que como la información muestra se presenta muchas veces como cómplice o encubridor de las acciones ilegales reveladas.

Aquí la reflexión se encamina hacia los componentes de una tormenta perfecta: por un lado, la tecnología de vigilancia continua su avance de sofisticación, la oferta de tecnología de vigilancia en nuestra región se hace más atractiva comercialmente, y los Estados acceden a ella con mayor frecuencia y facilidad, sin que su alto costo sea un obstáculo. Pero al mismo tiempo, nuestros países aún carecen de marcos normativos nacionales sólidos y estructuras de control independientes capaces de realizar el escrutinio de qué se adquiere, para qué y cómo se usa en la práctica.

La sociedad civil de nuestra región, enfocada en la defensa de los derechos digitales viene advirtiendo desde años la necesidad de robustecer los marcos normativos para poder exigir la rendición de cuentas de los organismos estatales que tienen acceso a tecnologías de vigilancia bajo razones de control de orden público y seguridad nacional, pero hasta ahora no existe ningún país en la región que esté a la altura de lo que requiere una protección efectiva de los derechos fundamentales y el estado de derecho. Aquí es que Derechos Digitales y otras organizaciones de la región venimos abogando por un rol para la Comisión Interamericana de Derechos Humanos a través de la creación de estándares anclados en la Convención Americana de Derechos Humanos que orienten a los países de la región en el control del uso de la tecnología de vigilancia para que respete los derechos humanos.

Además de los estándares de control del uso de la tecnología por los organismos estatales cabe preguntarse por el impacto de las revelaciones Guacamaya en el interés colectivo desde la perspectiva de su proporcionalidad. Bienvenido es saber de los ilícitos que se han cometido en el uso de la vigilancia ilegal y otros crímenes revelados, pero ¿qué pasa con todos aquellos que aparecen tocados por las revelaciones como testigos, víctimas o ejemplos de resistencia interna? ¿Cuánto sacrificio de su propia intimidad y derechos es admisible en miras del interés público de la revelación? ¿Es este ejercicio de balance efectivamente conducido en forma previa a la revelación por parte de los grupos activistas responsables de ellas? ¿Qué medidas pueden adoptarse proactivamente por las reveladoras o la prensa para prevenir el impacto individual negativo de las revelaciones?

Una última arista de la revelación de información sobre el accionar de las fuerzas armadas de este caso es el impacto que tal información puede tener en la soberanía y seguridad nacional de los países implicados, así como ellas evidencian pobres desempeños en la garantía de la ciberseguridad. Más allá de la absoluta necesidad de poner límite y fin a las acciones ilícitas reveladas, cuidado con arrojar el bebé junto con el agua de la bañera, ya que mucha de la información revelada también da cuenta de acciones estratégicas de los organismos y puede generar incentivos al desarrollo de acciones maliciosas contra la seguridad y estabilidad nacional, que a la larga repercuten en un ambiente más inseguro e inestable para el ejercicio de derechos de la ciudadanía.

Confiamos en que más allá del impacto de las concretas revelaciones de la filtración Guacamaya, estas sirvan para llamar la atención en nuestra región hacia la urgencia de: estándares (nacionales y regionales) de control efectivo del uso de tecnología de vigilancia; un activismo informático balanceado que resguarde proporcionadamente los derechos de la ciudanía que están implicados en este tipo de revelaciones; y una conducta responsable de los organismos públicos en la garantía de la ciberseguridad de sus operaciones en protección de su ciudadanía.

Ola Bini: Daños colaterales

El pasado 28 de agosto, el periodista Diego Cazar publicó en línea Colateral, libro en el que, a través de un relato periodístico, cuenta la persecusión vivida por Ola Bini, pero además profundiza en el aspecto humano. Yo trabajaba con Ola Bini al momento de su detención y pasé un momento difícil al convertirme en un personaje secundario en esta historia.

Mi trama fue relativamente tranquila comparada con las de otras personas que, de forma colateral, han sufrido debido a la persecución del Estado ecuatoriano a Bini. Uno de estos casos es el de Ricardo Arguello, que fue involucrado por una estrategia de la fiscalía para conseguir 30 días más de instrucción fiscal; o el del perito Fabián Hurtado que, tras realizar una pericia de parte, sufrió el allanamiento de su casa por la fiscalía, sin motivos claros.

Muchas veces nos indignamos con las historias que vemos en la prensa o en redes sociales y luego nos olvidamos, pero ¿Qué sucede con la gente a la que le tocó ser protagonista de una de estas historias? ¿Cómo se sintió el perito Hurtado y su familia luego de haber sido allanados de forma violenta en la madrugada? ¿Cómo se sintieron Ricardo y su familia al saber que serían parte de un juicio politizado en el que el adversario es el poder del Estado? En Colateral, las y los protagonistas cuentan sus historias. Historias de terror.

Me gustaría que en el libro se hablara de la justicia ecuatoriana, pero, lamentablemente, se trata sobre la injusticia presente en mi país. Mucho se dijo durante el gobierno de Lenin Moreno sobre la independencia del poder. Sin embargo, una rueda de prensa de la Ministra del Interior hablando de ataques informáticos y planes de desestabilización bastó para que Fiscalía inicie una investigación y que un juez determine la prisión preventiva contra Ola, que duró 70 días.

Además de la privación de libertad, todos los dispositivos informáticos de Ola Bini fueron confiscados y en un iPhone encontraron la prueba madre de la que se lo acusa ahora: una fotografía de pantalla tomada en el año 2015 cuándo Lenin Moreno todavía no era presidente. En otras palabras, Ola estuvo preso 70 días por algo distinto a lo que se le acusa.

Cuando no existe independencia de poderes, se podría esperar que la prensa cumpla su rol de informar a la ciudadanía y cuestione al poder. En el caso de Ola Bini, los medios de comunicación masivos y varios portales de internet se encargaron de posicionar el relato del gobierno y de estigmatizar a Bini, exponiéndolo como un ser extraño, capaz de destruir cualquier sistema informático. Pocos se tomaron el trabajo de conocer el trabajo de Ola y tratar de entenderlo.

Uno de esos pocos es Diego Cazar, que en Colateral cuenta varias de las ocasiones en la que los medios de comunicación —en vez de investigar y cuestionar al poder— hicieron eco de su relato o inventaron historias (como la de Ola Bini espiando a favor del gobierno de Moreno desde la cárcel).

Algo que siempre me llamó la atención de este caso es que nunca vi en la prensa la versión de la fiscalía. El libro rompe con este silencio a través de una conversación con el fiscal Chávez, donde queda claro que él no tiene conocimientos básicos de informática.

El caso de Ola Bini todavía no termina y el 11 de noviembre de este año se reanudarán las audiencias, siempre y cuándo no se suspenda, como sucedió en octubre de 2021 y en agosto de este año. A medida que escuchamos más voces, nos adentramos en los daños colaterales que siguen surgiendo del caso. La privacidad en internet está en riesgo permanente y es tarea de todes escuchar a las personas expertas en seguridad digital en lugar de ignorarlas y perseguirlas.

Quien quiera acceder al libro puede escribir a: info@tizarron.com

(Re)construir internet desde Latinoamérica y el Caribe

Esta historia comenzó así: hace diecinueve años, la Unión Internacional de Telecomunicaciones organizó la Cumbre Mundial sobre la Sociedad de la Información, con el fin de discutir y elaborar estrategias para eliminar la brecha digital en el acceso a internet y telecomunicaciones en todo el planeta. Los dignatarios reunidos en ella solicitaron, al Secretario General de las Naciones Unidas, levantar un Grupo de Trabajo sobre Gobernanza de Internet el que, luego de su establecimiento y elaboración de consultas abiertas sobre el tema en 2004 y 2005, propuso en su informe final la creación del Foro de Gobernanza de Internet (IGF, por sus siglas en inglés).

Desde entonces, el Foro de Gobernanza de Internet ha celebrado sesiones anuales en las que representantes de alto nivel del mundo, actores de la sociedad civil, sector privado, academia y otros se reúnen para debatir en torno a los temas más relevantes relacionados con internet y tecnologías. Estas discusiones se nutren de consultas previas, realizadas en línea y abiertas para todos, que perfilan las prioridades y asuntos claves a tratar durante el desarrollo del foro y, además, de los resultados emanados de las distintas iniciativas regionales que alberga el IGF.

De esta suerte nace el Foro de Gobernanza de Internet de América Latina y el Caribe, —conocido como LACIGF— en 2008 y que, a contar del lunes 24 de octubre, inicia su 15° edición. El evento se realizará de manera virtual y entre sus expositores estarán destacadas organizaciones de la región para reflexionar sobre los retos, perspectivas y experiencias de la gobernanza de internet desde una perspectiva latinoamericana, junto con posicionar asuntos de vital importancia en el contexto pospandemia, a saber, la protección de los derechos humanos en entornos digitales y de los datos personales, y pensar el futuro de la información en un escenario donde los contenidos engañosos campean a sus anchas en internet.

El LACIGF nos permite y faculta pensar nuestro lugar en el mundo. Si bien el evento es un foro de preparación previo al desarrollo del IGF, hoy creemos que esta versión regional es mucho más que eso y los resultados de su consulta pública lo demuestran: reducir la brecha digital es un objetivo noble, pero para la región no basta, ya que la demanda por acceso universal a internet se repite en múltiples ocasiones; asimismo, la protección de los datos personales y la aplicación de los derechos humanos en entornos digitales también es una cuestión crucial para entender cómo nos localizamos, desde Latinoamérica y el Caribe, en tanto habitantes de internet. No es posible que dicho espacio espejee las desigualdades estructurales observadas en el mundo entero, a lo largo de siglos. La principal virtud del LACIGF es que ofrece un espacio de carácter único, abierto a todos, donde todos los grupos de interés participan, efectivamente, en igualdad de condiciones.

Para esta edición queremos hablar en serio de gobernanza de internet y políticas digitales con perspectiva regional, y desarrollar una hoja de ruta que nos guíe hacia el establecimiento de un terreno común desde el cual construir una nueva forma de entender el ciberespacio, aportando con nuestras experiencias y conocimientos situados. Los desafíos son muchos y de enormes proporciones: la masificación de la inteligencia artificial, la consolidación de la economía digital y la tensión que existe respecto de la neutralidad en la red son los temas de vanguardia para los que no queremos esperar a que el norte global resuelva qué hacer.

¡Manos a la obra! Les invitamos a participar de este encuentro y a posicionar, en conjunto, a la región en la discusión global sobre internet con una voz autónoma y propia. Entre el lunes 24 y el miércoles 26 de octubre, en nueve sesiones, conversaremos estos temas y construiremos, de manera colectiva, el futuro de este bien común de la humanidad. Revisa aquí los detalles del evento y motívate a ser parte del LACIGF15. La inscripción está disponible en este enlace.

Bloqueo de transmisiones: Un partido difícil

La idea de regular y dar de baja contenidos se viene discutiendo en el país hace ya tiempo. La búsqueda de soluciones a la “piratería” están en la mesa de diálogo de diferentes partidos políticos y cámaras empresariales. Sin ir más lejos, en el actual proyecto de “Rendición de cuentas y balance de ejecución presupuestal» , que se encuentra a estudio del parlamento uruguayo, se incluyen algunos artículos referidos a la temática.

    Específicamente, el tema es tratado  entre los artículos 214 y el  216, siendo el 215 una herramienta fundamental para el análisis de la propuesta que el actual gobierno pretende que se apruebe. 

El mencionado artículo indica (entre otros puntos) que “La Unidad Reguladora de Servicios de Comunicaciones (URSEC) podrá solicitar la inhabilitación en tiempo real del acceso a contenidos ilegales de eventos deportivos en directo en línea”.  Esto se podrá realizar “tras denuncia del titular de los derechos o representante con facultades suficientes, podrá dictar medidas cautelares de bloqueo que se ejecutan temporalmente, con un máximo de treinta días, para bloquear el sitio web infractor durante la duración del evento,independientemente del nombre de dominio o dirección IP utilizada, y sin necesidad de que se emita un nuevo amparo”. 

Una vez que la medida cautelar sea dictada, “los intermediarios o los proveedores de acceso a internet (ISP), según corresponda, deberán retirar las emisiones ilegales de eventos deportivos en directo en línea o la desactivación del acceso a ellas, lo más rápido posible y que, en cualquier caso, a más tardar dentro de los treinta minutos a partir de la recepción de la notificación del titular de los derechos o de representante con facultades suficientes de la existencia de dichas emisiones ilegales, identificando con altísima precisión la retransmisión ilícita y un casi nulo margen de error”.

Lo que se busca es modificar el artículo 712 de la actual ley de Presupuesto, que actualmente permite el bloqueo de páginas web que ofrecen servicios de televisión para abonados a través de internet, con previa denuncia, pero no menciona a las transmisiones en vivo, en particular.

Los bloqueos que se pueden realizar hoy en Uruguay no son inmediatos y el proceso puede demorar hasta cuatro días desde que se presenta denuncia. El cambio central, entonces, consiste en que, de aprobarse el artículo incluido en la rendición de cuentas, los bloqueos serían automáticos y estarían incluidas las transmisiones hechas por intermediarios en redes sociales.  

El nuevo sistema, según indica la propuesta de ley, funcionaría a través de un software que bloqueará automáticamente todos los contenidos ilegales que encuentre en la red.

El próximo mundial de fútbol en Qatar, que se realizará entre noviembre y diciembre de este año, es uno de los incentivos para promover el bloqueo automático ya que, según las palabras del director nacional de Telecomunicaciones, “no sirve hacer un bloqueo de estos eventos importantes a los tres o cuatro días de hacer la denuncia. Tenés que bloquear en el momento”.

La Asociación Latinoamericana de Internet —organización que reúne a empresas de internet multinacionales, como Google, Amazon o MercadoLibre— había advertido hace unos meses que el sistema que se propone es “poco claro”. En una nota enviada a la comisión parlamentaria que discute el proyecto, plantearon que “Si bien compartimos el espíritu de combatir este tipo de transmisiones, los artículos propuestos aportan riesgos de grandes dimensiones (bloqueo de contenidos incorrectos, afectación a la libertad de expresión y posibilidad de fragmentación de internet, entre otros) en relación a los potenciales beneficios que podría aportar para el logro de los objetivos planteados”. Añaden que también “se podría no intencionadamente generar un incentivo equivocado en el que, a los efectos de evitar sanciones, el intermediario elimine contenido en exceso, afectando los derechos de libertad de expresión”. Indican que los intermediarios, quienes brindan servicios de internet, “no puede” tener “carácter de autor o editor” de contenidos, ya que “únicamente tiene un rol pasivo como proveedor de infraestructura”.

A nivel de libertad de expresión y derecho a la información, la reforma planteada presenta diversos problemas. Por un lado, se otorgan más potestades a la Unidad Reguladora de Servicios de Comunicaciones y, por otro, se exime de responsabilidad a las empresas proveedoras de internet.

El procedimiento planteado no es claro, como lo indicó la senadora opositora al gobierno, Silvia Nane. El nuevo articulado le entrega poder de censura a las empresas de telecomunicaciones. Nane manifestó que “Si las disposiciones son para partidos de fútbol, por qué se pone en la redacción “para contenidos en general» ; si defienden algo específico, pero lo redactan de forma genérica”.

Gustavo Gómez, Director ejecutivo de Observacom, analizó el articulado, indicando que el sistema que se propone no garantiza “el debido proceso”, sino que es “un tembladeral jurídico” ya que “Te denuncian y tenés que defenderte después del bloqueo y no antes”. Señaló también que la propuesta da “más poderes al regulador para ordenar a redes sociales y telefónicas a eliminar contenidos audiovisuales y bloquear cuentas y sitios Web sin orden judicial”.

Pablo Siris, director de la URSEC por el partido opositor al gobierno, indicó que la facultad de solicitar bloqueos a los proveedores implicaría “una nueva dificultad” para la URSEC, dado que “es previsible que se vea sometida a recursos y diatribas entre privados sobre quién tiene derecho o no a hacer tal o cual cosa”.

Los intentos por regular las transmisiones ilegales no son una novedad, sin embargo, cuando se analiza esta nueva iniciativa desde una perspectiva de derechos humanos, es inevitable encontrar numerosas interrogantes a las que el gobierno uruguayo debería responder —consideramos— antes de implementar cualquier cambio: ¿Qué tipo de contenidos son los que se bajarán? ¿Cuáles son los criterios que se tomarán para el bloqueo de contenidos? ¿Qué potestades tendrán las empresas de telecomunicaciones? ¿Qué tipo de software será el utilizado? ¿Hay un análisis de impacto realizado previo a la implementación?

Respuestas claras y a tiempo evitarán que la búsqueda de “contenidos piratas” resulte, finalmente, en censura y privación del derecho a la información de la sociedad.