Una última mirada a los derechos digitales en 2022

Cuando comenzamos 2022, una esperanza comenzaba a crecer en buena parte del mundo: las vacunas para reducir los contagios y los síntomas de la COVID-19 surtieron efecto y llegaron a más grupos de la población. Lentamente, aspectos de la vida prepandémica volvían a materializarse y, después de dos años dramáticos, el mundo parecía realinearse.

Pero el año inició con tumulto mundial: una invasión en Europa oriental creaba una crisis humanitaria de incalculable costo humano, que a su vez desviaba la atención de otras crisis en África oriental, en Asia meridional, en América Latina. Nuevas desigualdades, internas y externas, se hicieron patentes, ahora bajo la presión del riesgo vital de una pandemia que no termina.

Como en buena parte del mundo, América Latina ha visto el agravamiento de las distintas crisis superpuestas, agudizadas por un horizonte de crisis económica que está en pleno desarrollo. Aun así, grandes aires de esperanza se sintieron en la región, en la resistencia al abuso y la injusticia, y en la participación política en varias elecciones.

En América Latina, el 2022 partió con revelaciones de hackeo a periodistas en El Salvador, en una réplica de lo que fue descubierto años antes en México, revelando que el espionaje ilegal estatal con herramientas importadas continúa en la región.

A la vez, la vigilancia masiva todavía es una disputa inconclusa. En una insigne victoria para el activismo local, en México el invasivo Padrón Nacional de Usuarios de Telefonía Móvil (PANAUT), aprobado a fines de 2021, fue declarado inconstitucional, impidiendo la vinculación entre la identidad de un usuario de teléfono y su información biométrica, entre otros datos, en una decisión anunciada en abril. Poco antes, se había detenido en el metro de San Pablo, Brasil, el uso de un sistema de reconocimiento facial automatizado, aunque luego fue autorizado por la justicia. Esa batalla continúa, ahora contra una iniciativa por extender el reconocimiento facial a toda la urbe. En la Ciudad de Buenos Aires, en tanto, la justicia declaraba la inconstitucionalidad de un sistema de reconocimiento facial.

En Colombia, una preocupación constante por la incorporación de mecanismos legales para fórmulas riesgosas de identidad digital, como también un debate sobre neutralidad de la red y zero-rating se tomaron parte de la agenda después de la fuerte escalada de violencia de las protestas de 2021. El uso de máquinas digitales para el proceso electoral fue, como siempre, objeto de escrutinio.

Al igual que en Colombia, y ante los ojos del mundo, una nueva elección presidencial en Brasil ofrecía esperanza, pero también mostraba algunos de los peores temores de la región: torpes intentos de control de la desinformación amenazaban con alterar el funcionamiento de la mensajería personal, mientras varias acusaciones de desinformación enfrentaban al gobierno y a las iniciativas de empresas privadas por controlar el discurso en línea. Que todo eso ocurriera mientras aumentaba el gasto en tecnología de hackeo y vigilancia hacía temer por el futuro.

Por cierto, las protestas sociales de los últimos años no cesaron. En Ecuador, fuimos parte del reclamo de la sociedad civil en rechazo a la represión y la vigilancia en el marco de protestas sociales a mediados de año. Presentamos a la ONU múltiples antecedentes sobre situaciones de afectación de derechos, especialmente vinculados a la expresión y la protesta, en un informe dentro del contexto del Examen Periódico Universal. En paralelo, continúa el cuestionado juicio contra Ola Bini a pesar de las reportadas infracciones al debido proceso. También vimos que persiste la represión de la expresión y la protesta en Nicaragua, incluido el allanamiento y cierre de organizaciones y de medios de comunicación, alarmando a expertos internacionales que exigen visitar el país. Y, en Venezuela, informes tanto de la industria de las telecomunicaciones como de la sociedad civil, mostraron el nivel de vigilancia y represión en ese país.

Al mismo tiempo, Brasil progresaba en un área sensible para toda la región: la protección de datos personales. Sin ser un debate ajeno a la contingencia, Brasil avanzó en el otorgamiento de autarquía de carácter especial a su nueva autoridad de control de datos personales. Por su parte, Ecuador –que promulgó su ley en 2021– inició este año el proceso de reglamentación de la ley. En Chile, paso a paso se Avanza en un proyecto de reemplazo a una ley que hoy es ineficaz ante casos públicos de vulneración de los derechos sobre los datos.

También hubo otros relevantes debates legislativos en la región, para los que este recuento quizás no basta. Fuimos testigos de la discusión por una nueva ley de inteligencia artificial en Brasil, como también en iniciativas de leyes sobre ciberseguridad, sobre desinformación y sobre ciberdelitos en varios países de la región. Nuestro trabajo de monitoreo continúa con intensidad para identificar las oportunidades, los riesgos a las libertades y derechos que puedan acompañar a esas iniciativas. Nos involucramos en la discusión por una nueva constitución en Chile, con propuestas surgidas desde distintos lugares y grupos del país.

No obstante también aprovechamos instancias globales que afectan a América Latina. Como ejemplos, contribuimos a informes de oficinas de expertos de Naciones Unidas sobre apagones de internet y sobre inteligencia artificial y privacidad. Participamos en procesos como la reunión de plenipotenciarios de la UIT, en la peligrosa discusión por un nuevo tratado sobre ciberdelitos, en el debate global sobre normas para el comportamiento de los Estados en el ciberespacio, y mucho más.

Mirar hacia el futuro

Todo lo anterior es apenas una muestra de lo intenso que fue el trabajo del año desde nuestro activismo. No obstante, también hubo muchísima colaboración, la misma que creemos que es parte esencial de la proyección hacia el futuro de la labor de Derechos Digitales.

Como organización, el año también fue de oportunidades de cooperación cruciales para la región. Volvimos a albergar un evento virtual de difusión, intercambios y aprendizajes. Participamos muy activamente en la organización del Foro de Gobernanza de Internet de América Latina y el Caribe, el LAC IGF. Nos reunimos con nuestras aliadas de la coalición Al Sur para comenzar a pensar en el futuro, en un primer encuentro presencial después de años. Mantuvimos numerosos talleres y reuniones con organizaciones e instituciones a nivel regional y global. Y nos sumamos como socios organizadores, con esperanza, al Movimiento por una Mejor Internet.

Logramos también apoyar a 21 iniciativas de acción de 12 países de la región a través de nuestro Fondo de Respuesta Rápida, no solo facilitando la respuesta ágil a situaciones de emergencia, sino también favoreciendo el aprendizaje en múltiples contextos de activismo. Es a través de procesos como este que la colaboración de 2021 con el ODIA argentino ayudó en la declaración de inconstitucionalidad del sistema de reconocimiento facial en Buenos Aires. Mecanismos de apoyo como este Fondo demuestran que existen nuevas posibilidades para la articulación de organizaciones en la región.

Lo más importante: en una época global de grandes cambios, consolidamos un equipo sólido, de muy diversos orígenes y perfiles, fortaleciendo nuestra capacidad de trabajar en distintos ámbitos. Sabemos que en 2023 habrá más cambios, pero también que con ellos vendrán nuevas oportunidades de colaboración interna y externa.

Aunque ha sido un año desafiante, sentimos orgullo por el camino recorrido y mucha esperanza en el que queda por recorrer. La mirada introspectiva ha sido fuente de gran aprendizaje, como también de importante reflexión sobre lo que necesitamos seguir haciendo. Porque creemos en nuestro derecho y en nuestra capacidad de crear un futuro más justo para América Latina, reconocemos lo que significa el fin de 2022 y damos la bienvenida a 2023.

Más allá de las elecciones en la UIT (o de la agencia de la que nunca has oído hablar)

El creciente número de incidentes y casos de ciberataques a empresas y gobiernos ha provocado numerosas discusiones sobre la necesidad de políticas públicas en ciberseguridad con enfoque de derechos humanos. Los derechos de los ciudadanos son doblemente vulnerados. Primero, porque sufren en carne propia los efectos perversos de estos ataques, y segundo, por la falta de inversión y coordinación por parte de los estados y las empresas. Por otra parte, hemos visto discusiones crecientes, a menudo acaloradas, sobre las regulaciones de inteligencia artificial.

El ámbito de la Unión Internacional de Telecomunicaciones (UIT) no fue la excepción. Como decíamos en un texto anterior, este año tuvieron lugar los tres mayores eventos de la UIT, la Asamblea Mundial de Normalización de las Telecomunicaciones (AMNT), en marzo en Ginebra, la Conferencia Mundial de Desarrollo de las Telecomunicaciones (CMDT), sin precedentes en el continente africano, acogida por Ruanda en junio, y la reunión de Plenipotenciarios, que tuvo lugar en Rumania en octubre. Desde Derechos Digitales participamos personalmente en las reuniones de Ruanda y Rumania.

Marcada por las elecciones de varios puestos de liderazgo, y cuyo máximo cargo como secretaria general fue ganado por Doreen Bogdan-Martin en una disputa que tenía connotaciones geopolíticas y puntos de vista diferentes entre la candidata estadounidense y su competidor ruso, la reunión de Plenipotenciarios discutió muchos temas que marcarán las actividades de la agencia en los próximos años

En este texto evaluaremos algunos avances en el tema de ciberseguridad, principalmente desde el punto de vista de cuál ha sido el rol de la UIT y por qué su desempeño ha sido importante para los países del sur global. También analizaremos cómo una nueva resolución sobre IA en el ámbito de la UIT puede ser vista como una continuación de los proyectos de “IA para el bien” que la agencia ya venía desarrollando.

Las acciones de la UIT en el tema de la ciberseguridad

La UIT ha sido llamada la agencia de la ONU más importante de la que nunca has oído hablar. Es el organismo especializado de las Naciones Unidas para las tecnologías de la información y la comunicación (TIC), formada en 1865. Cada cuatro años, los Estados miembros se reúnen en la reunión de plenipotenciarios para discutir y planificar el curso de los próximos años. El tema de la ciberseguridad se ha discutido cada vez más en esta reunión y principalmente dentro del ámbito de trabajo de los sectores de normalización (UIT-T) y desarrollo (UIT-D).

Son múltiples los roles desempeñados por la UIT en el campo de la ciberseguridad, que resultan particularmente importantes para los países del sur global. Junto con otros actores como el Banco Mundial, la UIT publicó la “Guía para el desarrollo de una Estrategia Nacional de Ciberseguridad”, que actualmente se encuentra en su segunda edición. Además de abordar cuestiones básicas del proceso sobre cómo crear esta política pública, la Guía incluye buenas prácticas sobre el contenido de la propia estrategia. Esto es relevante para países que, como Chile y México, actualmente están discutiendo la evaluación y renovación de una estrategia nacional e incluso la creación de leyes de ciberseguridad.

Además, el Índice Global de Ciberseguridad ha servido durante años como indicador y referencia para la evaluación de los Estados en temas clave cuando se habla de ciberseguridad. La  Agenda Global de Ciberseguridad es otra herramienta lanzada en 2007, que ha influido en la creación de políticas públicas a nivel nacional, especialmente en los países del sur global. Se trata de un instrumento internacional de cooperación lanzado en 2015, que hasta el día de hoy genera controversia por tratarse de un instrumento internacional fuera del mandato de la agencia, como pudimos ver en las intensas discusiones de la reunión Plenipotenciaria este año. 

“IA para el bien”: consolidación del trabajo de IA

El trabajo de la UIT sobre inteligencia artificial (IA) no es nuevo. El programa “AI for Good” y junto con el Gobierno de Suiza y otras 40 agencias asociadas en el sistema de las Naciones Unidas, como la UNESCO, la UNCTAD, la FAO, por ejemplo, la UIT ha desarrollado proyectos para identificar aplicaciones prácticas de la IA, proporcionar soluciones a escalar para tener impactos globales y acelerar el uso de esta tecnología para cumplir con los Objetivos de Desarrollo Sostenible (ODS). 

Funciona  como una gran plataforma de IA en el sistema de la ONU, pero que vemos al margen de otras discusiones importantes sobre el uso de este tipo de tecnología contra los derechos humanos, como lo han destacado en varias ocasiones otros órganos de los sistemas de derechos humanos. La novedad este año fue la aprobación de una resolución específica sobre IA en el ámbito de la UIT ahora en Plenipotenciario, que consolida la actuación del organismo en esta materia. El riesgo en este caso es que la UIT ignore la existencia de violaciones de derechos o vaya más allá de su mandato.

La acción interinstitucional de esta agencia en temas de IA debe entenderse en el contexto de otros espacios multilaterales donde se discutan los usos de la IA contra los derechos humanos. Este es un factor de suma importancia para que los ejemplos de “AI for good” no oculten posibles sesgos discriminatorios y otros riesgos señalados en el uso de esta tecnología.

La perspectiva de derechos humanos

Debemos prestar atención a lo que se está discutiendo en la UIT. Primero, en el cumplimiento de la actuación de la agencia dentro de su competencia, por ejemplo, siguiendo su rol como mediadora/facilitadora de la línea de acción C5 de la Cumbre Mundial sobre la Sociedad de la Información (CMSI), en la creación de confianza y seguridad de las TIC. En segundo lugar, evitar que en este espacio se desarrollen temas ajenos al ámbito de la agencia en lugar de otros espacios idóneos, más participativos y multisectoriales.

Por un lado, vemos a la UIT jugando un papel importante en ciberseguridad para el sector público y privado, principalmente relacionado con actividades de investigación, normalización, difusión de buenas prácticas y formación. 

Este rol resulta muy importante para los países del sur global, dado que es un referente. Es necesario entender que la apertura de la agencia es fundamental para fomentar la discusión de aspectos relevantes en la construcción de políticas públicas de ciberseguridad, que está relacionada con el cumplimiento de los derechos humanos.

Posibles caminos a seguir

Es necesaria una mayor participación de la sociedad civil en las decisiones y diseños que se hacen en la UIT. Quizás los resultados de las elecciones de la agencia apunten a un camino más abierto para la participación de las múltiples partes interesadas. Mientras tanto, las organizaciones pueden seguir uno de los cuatro caminos para participar en este espacio, descritos por la organización Artículo 19: afiliación a la UIT, participación en una delegación nacional, participación en consultas públicas o  estar al tanto de los temas que la UIT pretende incluir en su ámbito de trabajo. 

Tenemos por delante cuatro años de discusiones importantísimas en la UIT y necesitamos una mayor participación en temas de ciberseguridad e IA, ya sea discutiendo los temas de las comisiones de estudio de cada sector, contribuyendo en contribuciones locales o regionales a la agencia, demandando más espacio para la participación de la sociedad civil o participando en los proyectos desarrollados por la agencia.

Discursos y plataformas: un campo minado

Recientemente, el Consejo Nacional de Televisión (CNTV) de Chile dio a conocer un estudio titulado “Televisión y Derechos Humanos”, en el marco de las actividades de conmemoración del Día Internacional de los Derechos Humanos, celebrado el 10 de diciembre. La investigación comprende una consulta a quienes han realizado reportes ante esta institución, denunciando contenido inapropiado en televisión. La metodología incluyó preguntas sobre el tratamiento a grupos minoritarios, expresiones del negacionismo y discursos de odio.

Sin embargo, algunas de preguntas incluidas en la consulta no se circunscriben específicamente a la televisión. Por ejemplo, frente a la pregunta sobre en cuáles medios es más frecuente encontrar discursos de odio o negacionismo, las alternativas contemplan televisión, radio y redes sociales, con un 69,3% de la muestra (N = 2.004 personas) de preferencia por esta última opción. Hemos argumentado anteriormente que la idea de que las redes sociales constituyen medios contraviene el principio de no responsabilidad de los intermediarios de internet, con una serie de problemas asociados a la defensa de la libertad de expresión. Al margen de este aspecto, tampoco es posible desconocer que, a pesar de los litros de tinta y caracteres derramados en tono ominoso anunciando su fin inminente, las redes sociales gozan de buena salud y siguen marcando la pauta de la conversación cotidiana. Lo que sucede ahí sin duda que tiene efectos en cómo percibimos y juzgamos lo que nos rodea.

Un ejemplo de ello sucedió hace algunas semanas en Chile: los dichos emitidos por una animadora de televisión sobre tallas de prendas de vestir desataron una ola de críticas, algunas acusándola de proferir discursos de odio, y el asunto culminó con ella pidiendo disculpas públicas. Señalamos en la prensa que la libertad de expresión “protege los discursos desagradables”, siendo el límite la incitación a la violencia y las amenazas, mientras sean creíbles y revistan gravedad. Es decir, este derecho garantiza tanto los dichos en cuestión como la reacción desatada en redes.

El mismo estudio mencionado al inicio indica que un 53% del universo muestral (2.037 personas) considera imprescindible que los discursos de odio estén sujetos a regulación, mientras que un 23,5% cree que esta medida es necesaria, pero equilibrándola con el resguardo a la libertad de expresión. Si aceptamos que las redes sociales no equivalen a medios de comunicación, la pregunta entonces es qué tipo de regulación es necesaria.  

Nos enfrentamos, entonces, a un doble dilema: el límite de la libertad de expresión, por un lado, y el riesgo de que la sanción al discurso de odio devenga en obligaciones que puedan degenerar en censura, por otro. Encontrar el equilibrio perfecto entre ambas garantías reviste una especial dificultad, considerando el debate que se ha dado en torno a las directrices comunitarias de algunas plataformas, las condiciones laborales de quienes están a cargo de implementarlas, el carácter de interés público que puede revestir la discusión en plataformas que están administradas por empresas privadas, y la falta de transparencia respecto del modo en que se toman las decisiones de moderación de contenido. En última instancia, la pregunta es respecto a quién decide y bajo cuáles criterios.

En condiciones ideales, y mientras no impliquen la comisión de un delito, los discursos en línea deberían ser tratados al amparo de la igualdad en la participación de la palabra. Alguna vez fue así: los foros solían estructurarse de modo que la moderación del contenido inapropiado rotaba entre sus participantes. No obstante, pretender volver a ese estado prístino de internet ciertamente no es posible y los desafíos del presente requieren de una imaginación colectiva para resolver este nudo discursivo. Ni cegarnos ante el contenido desagradable evitará su crecimiento, ni combatir el fuego con fuego no hará que este amaine. 

En los últimos años, no obstante, solo se acrecientan las dudas y los desacuerdos. La Comisión Interamericana de los Derechos Humanos y el Centro de Estudios en Libertad de Expresión y Acceso a la Información advirtieron este problema en 2019, apuntando a que la concentración de poder en el Big Tech, el crecimiento tecnológico sin precedentes y la automatización de procesos han contribuido a este confuso panorama; y, lamentablemente, las herramientas legales, aunque existentes, no han resultado suficientes. La única herramienta que contempla la restricción a la libertad de expresión, considerando en primera instancia la importancia que este derecho tiene para la vida democrática, es el test tripartito.

Sin duda es urgente volver a traer este tema a la mesa y discutirlo con altura de miras y teniendo siempre presente que, en los entornos digitales, sus reglas y tiempos tienen características propias que requieren una mayor prolijidad en el diseño de una arquitectura legal y técnica que asegure que tengamos derecho a expresarnos. Uno de los avances interesantes en esta materia es el trabajo desarrollado por Observacom en el reporte “Transparencia de la moderación privada de contenidos – una mirada de las propuestas de sociedad civil y legisladores de América Latina”, donde se repasan propuestas y directrices necesarias a considerar en esta materia.

No es posible regular los discursos de odio solo con buena voluntad y una mirada parcial de las cosas. Tampoco es admisible un concepto absolutista de la libertad de expresión sin barrera alguna, y se vuelva un instrumento que vulnere los derechos humanos.

Cyber-violencia contra mujeres y niñas: el caso de los stalkerwares

Desde el inicio de la pandemia por COVID-19, la violencia contra mujeres y niñas se ha agravado. Este aumento se compone de diversas aristas, y comprende aquello que ocurre tanto los espacios “físicos” como en internet.

De acuerdo con un estudio de la Unión Europea sobre “ciber-violencia” contra niñas y mujeres, existen diferentes tipos de violencia en internet, de las cuales se destacan el cyber-stalking (equivalente al ciber-acoso), trolling, cyber-harrasment (equivalente al grooming), cyber-bullying, discursos de odio online, flaming (comentarios de odio, insultos y otros), abuso sexual basado en compartir imágenes no consensuadas y doxxing (publicación de documentos y datos privados al público).

En línea con el reciente Día Internacional para Eliminar la Violencia contra las mujeres y niñas, y dentro del contexto de 16 días de activismo de Naciones Unidas, es necesario reflexionar sobre el stalkerware, un tipo de software que habilita una forma particular de violencia.

¿Qué es un stalkerware?

Normalmente comercializados como herramientas de seguridad para controlar el acceso al contenido online de niños y niñas, el stalkerware es precisamente lo que indica su nombre en inglés: software diseñado para acechar (observar con atención y con cautela a alguien sin ser visto) y acosar (perseguir sin tregua ni descanso a una persona a una persona).

Se trata de software que en muchos casos está disponible en el comercio y que al ser instalados en un celular, computadora u otros dispositivos electrónicos, otorgan acceso de forma remota a la información contenida en los dispositivos, pudiendo incluir la ubicación geográfica, las búsquedas en la web, mensajes de texto, correos electrónicos, fotos y contactos. Usualmente el stalkerware se ejecuta en segundo plano, sin que la persona afectada haya dado su consentimiento o siquiera sepa que está instalado en su dispositivo, y es común que el uso de estas herramientas se realice en el marco de una relación afectiva, (amigos, novios, familiares, etc.), cuando una persona busca controlar a la otra.

Uno de los problemas principales es el gran desconocimiento sobre los stalkerwares: según un reporte publicado por Kaspersky, un 60% de las personas no sabe de su existencia. Esta falta de reconocimiento e información genera vulnerabilidades que pueden facilitar el sometimiento de una persona a esta forma de violencia.

Un estudio publicado por Women’s Aid documentó que, en al menos el 29% de los casos de violencia intra-familiar, las parejas o ex parejas utilizaron stalkerware; por ejemplo, en múltiples casos en Estados Unidos, los perpretadores reconocieron instalar el software en teléfonos que regalaron a sus hijos e hijas después de un divorcio, con el objetivo de vigilar a la expareja. En otros países se identifican dinámicas similares en casos de “amistad”, las cuales instalaban stalkerware en el dispositivo de conocidos o también en el caso de parejas que no necesariamente experimentaban violencia física.

Sin embargo, todos los casos son claro ejemplo de una intención, realizada sin consentimiento, con el fin de tener poder y control por sobre la otra persona, lo cual es una trasgresión a la privacidad, acoso, y, por ende, violencia. 

Impactos más allá de internet

Todas las monedas tienen dos caras. Aquí, una cara es aquello que ocurre en línea y la otra es lo que sucede fuera de internet. Uno de los aspectos que deben ser considerados al entender los impactos de la utilización de stalkerwares es que no solamente tienen repercusiones sobre nuestras acciones en línea, sino que el acceso a la información personal y sensible, sin autorización, por parte de un tercero extiende su capacidad de control fuera de internet, perpetuando esta situación de violencia.

Para tener una radiografía de la situación del cyber-stalking, un estudio reciente de Plan Internacional reveló que más de la mitad de niñas y mujeres jóvenes, entre los 15 y 25 años, han sido víctimas de esta forma de violencia, mientras que el el 1er Estudio Nacional de Ciber Acoso y Salud Mental realizado en Chile, y publicado en 2021, revela que un 47% de las personas entre 15 y 29 años declara haber sido víctima de “violencia digital” en los últimos tres meses; tanto en 2020 como en 2021 se observó que la mayoría de las personas afectadas eran mujeres.

El stalkerware no es una consecuencia directa del cyber-stalking, sin embargo, es necesario considerar desde una perspectiva más amplia el contexto, como se explica en el reporte “Protecting Women and girls from violence in the Digital Age”: en una sociedad patriarcal, quienes cometen actos de violencia probablemente tienen una red de apoyo que se comporta de la misma forma, justifica y normaliza la violencia. Estos aliados, que antes solamente podían encontrarse de forma off-line, hoy en día comparten ideas que se desarrollan, fomentan y fortalecen en internet. 

Desafíos a futuro

Si bien en la región existen diferentes políticas públicas que abarcan estos temas, con la intención de mitigar la violencia contra mujeres y niñas en el ámbito digital se identifican dos desafíos principales, que deben ser tomados en cuenta para avanzar hacia la erradicación de la ciber-violencia: primero, no existe una definición universal, ni regional, que considere las violencias en internet y fuera de internet en un mismo nivel, dejando el ámbito digital como un área subyacente de la violencia con las mujeres y niñas. Se genera así la percepción de una falta de priorización de las variables involucradas en este tipo de violencias. 

Por otro lado, es clave considerar la importancia de reflexionar sobre la existencia de medidas efectivas para la erradicación de estas prácticas, las cuales deben ser aprendidas de la historia, dejando de tomar medidas centradas en las víctimas, sino que deben considerar los problemas estructurales a nivel macro, que permiten que estos problemas ocurran. La educación a potenciales perpetradores de este tipo de violencia y el reforzamiento de estructuras legales, que regulen y no permitan la agravación de estas situaciones, son clave para generar avances sustantivos.


Daniela Horta es Cientista política de la Pontificia Universidad Católica de Chile y Máster en Políticas Públicas: Desarrollo y Gobernanza del Institute of Social Studies – Erasmus University Rotterdam y la University of York. Actualmente está cursando una especialización en la universidad Roma Tre (Italia) en Política y Género, y es pasante en Derechos Digitales.

Construyendo caminos hacia un futuro digital común: notas desde el IGF en Adís Abeba

El Foro para la Gobernanza de Internet (IGF), un evento anual que desde 2006 supone una instancia de discusión abierta, global y multisectorial sobre internet, con el patrocinio de la Organización de las Naciones Unidas, tuvo recientemente su decimoséptimo encuentro anual en Adís Abeba, Etiopía

El evento estuvo organizado alrededor de la consigna “Internet resiliente para un futuro sostenible compartido y común”. El programa,  construido a partir de propuestas recibidas de la comunidad de gobernanza de internet, tenía como temas  “Conectando a todas las personas y protegiendo los derechos humanos”; “Evitando la fragmentación de internet”; “Gobernando datos y protegiendo la privacidad”; “Facilitando la seguridad y rendición de cuentas”, y “lidiando con las nuevas tecnologías, incluso IA”.

Derechos Digitales estuvo nuevamente allí. Participamos de numerosos paneles y reuniones sobre inteligencia artificial, inclusión y regulación de plataformas (entre muchos otros temas), llevando preocupaciones y propuestas desde América Latina. Además, intervinimos en la sesión inaugural, buscando resaltar las desigualdades que permean el ecosistema de gobernanza de internet y demandar acciones proactivas que garanticen la participación equitativa de todas las partes interesadas.

El evento fue una oportunidad de reencuentro, articulación y profunda reflexión. Además, puso acento en la necesidad de coordinar debates globales y equilibrar voces. Es la primera ocasión en que el IGF vuelve a realizarse en un país del Sur Global, desde su décima edición en 2016. Y nuevamente se volvió destacar la necesidad de que estos países y sus comunidades tengan una participación activa en la definición de prioridades y la toma de decisiones.

Conectividad desde el Sur: inclusión digital entre contradicciones

La realización del IGF en Etiopía generó cuestionamientos en la sociedad civil, dentro y fuera del país. Mientras algunas personas y organizaciones optaron por no participar, otras, como la Asociación para el Progreso de las Comunicaciones (APC, de la cual Derechos Digitales es miembro), defendieron la participación en el evento para conectarse con organizaciones locales, visibilizar su trabajo y denunciar abusos a los derechos humanos ocurridos en el país. Eso fue reconocido por representantes de distintos sectores y países en la sesión de cierre, durante la cual una representante de la coalición de sociedad civil brasileña por derechos digitales agradeció la recepción local: “la historia de este país es inspiradora y todas deberíamos dedicar algún tiempo a aprender más sobre su lucha por la libertad”.

El foco principal de las demandas fue restaurar la conexión a internet en regiones como Tigré, en el norte de Etiopía, afectada por un conflicto armado entre fuerzas separatistas y el gobierno central desde fines de 2020. Los cortes de internet en el país y sus impactos fueron objeto de discusión en diferentes sesiones, actividades paralelas e, incluso, en eventos previos a la realización del IGF, que tenía la conexión de todas las personas como parte de sus temas centrales. Según el Consejo de Derechos Humanos de las Naciones Unidas, “las interrupciones del acceso a Internet menoscaban directamente los esfuerzos para cerrar la brecha digital […] lo que amenaza el logro de los Objetivos de Desarrollo Sostenible. Estas interrupciones socavan la capacidad de las personas de participar en los debates y las decisiones que configuran su vida y contribuyen a crear sociedades seguras y prósperas”.

Resulta inoficioso e inconsistente boicotear a un país del mundo mayoritario por sus situaciones de crisis de derechos humanos, mientras aceptamos aquellas provocadas o apoyadas desde el norte global. Tener parte del mundo conectado y parte del mundo excluido no es un problema meramente técnico o económico, ni un problema exclusivo del sur, sino un problema político global. Un futuro digital justo, inclusivo y sostenible demanda no solo un pacto global, sino responsabilidades compartidas, incluso desde los países más conectados en promover mecanismos de apoyo y cooperación que faciliten entornos propicios para su construcción.

Hacia un Pacto Digital Mundial

Más allá de las contingencias, debemos también considerar al IGF dentro del contexto global más amplio. En septiembre de 2021, la oficina del Secretario General de las Naciones Unidas lanzó el informe “Nuestra Agenda Común”, proponiendo un Pacto Digital Mundial (o “Global Digital Compact”), cuyo objetivo es esbozar “principios compartidos para un futuro digital abierto, libre y seguro para todos”. La propuesta orientó buena parte de las discusiones en el IGF17, así como en  la reciente reunión de Latinoamérica y el Caribe del IGF.

Por cierto, se trata de un proceso amplio y extenso. Desde hace varios años, los miembros de la Organización de las Naciones Unidas han tomado más seriamente la gobernanza de internet, designando un Panel de Alto Nivel sobre la Cooperación Digital en 2018, cuyo reporte de 2019 fue usado como la base para la Hoja de ruta para la Cooperación Digital del Secretario General de la ONU en 2020. Se creó desde la cabeza de la ONU una Oficina del Enviado del Secretario General para la Tecnología (el “Tech Envoy”) y en 2022 se designó un Panel de Liderazgo del IGF.

Sin embargo, el Pacto Digital Mundial —que será objeto de ratificación por la ONU en la Cumbre del Futuro en septiembre de 2024— debería ser un producto de deliberaciones como las que tienen lugar en el IGF. Por esto, a medida que las decisiones sobre el futuro de internet ganan mayor importancia, la centralidad del IGF como plataforma de colaboración y coordinación efectiva de múltiples partes interesadas debería aumentar en lugar de disminuir.

Más allá de las buenas intenciones de la ONU y los loables fines de los informes de alto nivel, es necesario reconocer un contexto de creciente fragmentación y segmentación en las decisiones sobre gobernanza de internet, lo que genera nuevos desafíos para la participación, por ejemplo, de organizaciones de la sociedad civil en los distintos espacios de debate. Frente a ese escenario, el rol de organizaciones como Derechos Digitales es clave en reclamar espacios como el IGF desde el mundo mayoritario, como uno de los pocos espacios multisectoriales donde todavía es posible tener una voz para influir en el futuro digital.

El IGF sigue siendo una oportunidad valiosa de cooperación entre la comunidad internacional dedicada a la defensa de los derechos humanos en el entorno digital. Que esa interacción tenga impacto real depende tanto de la propia comunidad como de la membresía ONU que ha puesto la atención en ella. Sin fingir ignorancia  sobre las fuerzas que intentan dar forma al futuro digital, la democratización de los espacios de gobernanza depende también de nuestra activa participación en los mismos.

Privacidad por diseño y otros asuntos necesarios

Hace algunas semanas se celebró la reunión 115 del IETF, un foro del que hemos hablado antes, donde se definen los protocolos técnicos con que funciona internet. Esta vez los derechos humanos fueron tema de conversación en varias sesiones de trabajo, incluyendo la reunión abierta del Comité de Arquitectura de Internet (IAB por sus siglas en inglés), su directiva técnica. Allí se discutieron los mecanismos de censura de internet, y en general el rol de la tecnología en la crisis política y social que se vive actualmente en Irán.

En esa misma sesión se presentó una primera versión del documento Particiones para la privacidad, que propone una terminología común para los distintos protocolos que buscan mejorar la privacidad manejando por separado la identidad (quién) y los datos (qué) de las personas usuarias. Este tipo de protocolos están siendo desarrollados en cuatro grupos de trabajo dentro de IETF, y desde el IAB se espera recibir comentarios de retroalimentación para definir mejor en qué consiste el principio de “partición”, reconociendo que no es una solución completa, sino apenas una herramienta para mejorar la privacidad en internet.

Uno de los primeros comentarios recibidos propone alimentar el documento con el RFC6973 sobre consideraciones de privacidad para los protocolos de internet. Allí se declara que la forma más simple de reducir los riesgos para la privacidad asociados al uso de cierto protocolo consiste en “limitar la cantidad de datos que se pueden recolectar” a través de este; otro comentario plantea la necesidad de aclarar que los efectos positivos o negativos sobre la privacidad en estas arquitecturas, dependen de quién tenga la capacidad de decidir hacia dónde se dirige el tráfico particionado, ya que las arquitecturas más complejas tienden a promover una mayor centralización del mercado.

Los dos comentarios apuntan a asuntos que transcienden el carácter técnico de la discusión, pues tienen que ver con el poder de decisión sobre la manera como las empresas implementan los protocolos, es decir, qué tipo de información se espera que manejen, y cómo. En lo técnico, la discusión no se ha centrado en cómo recolectar menos datos, sino en desarrollar protocolos más sofisticados para que la misma cantidad de datos se maneje con “mejor privacidad” para las personas usuarias. Y este asunto está presente en distintos escenarios de IETF. Por ejemplo, durante una reunión paralela cuya convocatoria partía de la siguiente pregunta: ¿es posible un filtrado web que preserve la privacidad?

Las opciones técnicas para responder a esa pregunta apuntan al cifrado, pero como mencionó uno de los asistentes, la cuestión no es técnica sino política y el foco del problema no es el filtrado sino el consentimiento de la persona usuaria. Sin su consentimiento, cualquier forma de filtrado se convierte en censura y requiere un despliegue técnico más complejo. ¿Y para qué se necesita? En este caso, para combatir la explotación sexual infantil. El problema con las infraestructuras de censura es que, una vez establecidas, se pueden usar para propósitos muy diferentes, y con casos como este se corre el riesgo de cerrar rápidamente el debate pues resulta difícil oponerse a la urgencia de proteger los derechos de los niños, niñas y niñes.

Como señala la antropóloga Corinne Cath-Speth en su artículo La tecnología que decidimos crear, la preocupación por el ejercicio de derechos humanos ha estado presente en IETF desde hace décadas. Sin embargo, la idea compartida de que quienes diseñan las tecnologías no deben ordenar la manera como estas deben ser usadas, dificulta mucho la posibilidad de sostener discusiones explícitas sobre derechos humanos durante el proceso de diseño de protocolos, pues se considera que todo lo que no pueda ser medido, probado estadísticamente y observado en la red, no puede hacer parte del proceso de diseño.

Este artículo fue ganador del Premio a la Investigación Aplicada en Redes 2022 por la descripción etnográfica que hace de la cultura organizativa del IETF y cómo esta limita la capacidad de quienes defienden los derechos humanos para incluir sus preocupaciones en los debates técnicos. Durante IETF 115 fue presentado en dos sesiones: la reunión abierta del Grupo de investigación de internet (IRTF por sus siglas en inglés) y el Grupo sobre consideraciones de derechos humanos en los protocolos (HRPC por sus siglas en inglés).

Para la autora, quien participó de la creación de HRPC en 2014, el panorama hoy ha cambiado bastante y este premio es una muestra de ello. Por eso, considera necesario pensar en cuáles son los siguientes pasos para continuar integrando las discusiones políticas dentro del desarrollo técnico. En concordancia, desde la coordinación de HRPC se propuso una revisión de los objetivos y alcance del Grupo, que se realizará de aquí a la próxima reunión, en marzo de 2023.

En nuestra experiencia como Derechos Digitales, que hemos intentado participar activamente desde 2017, en IETF se está abriendo un campo cada vez más propicio para la incidencia de temas de derechos humanos y justicia social, desde las etapas tempranas de diseño de tecnologías de internet. Todavía falta mucho, y vale la pena involucrarse en esta conversación.

Zero-rating: una discusión ineludible

Es probable que cuando hayas contratado un paquete de datos móviles, de prepago o pospago, tu proveedor te haya ofrecido el que incluye redes sociales “gratis” o “ilimitadas”, como Facebook, WhatsApp, Instagram o Twitter. En algunos casos, incluso puedes seguir utilizando estas aplicaciones una vez consumidos los datos móviles contratados. Esta práctica se denomina zero rating o “tarifa cero”.

En Derechos Digitales creemos que este modelo de acceso a internet vulnera el principio de la neutralidad de la red cuando es aplicado sin un diagnóstico sobre las necesidades de la población. Para que internet funcione de manera abierta y libre es necesario que los proveedores de servicios de internet (PSI) no intervengan el flujo de datos, privilegiando algunos contenidos, servicios y aplicaciones sobre otras. Eso es precisamente lo que hace el  zero rating, favorece el uso de un grupo de aplicaciones. La consecuencia es que la experiencia de internet se reduce a aquello que circula en un puñado de redes sociales.

Por ello,  la tarifa cero es en un tema de derechos humanos, pero que también compete al mercado. Cuando se aplica el zero rating, se promueve una “lógica de escasez artificial”, lo que significa que, al haber un cúmulo de información limitada (solo la que se encuentra en estas aplicaciones), las personas modifican su comportamiento y “eligen” usar aplicaciones “gratuitas”. Esto beneficia tanto a los PSI como a las empresas que logran generar este tipo de acuerdos, pues la “oferta” facilita atrae nuevos clientes. Sin embargo, perjudica a las poblaciones con menores ingresos, que solamente pueden experimentar esta versión reducida de internet, con limitaciones a su derecho al acceso a la información y a la libertad de expresión.

El caso colombiano ante la Corte Constitucional

El zero rating es una práctica extendida en toda América Latina. En Colombia, el artículo 56 de la Ley 1450 de 2011 establece que los PSI “podrán hacer ofertas según las necesidades de los segmentos de mercado o de sus usuarios de acuerdo con sus perfiles de uso y consumo, lo cual no se entenderá como discriminación”. Sin embargo, un grupo de ciudadanas y ciudadanos liderados por la activista Ana Bejarano, de la organización El Veinte, interpuso una demanda para solicitar la inconstitucionalidad de esta sección del artículo. En respuesta, la Corte Constitucional abrió un proceso de participación al que actores provenientes del sector privado, instituciones públicas, universidades y organizaciones de la sociedad civil realizaron un total de 24 contribuciones.

Derechos Digitales participó del proceso mediante la presentación de un amicus curiae. Además, la Corte Constitucional convocó a una audiencia pública que concentró a un grupo multisectorial para entregar opiniones especializadas en la materia. A lo largo de la audiencia hubo diversas posturas encontradas. Mientras que los representantes del sector privado y Gobierno defendieron el zero rating, por considerarlas medidas para la reducción de la brecha digital, la sociedad civil constató que es una práctica que limita el acceso a una internet libre, abierta e inclusiva.

Organizaciones como DeJusticia, R3D, Fundación Karisma y Derechos Digitales hicimos visible que el zero rating podría representar un falso dilema, en el que se cree que el acceso a redes sociales equivale a  internet, siendo que en realidad solo representa lo que ocurre en un universo muy acotado de aplicaciones, beneficiando al mercado compuesto por PSI y plataformas digitales. Si bien desde sociedad civil se reconoce que el zero rating permite un primer encuentro con internet, también se sostiene que no resuelve la brecha de acceso.

En tal sentido, las propuestas fueron diversas. Por una parte, se planteó trabajar en la conectividad mediante la implementación de políticas públicas, en conjunto con una tarifa cero temporal que desaparezca con el paso del tiempo cuando la brecha se haya cerrado. Por otra, hay quienes propusieron un zero rating “agnóstico”, el cual no privilegia un grupo de aplicaciones, sino que propicia otras medidas basadas en las necesidades y posibilidades en las poblaciones, como, un número de datos gratis para ser usados en determinadas zonas geográficas o en horas específicas, por ejemplo, en horario de bajo tráfico en la madrugada.

También hay quienes proponen la inconstitucionalidad total de la medida y piden su prohibición. En la audiencia, el sector privado estableció que la oferta de tarifa cero se define con base en análisis de mercadeo, que tienen como insumo bases de datos anonimizadas. Esto resulta en la identificación de “preferencias” sobre las plataformas utilizadas. Frente a esto, la sociedad civil dejó entrever que los resultados de estos análisis no hacen referencia a las “preferencias”, sino a comportamientos que pueden estar influenciados por múltiples factores sociales y económicos.

Con estos argumentos, las organizaciones de la sociedad civil contribuyeron a favor de la demanda impuesta por el grupo de ciudadanas y ciudadanos, exponiendo los problemas que esta práctica implica para la libertad de expresión.

Colombia no es el único país que necesita una decisión judicial firme: la experiencia comparada

Uno de los puntos expuestos por la sociedad civil y los expertos convocados a la audiencia fue la experiencia de otros países. A diferencia de lo que afirman las empresas, existen importantes decisiones judiciales que reconocen que tales prácticas son incompatibles con la neutralidad de red.

El Tribunal de Justicia Europeo entiende que tales prácticas son ilegales, porque no cumplen con las salvaguardas del acceso a internet abierta y “sin discriminación, restricción o interferencia, e independientemente del emisor y el receptor, el contenido al que se accede o que se distribuye, las aplicaciones o servicios utilizados o prestados, o el equipo terminal empleado”. El regulador europeo actualizó recientemente su regulación en la materia para cumplir y dar seguimiento a estas decisiones judiciales. Las nuevas directrices del BEREC (la agencia de regulación del mercado de las telecomunicaciones en la Unión Europea), publicadas en junio de este año, se oponen explícitamente al uso de todas las opciones de zero rating en toda Europa

Hoy BEREC considera que cualquier práctica de precios diferenciados que no sea independiente de la aplicación (application-agnostic) es inadmisible para las ofertas de los proveedores de internet. La decisión que tomará la Corte Constitucional de Colombia en este caso es fundamental en América Latina, pues sentará un precedente para garantizar la neutralidad de la red. Declarar la inconstitucionalidad, total o parcial, puede abrir una puerta para que otros países eliminen sus prácticas de zero rating o las transformen en iniciativas agnósticas o temporales basadas en necesidades locales.

 De otro modo, declarar la constitucionalidad y mantener esta práctica, tal cual se aplica actualmente, puede perjudicar el debate en la materia. Está en las manos de las magistradas y magistrados de la Corte colombiana definir si tendremos un acceso a internet libre y abierto o un acceso limitado que no garantiza el cumplimiento de los derechos humanos.

Twitter: ¿El principio del fin?

Finalmente sucedió. Después de varios meses de especulación, y ante el riesgo de tener que ir a juicio, Elon Musk se convirtió en el dueño de Twitter. Y las cosas van más o menos como se esperaba: despidos masivos, una caída importante en los ingresos por avisaje y una sensación de caos generalizado al interior de la compañía.

Ciertamente, hay algo gratificante en ver fracasar a un multimillonario fanfarrón. Y, sin embargo, la eventual ruina de Twitter puede y debe ser entendida también como una pérdida para sus varios millones de usuarios y usuarias alrededor del mundo. Las expectativas crecen con cada nuevo chisme y con cada nuevo error. En este preciso instante, las oficinas de Twitter están cerradas, después de que una gran mayoría de los empleados haya optado por rechazar un ultimátum de Musk. Más que nunca, el futuro es incierto.

¿Es esto simplemente la obra de un hombre particularmente poco adecuado para el trabajo que compró o es sintomático de algo mayor? ¿Cómo nos afecta este fiasco a quienes usamos la plataforma? ¿Qué podemos aprender de todo esto y qué es lo que sigue?

La libertad de expresión en riesgo

La compra de Twitter ha estado ligada a una serie de declaraciones críticas realizada por Elon Musk sobre el rol de Twitter en relación con la libertad de expresión, que muchas veces hacen eco de predicamentos infundados de la derecha política estadounidense.

A fines de enero de este año, cuando recién había comenzado a comprar acciones en Twitter, Musk criticó a la plataforma por no “adherir a los principios de la libertad de expresión”. Tras la adquisición, a fines de octubre, Musk intentó clarificar su postura, señalando que por libertad de expresión entiende “aquello que la ley permite” (más precisamente, la ley de Estados Unidos). 

Musk se autodefine como un absolutista en materia de libertad de expresión, pero su historial señala algo distinto: “Comedy is now legal”, decía una de las primeras publicaciones que realizó tras convertirse en dueño de Twitter, aludiendo a la idea de que la corrección política destruye no solo la comedia, sino a la civilización. Y sin embargo, quienes osaron burlarse del nuevo dueño vieron sus cuentas suspendidas. Tanto sus acciones como sus dichos demuestran la escasa comprensión que tiene Elon Musk de los complejos desafíos que supone defender la libertad de expresión en internet, en una plataforma de escala global.  

Entre los primeros despidos estuvo el equipo de derechos humanos, el equipo encargado de la accesibilidad para personas discapacitadas y el equipo dedicado a la ética y transparencia algorítmica.  Muy comentado fue el despido de Vijaya Gadde, jefa legal de la compañía y responsable de distintas decisiones en materia de libertad de expresión, moderación de contenido y seguridad de la plataforma: fue ella la que decidió vetar a Donald Trump y prohibir la venta de publicidad electoral en Twitter. En abril, Musk había compartido un meme burlándose de la ejecutiva, lo que le significó recibir gran cantidad de mensajes de odio.

La nueva administración está desmantelando la estructura creada por Twitter para combatir las verdaderas amenazas a la libertad de expresión: el discurso de odio, la violencia y la persecución política. Durante el fin de semana recién pasado, despidieron al equipo encargado de moderar este tipo de contenidos.

Los principales perjudicados de un brusco cambio de dirección en materia de libertad de expresión son los disidentes políticos, particularmente en países autoritarios y en las zonas de conflicto, además de las mujeres, las personas LGBTQI+ y los miembros de grupos históricamente marginados, quienes son las principales víctimas de acoso y violencia a través de Twitter.

Actualmente, Twitter está en medio de un litigio de muy alto perfil en India, enfrentándose a un Gobierno muy propenso a hacer uso de una ley que les faculta a exigir el bloqueo de plataformas y cuentas que han publicado información que consideran difamatoria. El impacto puede ser vasto, pero si continuarán con este proceso es un misterio. Como hemos mencionado antes, el respeto por los derechos humanos en la plataforma no puede depender de su propiedad, pero ese es el piso mínimo. Un verdadero compromiso con la libertad de expresión requiere tomar pasos extra, incluyendo enfrentar juicios que son largos, pesados y costosos. No obstante, la compleja situación económica en la que se encuentra Twitter hace difícil que esto pueda materializarse.

¿Cuánto vale Twitter?

¿De qué hablamos cuando hablamos del colapso de Twitter? No se trata de que, de un día para otro, la empresa simplemente deje de existir, sus servidores desconectados de internet, inaccesibles. Después de todo, los retazos de MySpace todavía están en línea. Más bien es el punto en el que, debido al desmantelamiento de los diferentes procesos y sistemas que establecen mínimos básicos de civilidad, la plataforma se torna suficientemente poco atractiva y las usuarios y usuarios dejan de utilizarla, al punto de la irrelevancia.

Se trata de un escenario plausible y frustrante, particularmente para quienes han invertido tiempo y esfuerzo creado redes y un número importante de seguidores en Twitter. Cambiar de plataforma implica no solamente dejar atrás un trabajo arduo y constante, sino que además es perder una audiencia. Tener que hacerlo por la incompetencia del hombre más rico del mundo es todavía peor.

Musk pagó 44 mil millones de dólares por Twitter y existe consenso respecto a que la cifra es excesiva, cuestión que él mismo ha reconocido (no olvidemos que intentó dar marcha atrás con el acuerdo y no pudo). Se estima que el valor real de la plataforma ronda los 25 mil millones de dólares. De cualquier forma, no valdría absolutamente nada si nadie la usara. El verdadero valor radica en la suma del esfuerzo invertido por cada persona que publica, comparte, comenta, lee, sigue y agrega a sus favoritos.

Siguiendo a Antonio Negri y Michael Hardt, podríamos denominar a esta lógica como bioeconómica, a partir del desarrollo del concepto foucaultiano de biopoder: “La vida ya no es producida en los ciclos de reproducción subordinados a la jornada laboral; por el contrario, la vida es la que infunde y domina toda la producción. De hecho, el valor del trabajo y la producción está determinado en las profundidades de la víscera de la vida. La industria no produce más excedente que el generado por la actividad social”.

No es la tecnología, son las personas. La plataforma y la tecnología constituyen los medios de producción para una forma particular de comunicación conocida como Twitter. La economía de las redes sociales está construida sobre la explotación de la totalidad de las relaciones sociales entre usuarios y usuarias, entendidas como trabajo y rentabilizadas en el mercado de valores y en la venta de avisaje. El producto no eres tú, si no los lazos comunicativos que estableces en la plataforma.

Por ello, tener que renunciar a Twitter es perder dos veces: es el despojo del valor de tu trabajo en la plataforma en tanto usuario, así como del capital social que has sido capaz de acumular. Por lo mismo, las especulaciones sobre un potencial modelo de suscripciones se siente como una estafa, y muy probablemente no funcione.

Sin embargo, no son muchas las opciones de Musk, quien está obligado a encontrar una forma en la que la plataforma genere dinero. Sin embargo, las transformaciones impuestas desde el inicio de su mandato apuntan en la dirección contraria.

Pero ¿es solo Twitter?

Mientras la atención estaba puesta en Elon Musk, Mark Zuckerberg aprovechó de despedir a 12000 empleados, aproximadamente el 13% del personal de la compañía y casi el triple de despidos que en Twitter. Las acciones de META han caído un 70% durante este año, perdiendo una capitalización de mercado cercana a los 800 mil millones de dólares.

Las razones son múltiples: demasiado personal contratado para trabajar en proyectos fracasados en un intento por retener un sitial que la compañía, alguna vez todopoderosa, ha comenzado a perder frente a competidores con los cuales no sabe cómo competir. La obsesión de Zuckerberg con construir el Metaverso tampoco ayuda. Reality Labs, la empresa encargada del desarrollo del Metaverso, perdió más de 21 mil millones de dólares entre 2019 y 2021, con otros 9.4 mil millones en pérdidas durante los últimos tres cuatrimestres.

Financieramente, las cosas son todavía peores en Twitter. En el último reporte cuatrimestral previo a la compra, la compañía reportó una pérdida de $344 millones de dólares. Para financiar la adquisición, Musk tuvo que reunir una deuda de alrededor de 13 mil millones de dólares, que acumulan anualmente alrededor de mil millones de dólares en intereses. Musk desesperadamente necesita hacer rentable la compañía, pero Twitter solamente ha logrado utilidades durante dos periodos en su historia.

Tanto la obsesión de Zuckerberg con la realidad virtual, como el desastroso intento de Musk de cobrar por verificación en Twitter dan cuenta de lo mismo: ambas compañías ven la necesidad de encontrar nuevas fuentes de financiamiento, distintas del avisaje. Si a ese cuadro agregamos las múltiples dificultades asociadas a la moderación de contenidos en plataformas con pretensiones globales —que constituye el núcleo fundamental de una plataforma que necesita atraer usuarios y publicidad— y el surgimiento de nuevas lógicas respecto al modo en que nos relacionamos con el contenido online, quizás lo que estamos presenciando sea el estallido de la burbuja, el fin de una era, el abandono próximo de una forma de producción en línea que no es sustentable.

Varias voces comienzan a declarar el fin de las redes sociales (algunas, con argumentos más conservadores que otras). Puede ser, si de algo podemos estar seguros es que todo termina, todo muere.  ¿Y ahora qué? Durante los primeros días del reinado de Musk en Twitter muchas personas acudieron a Mastodon, una plataforma caracterizada como el anti-Twitter. Y aunque Mastodon tiene sus propios problemas y es difícil saber si este influjo de nuevos usuarios se mantendrá en el tiempo, hay algo respecto de los postulados con los que está construido que puede dar pistas respecto a las amplias posibilidades de la experiencia online. 

Quizás el futuro pueda ser a escala humana: más pequeño, más localizado, más comunitario, más silencioso.

Veremos.

Las máquinas no son suficientes

Palabras como “bot”, “algoritmo” e “inteligencia artificial” se han vuelto parte de nuestro lenguaje cotidiano. A pesar de que muchas veces no tenemos del todo claro qué significan, aluden a un imaginario de total automatización, sistemas súper inteligentes capaces de tomar mejores decisiones, más rápido, sin sesgos, basadas en el análisis de grandes volúmenes de datos.

Sin embargo, la realidad está muy lejos. Y cuando hablamos de la moderación de contenidos en redes sociales son necesarias personas que trabajan como “escudos humanos de internet”, dedicadas a leer, escuchar y mirar todo lo que el resto del mundo no quiere ver.

La moderación de contenidos es un trabajo esencial  en las redes sociales y tiene como función mantener los contenidos de las plataformas en un mínimo aceptable tanto para asegurar la experiencia de las comunidades de usuarias y usuarios, como para incentivar la inversión publicitaria. En 2021, los ingresos de compañías como Meta y TikTok superaron los  50.000 millones de euros, un negocio que solo es posible gracias a la moderación de contenidos.

Se trata de un trabajo que, en gran medida, se hace de forma manual: equipos de personas buscando y marcando textos, imágenes y audios inapropiados; clasificación que, a su vez, se utiliza para entrenar sistemas automatizados. Es decir, la capacidad de un algoritmo para identificar contenido nocivo descansa en trabajo humano. Cada vez que un contenido es retirado de una plataforma, este ha sido visto y marcado por un moderador de contenido humano o un sistema automatizado entrenado con datos proporcionados por un humano.

En general, se trata de un mal trabajo. En su libro GhostWork: How to Stop Silicon Valley from Building a New Global Underclass (Trabajo fantasma: cómo evitar que Silicon Valley construya una nueva subclase global) la antropóloga Mary L. Gray y el científico social Siddharth Suri analizan particularmente el rol de los etiquetadores de datos y moderadores de contenido.

Diariamente, el 98% de los contenidos violentos son retirados de las plataformas por humanos. Quienes realizan estas tareas están sujetas a múltiples riesgos, incluyendo daño psicológico, producto tanto del tipo de contenidos al que están expuestas —asesinatos, suicidios, pedofilia, accidentes y hasta canibalismo, lo peor de internet— y condiciones laborales precarias: vigilancia laboral extrema y jornadas extenuantes, en un trabajo de corta permanencia y alta rotación que no provee la atención psicológica necesaria. Algunas de las consecuencias que se han identificado son son síntomas de ansiedad, depresión y trastorno de estrés postraumático.

Además, es común que las compañías contraten empleados a través de empresas tercerizadas, lo que dificulta la sindicalización y la posibilidad de rechazar prácticas poco éticas o exigir mejores condiciones de trabajo.

Recientemente en Colombia, donde se encuentra uno de los principales centros de moderación de contenidos de TikTok en América Latina (el otro es Brasil), un grupo de empleados denunció sus condiciones laborales, que implican jornadas de 10 a 12 horas, 6 días a la semana, por un salario que apenas supera el mínimo. A cambio, deben analizar más de 1.200 vídeos cortos por turno, con escasos para tomar una decisión respecto a si el contenido viola o no las normas de la plataforma.

 Además, deben mantener su cámara encendida durante todo el turno, para asegurar que nadie más vea el contenido, y su escritorio debe permanecer vacío, con excepción de un vaso transparente con líquido.

Mientras nos enteramos que una red social se vende por sumas exorbitantes y escuchamos sobre los miles de trabajadores despedidos en otra, es mandatorio que reflexionemos sobre el trabajo de las personas que permiten el funcionamiento de las plataformas, quienes aportan la materia prima sobre la cual se sustenta el negocio.

Salarios justos, beneficios laborales, entrenamiento, condiciones mínimas de seguridad y apoyo psicológico a quienes se enfrentan a contenidos que luego serán vetados debería ser una condición irrenunciable para quienes aspiramos a habitar espacios virtuales más democráticos y humanos.

Guacamaya: El espectro de color de su mensaje

Una vez más es a través de la acción de un grupo de activistas informáticos que varios países de América Latina (Chile, Colombia, El Salvador, México y Perú, hasta ahora) han conocido información acerca de las acciones reñidas con el estado de derecho que dan cuenta de la vigilancia selectiva de periodistas y activistas de derechos humanos, así como de otros ilícitos de corrupción, obstrucción de la justicia y asociación criminal.

La técnica utilizada por los especialistas informáticos no reviste el nivel de sofisticación a que la ciencia ficción nos tiene acostumbradas Más bien toma ventaja de la falta de diligencia de los organismos públicos implicados para protegerse de las vulnerabilidades de los softwares que utilizan en sus labores, las cuales venían siendo advertidas por los proveedores a sus usuarios desde marzo de 2021.

Pero más allá de la espectacularidad de la deficiencia de los ejércitos de la región implicados en las revelaciones -que se sirven de tecnología sofisticada de vigilancia, pero fallan en actualizar sus softwares más básicos- lo que nos interesa aquí es dedicar una reflexión a la tensión que esta nueva filtración revela entre el interés público y la proporcionalidad de los impactos de tal revelación para individuos y países.

La falta de mecanismos efectivos de control sobre la acción de fuerzas armadas y sistemas de inteligencia dependientes de éstas en nuestra región, nos deja sistémicamente con este tipo de filtraciones como la única fuente efectiva de información para que -mediada por la valiente acción de sus reveladores y de la prensa que la procesa- la ciudadanía tenga ocasión de exigir rendición de cuentas a estos organismos y al poder político que se supone los controla, pero que como la información muestra se presenta muchas veces como cómplice o encubridor de las acciones ilegales reveladas.

Aquí la reflexión se encamina hacia los componentes de una tormenta perfecta: por un lado, la tecnología de vigilancia continua su avance de sofisticación, la oferta de tecnología de vigilancia en nuestra región se hace más atractiva comercialmente, y los Estados acceden a ella con mayor frecuencia y facilidad, sin que su alto costo sea un obstáculo. Pero al mismo tiempo, nuestros países aún carecen de marcos normativos nacionales sólidos y estructuras de control independientes capaces de realizar el escrutinio de qué se adquiere, para qué y cómo se usa en la práctica.

La sociedad civil de nuestra región, enfocada en la defensa de los derechos digitales viene advirtiendo desde años la necesidad de robustecer los marcos normativos para poder exigir la rendición de cuentas de los organismos estatales que tienen acceso a tecnologías de vigilancia bajo razones de control de orden público y seguridad nacional, pero hasta ahora no existe ningún país en la región que esté a la altura de lo que requiere una protección efectiva de los derechos fundamentales y el estado de derecho. Aquí es que Derechos Digitales y otras organizaciones de la región venimos abogando por un rol para la Comisión Interamericana de Derechos Humanos a través de la creación de estándares anclados en la Convención Americana de Derechos Humanos que orienten a los países de la región en el control del uso de la tecnología de vigilancia para que respete los derechos humanos.

Además de los estándares de control del uso de la tecnología por los organismos estatales cabe preguntarse por el impacto de las revelaciones Guacamaya en el interés colectivo desde la perspectiva de su proporcionalidad. Bienvenido es saber de los ilícitos que se han cometido en el uso de la vigilancia ilegal y otros crímenes revelados, pero ¿qué pasa con todos aquellos que aparecen tocados por las revelaciones como testigos, víctimas o ejemplos de resistencia interna? ¿Cuánto sacrificio de su propia intimidad y derechos es admisible en miras del interés público de la revelación? ¿Es este ejercicio de balance efectivamente conducido en forma previa a la revelación por parte de los grupos activistas responsables de ellas? ¿Qué medidas pueden adoptarse proactivamente por las reveladoras o la prensa para prevenir el impacto individual negativo de las revelaciones?

Una última arista de la revelación de información sobre el accionar de las fuerzas armadas de este caso es el impacto que tal información puede tener en la soberanía y seguridad nacional de los países implicados, así como ellas evidencian pobres desempeños en la garantía de la ciberseguridad. Más allá de la absoluta necesidad de poner límite y fin a las acciones ilícitas reveladas, cuidado con arrojar el bebé junto con el agua de la bañera, ya que mucha de la información revelada también da cuenta de acciones estratégicas de los organismos y puede generar incentivos al desarrollo de acciones maliciosas contra la seguridad y estabilidad nacional, que a la larga repercuten en un ambiente más inseguro e inestable para el ejercicio de derechos de la ciudadanía.

Confiamos en que más allá del impacto de las concretas revelaciones de la filtración Guacamaya, estas sirvan para llamar la atención en nuestra región hacia la urgencia de: estándares (nacionales y regionales) de control efectivo del uso de tecnología de vigilancia; un activismo informático balanceado que resguarde proporcionadamente los derechos de la ciudanía que están implicados en este tipo de revelaciones; y una conducta responsable de los organismos públicos en la garantía de la ciberseguridad de sus operaciones en protección de su ciudadanía.