#IETF115

Privacidad por diseño y otros asuntos necesarios

¿Es posible incluir los derechos humanos en los códigos de internet? A propósito de las discusiones que se llevan a cabo en foros de estandarización como el IETF, señalamos algunas complejidades de lo que se considera “diseño” tecnológico en este contexto, y cómo se desarrolla.

CC:BY (Lucia Boiani )

Hace algunas semanas se celebró la reunión 115 del IETF, un foro del que hemos hablado antes, donde se definen los protocolos técnicos con que funciona internet. Esta vez los derechos humanos fueron tema de conversación en varias sesiones de trabajo, incluyendo la reunión abierta del Comité de Arquitectura de Internet (IAB por sus siglas en inglés), su directiva técnica. Allí se discutieron los mecanismos de censura de internet, y en general el rol de la tecnología en la crisis política y social que se vive actualmente en Irán.

En esa misma sesión se presentó una primera versión del documento Particiones para la privacidad, que propone una terminología común para los distintos protocolos que buscan mejorar la privacidad manejando por separado la identidad (quién) y los datos (qué) de las personas usuarias. Este tipo de protocolos están siendo desarrollados en cuatro grupos de trabajo dentro de IETF, y desde el IAB se espera recibir comentarios de retroalimentación para definir mejor en qué consiste el principio de “partición”, reconociendo que no es una solución completa, sino apenas una herramienta para mejorar la privacidad en internet.

Uno de los primeros comentarios recibidos propone alimentar el documento con el RFC6973 sobre consideraciones de privacidad para los protocolos de internet. Allí se declara que la forma más simple de reducir los riesgos para la privacidad asociados al uso de cierto protocolo consiste en “limitar la cantidad de datos que se pueden recolectar” a través de este; otro comentario plantea la necesidad de aclarar que los efectos positivos o negativos sobre la privacidad en estas arquitecturas, dependen de quién tenga la capacidad de decidir hacia dónde se dirige el tráfico particionado, ya que las arquitecturas más complejas tienden a promover una mayor centralización del mercado.

Los dos comentarios apuntan a asuntos que transcienden el carácter técnico de la discusión, pues tienen que ver con el poder de decisión sobre la manera como las empresas implementan los protocolos, es decir, qué tipo de información se espera que manejen, y cómo. En lo técnico, la discusión no se ha centrado en cómo recolectar menos datos, sino en desarrollar protocolos más sofisticados para que la misma cantidad de datos se maneje con “mejor privacidad” para las personas usuarias. Y este asunto está presente en distintos escenarios de IETF. Por ejemplo, durante una reunión paralela cuya convocatoria partía de la siguiente pregunta: ¿es posible un filtrado web que preserve la privacidad?

Las opciones técnicas para responder a esa pregunta apuntan al cifrado, pero como mencionó uno de los asistentes, la cuestión no es técnica sino política y el foco del problema no es el filtrado sino el consentimiento de la persona usuaria. Sin su consentimiento, cualquier forma de filtrado se convierte en censura y requiere un despliegue técnico más complejo. ¿Y para qué se necesita? En este caso, para combatir la explotación sexual infantil. El problema con las infraestructuras de censura es que, una vez establecidas, se pueden usar para propósitos muy diferentes, y con casos como este se corre el riesgo de cerrar rápidamente el debate pues resulta difícil oponerse a la urgencia de proteger los derechos de los niños, niñas y niñes.

Como señala la antropóloga Corinne Cath-Speth en su artículo La tecnología que decidimos crear, la preocupación por el ejercicio de derechos humanos ha estado presente en IETF desde hace décadas. Sin embargo, la idea compartida de que quienes diseñan las tecnologías no deben ordenar la manera como estas deben ser usadas, dificulta mucho la posibilidad de sostener discusiones explícitas sobre derechos humanos durante el proceso de diseño de protocolos, pues se considera que todo lo que no pueda ser medido, probado estadísticamente y observado en la red, no puede hacer parte del proceso de diseño.

Este artículo fue ganador del Premio a la Investigación Aplicada en Redes 2022 por la descripción etnográfica que hace de la cultura organizativa del IETF y cómo esta limita la capacidad de quienes defienden los derechos humanos para incluir sus preocupaciones en los debates técnicos. Durante IETF 115 fue presentado en dos sesiones: la reunión abierta del Grupo de investigación de internet (IRTF por sus siglas en inglés) y el Grupo sobre consideraciones de derechos humanos en los protocolos (HRPC por sus siglas en inglés).

Para la autora, quien participó de la creación de HRPC en 2014, el panorama hoy ha cambiado bastante y este premio es una muestra de ello. Por eso, considera necesario pensar en cuáles son los siguientes pasos para continuar integrando las discusiones políticas dentro del desarrollo técnico. En concordancia, desde la coordinación de HRPC se propuso una revisión de los objetivos y alcance del Grupo, que se realizará de aquí a la próxima reunión, en marzo de 2023.

En nuestra experiencia como Derechos Digitales, que hemos intentado participar activamente desde 2017, en IETF se está abriendo un campo cada vez más propicio para la incidencia de temas de derechos humanos y justicia social, desde las etapas tempranas de diseño de tecnologías de internet. Todavía falta mucho, y vale la pena involucrarse en esta conversación.