«Escuchas» de llamadas telefónicas  a través de la infraestructura del proveedor de servicio

La seguridad de las comunicaciones ha sido un elemento relevante y estratégico dentro de la historia de la civilización, tanto a nivel personal como colectivo, ya sea en momentos de conflicto o de aparente calma. En el contexto actual, donde muchas de nuestras comunicaciones se materializan a través de teléfonos móviles, es válido preguntarse acerca de su seguridad y privacidad. Esta columna se centrará específicamente en las llamadas telefónicas que se realizan a través de la red del operador de telefonía, lo que comúnmente conocemos como “llamar por teléfono”.

Es cotidiano enterarse por la prensa de investigaciones judiciales o de inteligencia que utilizan la interceptación de llamadas, también conocidas como “pinchazos” o “escuchas” telefónicas. Este método se utiliza con la intención de recopilar pruebas en un contexto investigativo fundado, pero también existen casos en los que el método es usado con otros fines, como por ejemplo en el caso de Chile reportado en 2022 por el Centro de Investigación Periodística CIPER. En esa oportunidad, relata la investigación que «durante tres meses, entre diciembre de 2017 y febrero de 2018, el teléfono de una conocida productora de eventos estuvo intervenido por la Dirección de Inteligencia de Carabineros. Los agentes de la policía escucharon y pudieron grabar cada una de sus conversaciones, en las que ella dialogó con humoristas, cantantes y managers«.

Ante este escenario, en que personas y organizaciones que no deberían ser objeto de investigación están bajo vigilancia, resulta relevante entender cómo funciona la interceptación y cómo prevenirla.

Existen algunos supuestos indicios que podrían advertir al usuario del teléfono si su dispositivo está sometido a un proceso de interceptación de sus llamadas desde la infraestructura del operador de red. Para verificar eso, comentaremos el tipo de protocolo de comunicación utilizado actualmente, con el fin de dar una explicación que nos permita evaluar con mayor certeza qué tan ciertas pueden ser dichas afirmaciones.

Lo primero que debemos entender son los identificadores de rastreo. Cuando un teléfono es utilizado, sea “smartphone” o  «de los antiguos”, requiere de un chip o tarjeta SIM (por su sigla en inglés, Subscriber Identity Module). La tarjeta SIM cuenta con un número de teléfono asociado que puede ser reasignado, por ejemplo, en el caso en que se cambie de tarjeta SIM pero se mantenga el número telefónico. Además, la tarjeta cuenta con un identificador único, llamado IMSI (International Mobile Subscriber Identity), que es un “código inteligente” que nos entrega información acerca del país (MCC), red del operador (MNC) y un identificador (MSIN). El conjunto del código es único, identificable y rastreable. Por otro lado tenemos el identificador del dispositivo móvil (teléfono físico), llamado IMEI (International Mobile Equipment Identity), que es un código único que identifica al aparato de forma exclusiva a nivel mundial.

Cuando una compañía telefónica es notificada para monitorear la actividad de un número telefónico, utiliza el IMSI para generar el filtro necesario y captar las llamadas. Cabe mencionar que, además de las llamadas, existen otros tipos de datos que pueden ser entregados por el operador telefónico al solicitante: mensajes SMS, geolocalización y listado de llamadas.

En el caso del listado de llamadas y la geolocalización es posible que el operador pueda entregar información retroactiva, es decir, datos correspondientes a períodos previos a la fecha en que se requiere la interceptación.

Cambiando de tarjeta SIM

Existen personas que, dado su contexto de acción, tienen la sospecha de que pueden ser objeto de vigilancia, por lo que toman la medida de cambiar de tarjeta SIM con el fin de evitar que sus llamadas sean “pinchadas”. Es aquí donde interviene el identificador único del dispositivo móvil o IMEI.

Los operadores telefónicos tienen la capacidad de generar filtros por IMEI, por consecuencia, aunque se cambie la tarjeta SIM el filtro de monitoreo igual funcionará, pues tienen la capacidad de reconocer el dispositivo desde el cual se está utilizando.

¿Cómo saber si mi dispositivo está siendo parte de un procedimiento de interceptación de llamadas telefónicas a través de la infraestructura del operador de red?

Debido a los cambios en los protocolos e implementaciones tecnológicas, las llamadas pasaron de un sistema analógico a uno digital. Cuando la interceptación se realiza utilizando la infraestructura del operador, no existe forma de notar o probar que un dispositivo está en ese proceso.

Antiguamente, en las comunicaciones análogas, era posible escuchar ruidos o voces cuando un teléfono estaba siendo vigilado. Pero con la implementación de la comunicación digital los dispositivos que gestionan las llamadas son muy similares a un computador o servidor, y no generan ningún tipo de ruido o evidencia perceptible para los usuarios.

Es posible que, como en todo sistema de comunicación a distancia, al usar el dispositivo se generen ruidos, por distintos motivos: pérdida de señal, demoras en el procesamiento, congestión, etcétera. Pero aún así, eso no es evidencia de la interceptación. Desde la otra vereda, puede suceder que un dispositivo móvil esté siendo sujeto de interceptación, pero los usuarios no experimenten ruido alguno.

Es importante reiterar que esta columna solo está referida al proceso de interceptación a través de la infraestructura del operador de red telefónica, pues existen otro métodos, como el uso de Cell-Site Simulators/IMSI Catchers, que básicamente funcionan como antenas falsas que captan las comunicaciones de uno a más dispositivos telefónicos a su alrededor.

En el escenario del uso de antenas falsas es posible que se generen algunos efectos que puedan ser perceptibles por los usuarios. En otras técnicas de vigilancia, como el uso de malware, es posible evidenciar su funcionamiento con comportamientos anómalos en el dispositivo, como el uso excesivo de la batería, sobrecalentamiento o el uso inusual de cantidad de datos.

Técnicas avanzadas de rastreo y vigilancia

Como ya fue mencionado, los operadores pueden rastrear e identificar un dispositivo móvil a pesar del cambio de tarjeta SIM. Entonces, en el escenario de cambio de dispositivo físico y de tarjeta SIM, ¿es posible identificar a alguien? La respuesta es sí, es posible.

Con el supuesto de que se buscó la forma de adquirir un dispositivo físico y una tarjeta SIM sin que tenga relación de pago o suscripción con quien lo utilizará, existen técnicas de reconocimiento de patrones de llamadas que pueden identificar al usuario. 

Una técnica se centra en la utilización de una base de datos de registros de llamadas previas, para así generar reglas de comportamiento, tal como lo menciona la EFF en su columna de acerca del problema con los teléfonos móviles donde cita el reporte de intersecciones y explica el funcionamiento de un sistema del gobierno de Estados Unidos llamado PROTON.

En palabras simples, aunque una persona cambie de dispositivo físico y de tarjeta SIM, es posible su identificación debido al reconocimiento del patrón de números con los cuales se comunica habitualmente.

También es posible identificar un dispositivo si se mueve junto a otro. Esto significa que si se tienen dos teléfonos con perfiles de uso diferenciados, el operador puede relacionarlos si se mueven juntos y, de ese modo, identificar al usuario del dispositivo.

Prevención y soluciones

Existen varias formas de sortear la interceptación de llamadas telefónicas. Lo primero es tener en cuenta que en los teléfonos llamados “inteligentes” está la posibilidad de utilizar aplicaciones para hacer llamadas, que cuentan con cifrado de extremo a extremo. Estas aplicaciones permiten resguardar la privacidad de la llamada, pues el operador de la red no puede captar dichas comunicaciones debido al cifrado. En esta categoría encontramos aplicaciones como Signal, Whatsapp o Element/Matrix.

Si por algún motivo no se quiere utilizar un teléfono “inteligente”, son necesarias una serie de medidas que dificulten la identificación del dispositivo. Primero, no debe existir relación de adquisición o suscripción con la persona que lo utiliza. Segundo, no se debe usar o transportar en conjunto con otro dispositivo, para que no puedan ser relacionados. Finalmente, se debe tener un uso diferenciado de las comunicaciones, es decir, no se deben efectuar llamadas a números frecuentes, para que no se pueda generar la identificación del patrón de comunicación.

Esta columna solo trata de mostrar cómo se efectúa la interceptación de llamadas con la participación del operador de red, debido a que son casos muy comunes y frecuentes.

Existen otras técnicas de vigilancia que pueden ser aplicadas a dispositivos móviles, tales como el uso de antenas falsas o mediante la implantación de malware, pero ambas resultan ser menos frecuentes, dado que necesitan de más recursos técnicos e inversión monetaria. De todos modos, y aunque menos frecuentes, no dejan de ser una preocupación, por lo que posiblemente serán temas abordados futuras instancias.

Violencia digital: nuevos formatos, viejas formas de censura

La masificación del acceso a internet tiene dos consecuencias indiscutibles: amplificar conductas, positivas y negativas, de la sociedad en su conjunto; y trasladar las discusiones a entornos digitales, donde la circulación de discursos no tiene límites, independiente de sus características particulares. En este escenario, el derecho a la libertad de expresión es constantemente cuestionado pese a que, desde la mirada de los derechos fundamentales, es una obligación de los Estados generar marcos regulatorios que lo protejan y, a la vez, garanticen la seguridad de quienes lo ejercen.

A propósito del rol de la libertad de expresión en línea, conversamos con la psicóloga Daniela Céspedes, cocreadora y productora ejecutiva de Pliegue, sobre diversos episodios de violencia digital e intentos de censura en los que este colectivo fue víctima durante 2020.

Pliegue es, en palabras de su directora, un “colectivo de investigación de filosofía poshumana y de estéticas del proceso”. Se posiciona contra el pensamiento liberal y la privatización del conocimiento, y su misión y visión se traducen en acciones concretas: ofrece charlas de divulgación a bajo costo, produce material audiovisual (cápsulas de video y largometrajes) y tiene amplia presencia en redes sociales.

Por las características de la labor que realizan, no es extraño que hayan surgido detractores desde los comienzos de su aventura: episodios de acoso digital por parte de personas con poca afinidad por los contenidos divulgados en su cuenta de Instagram, bombardeos de comentarios negativos a sus publicaciones y denuncias para dar de baja la página en las redes sociales son algunos ejemplos.

Esto no fue un obstáculo para el desarrollo de su trabajo, sino un aliciente. En el año 2019, el colectivo se adjudicó un Fondo Audiovisual del Ministerio de las Culturas, las Artes y el Patrimonio de Chile para desarrollar una webserie sobre, lo que consideran, configura la decadencia de las instituciones de educación superior producto de lógicas neoliberales y su conversión en productoras de conocimiento que nunca llega a socializarse.

La webserie fue estrenada el 27 de mayo de 2020 y está disponible de manera gratuita y abierta en YouTube. Desde el estreno del trailer, aún previo al lanzamiento, la obra generó controversias. Ahí también empezaron los primeros eventos de acoso. “Desde el primer momento en que empezamos a estrenar los clips, me llegaban mensajes de números que yo no conocía, comentarios de personas señalando que conocían a un profesor, que conocían a otro profesor, que conocían a un decano, que preguntaban de qué se trata esto”.

Parte de la reacción vino de las instituciones académicas, que se pusieron en alerta debido a la presunción de que habría denuncias individuales, con nombre y apellido, de malas prácticas al interior de sus centros de estudio. “Hubo desconocimiento de sobre qué era el documental. No se entendió qué iba a tratar en lo concreto, a pesar de que toda la promoción aclaraba que era un ensayo filosófico”.

Los mensajes iniciales escalaron al hostigamiento anónimo a académicos que aceptaron dar entrevistas para el proyecto. “Cuatro personas que participaron en el documental fueron sistemáticamente, en distintos grados, llamadas por las instituciones a las cuales ellos prestan servicio, con preguntas como: ¿por qué dijiste esto? ¿Tú sabes que, si tú dijiste esto, en la universidad se te va a despedir?”.

La práctica contraría los derechos a la libre expresión de las personas cuestionadas y su libertad académica que, tal como reconoce la Comisión Interamericana de Derechos Humanos (CIDH), “abarca la libertad de trabajadoras, trabajadores y estudiantes de instituciones académicas para expresarse con respecto a dichas instituciones y sobre el sistema educativo”.

Posteriormente comenzó el acoso personal hacia ella, quien actuó como productora ejecutiva de la serie: “días antes de estrenar, [llegaron] los llamados diciéndome ‘tu teléfono es conocido’, ‘ten cuidado’, que yo no iba a pisar un pie en la universidad nunca más. Que, si yo quería ser académica o profesora o intelectual o algo así, que tuviera cuidado porque con esto me estaba metiendo en un problema muy grave”.

Nuevas amenazas se iniciaron en octubre del mismo año, cuando en las fechas cercanas al 18 de octubre de 2020, es decir, el primer aniversario del estallido social que sucedió en Chile, Pliegue decidió realizar una adenda a la webserie e incluir material sobre las protestas en los cortes originales. Además, entre las charlas abiertas que dictaban incluyeron una acerca de la psicología, estética y filosofía detrás de los movimientos fascistas.

Fue lo último lo que le llamó la atención de Alexis López Tapia, figura de ultraderecha chilena vinculado a teorías conspiratorias sobre los movimientos sociales en América Latina. Además de publicar en Facebook una alerta sobre la charla, sindicando al colectivo como “lo peor de la izquierda” y “enemigo del movimiento” que lidera, López Tapia usó la red para pedir a sus seguidores que reporten las cuentas de Pliegue, describiéndolos como un colectivo de terrorismo intelectual y cabecillas de una supuesta asociación clandestina y revolucionaria.

En principio, relata Daniela, no les dieron mayor importancia a dichas acusaciones, hasta que advirtieron apariciones de López Tapia en espacios virtuales de políticos del Partido Republicano, de extrema derecha, y con las fuerzas del orden en Chile, aumentando así su visibilidad y, por ende, las reacciones virulentas en los canales de Pliegue por parte de sus seguidores. Volvieron las llamadas anónimas, esta vez amenazando a Daniela con agresiones físicas e invasión de morada.

La estrategia adoptada para hacer frente a estas oleadas de censura, difamación y hostigamiento fue “esperar a que pasara la ola”: reducir el número de publicaciones, no lanzar material nuevo y mantener un perfil bajo hasta que cesara el acoso. Daniela afirma que “lo que nosotros hacemos es siempre estar en contra de la ola, pero yo no quiero estar en contra de la ola con la bandera arriba. O sea, a mí no me interesa el drama. Si hay que hacerlo más lento, si hay que hacerlo más silencioso, prefiero eso. Yo no quiero tener ese nivel de mediatización” ya que la prioridad política del colectivo es el conocimiento abierto y no la visibilidad.

Los hechos narrados por Daniela, afectando al colectivo Pliegue y a personas de la comunidad académica con quienes se han relacionado, demuestran la persistencia de desafíos en el Estado chileno para proteger a las personas frente a amenazas o actos de violencia derivados de su expresión o participación en los debates públicos en línea.

Tales prácticas responden a una cultura de censura que , facilitadas por las tecnologías, puede en muchos casos derivar en otras formas de violencia. Sus objetivos son silenciar la crítica, la denuncia de abusos y a cualquier tipo de voces disonantes a los poderes establecidos, así como inhibir el trabajo de defensoras de derechos humanos, periodistas, artistas, entre otras. Al permitirlas, por acción u omisión, el Estado de Chile contraviene la obligación legal internacional de garantizar el derecho a defender derechos.

Uno de los compromisos que Chile necesita observar es mantener ambientes informativos, académicos y un espacio digital que propicie el ejercicio de derechos, incluyendo también la adopción de medidas de prevención, investigación y acompañamiento a las personas afectadas, de modo que no resulten en otras vulneraciones.

El caso de Pliegue, además, pone en la palestra la reducción del espacio de discusión democrática en Chile. La falta de mecanismos efectivos a los que acudir en situaciones como esta es una señal para el Estado de Chile, en este nuevo período del Examen Periódico Universal, a suscribir y ejecutar compromisos que aseguren el derecho a la libertad de expresión para todas las chilenas, en todo el país, en todos los estratos, exista o no el amparo de una institución. 

Cursos virtuales, automatización y legislación insuficiente

Cada vez es más común escuchar y leer sobre los avances de la inteligencia artificial (IA) y los cambios que introduce en distintos campos del quehacer humano, los que, es justo decirlo, nos sorprenden cada vez con mayor frecuencia. La educación no es la excepción.

De un tiempo a esta parte, la IA ha pasado a formar parte de las herramientas que las y los docentes utilizan en su trabajo.  La capacidad de aceleración exponencial de los cambios a partir de la introducción de tecnologías basadas en machine learning genera un potencial revolucionario”, afirma la Organización de Estados Iberoamericanos para la Educación, la Ciencia y la Cultura (OEI), en su estudioEl futuro de la Inteligencia Artificial en educación en América Latina, que también advierte que aún no somos capaces de dimensionar las transformaciones profundas que podría generar la aplicación de la IA a la educación.

La IA ha llegado a la educación de maneras diferentes: por un lado, están los cursos virtuales; por otro, herramientas de automatización o aceleración de procesos disponibles para estudiantes y docentes. Sin embargo, como sociedad hemos evaluado escasamente los pros y los contras de su implementación. No sabemos si los docentes se encuentran capacitados para utilizar esas herramientas, ni qué sucede con la privacidad de las y los estudiantes cuya formación está a cargo de estos sistemas. Encontrar estas respuestas puede ayudarnos a analizar el avance y las posibles consecuencias de la IA en la educación, las posibilidades y los riesgos, algunos conocidos y otros inciertos.

IA Generativa en las aulas

La IA Generativa es un área de la IA con foco en la generación de contenido original a partir de datos ya existentes. Usa algoritmos y redes neuronales avanzadas para aprender de textos e imágenes, para luego elaborar contenido nuevo. Hemos escuchado mucho sobre la IA Generativa a partir de noviembre de 2022, con el lanzamiento del CHATGPT, cuya característica estrella es la capacidad de generar texto, imágenes, vídeos, música y códigos de software. Estas capacidades dan lugar a múltiples aplicaciones en la educación, como chatbots y algoritmos de aprendizajes, entre tantos otros.

Generalmente, se trata de recursos entrenados con valores y normas sociales dominantes en el Norte Global, lo que implica un aumento y empeoramiento de las brechas digitales en el área pedagógica en todo el resto del mundo, al reproducir sesgos propios de países desarrollados con poca o nula relación con la experiencia sensible de las y los habitantes de la Mayoría Global.

UNESCO advierte que, en el ámbito educativo, la IA enfrenta numerosos desafíos. El principales desarrollar prácticas de enseñanza y aprendizaje innovadoras. En “La Inteligencia Artificial en la Educación” declara que “El vínculo entre la IA y la educación consiste en tres ámbitos: aprender con la IA (por ejemplo, utilizando las herramientas de IA en las aulas), aprender sobre la IA (sus tecnologías y técnicas) y prepararse para la IA (por ejemplo, permitir que todos los ciudadanos comprendan la repercusión potencial de la IA en la vida humana)”. UNESCO admite también que sería ingenuo, sin embargo, no reconocer que los avances tecnológicos que suceden de manera rápida, como lo que ocurre con la IA, implican riesgos y retos y, en América Latina, las políticas y los reglamentos todavía tienen dificultades para hacerse cargo de ellos.

“Crear nuevas agendas de investigación se ha convertido en una tarea cada vez más urgente y relevante. Estamos atravesando el tiempo de un gran laboratorio, donde se están experimentando a velocidad avanzada distintos desarrollos educativos con IA”, reflexiona el documento de la UNESCO, afirmando que motores de IA (como CHATGPT) pueden contribuir a ampliar o limitar los horizontes educativos. Añade una visión que consiste en que asegurar una “IA para todos”, donde la Inteligencia Artificial sea utilizada para reducir las brechas existentes en el acceso al conocimiento y a la investigación, y no acentúe las diferencias entre países y dentro de estos.

Docentes al pizarrón

UNESCO realizó una encuesta en más de 450 escuelas y universidades a nivel mundial, que arrojó muestra que menos del 10% de los centros educativos encuestados tienen políticas institucionales o directrices formales relativas al uso de aplicaciones de IA generativa. Posiblemente se deba, en gran parte, a la ausencia de claras normativas nacionales. 

En Uruguay, recientemente se realizó el Primer debate sobre Inteligencia Artificial y Educación de ANEP, donde docentes y autoridades reflexionaron sobre los posibles impactos de las herramientas de IA en las aulas. La pregunta disparadora fue si el sistema educativo nacional está preparado ante la presencia de la Inteligencia Artificial. Los docentes sostuvieron que “deben ser los primeros en el camino de conocer esta tecnología para evitar cierta asimetría” y ser “guías en la adopción” de la IA. Se reconoció también que no todos los docentes están preparados para integrar inteligentemente IA en sus clases.

Es fundamental integrar a docentes y estudiantes en la discusión sobre la introducción de la tecnología en el proceso educativo, ya que de nada sirve dar este paso sin sentido de pertinencia pedagógica y que, además, sea apropiado por las y los involucrados. La formación de los docentes es fundamental para garantizar una aplicación ética de sistemas de IA en las escuelas. Las reglamentaciones gubernamentales, además, son cruciales para asegurar un enfoque centrado en las personas para el uso de la IA.

En un artículo publicado por el diario argentino INFOBAE, un docente reflexiona sobre el CHATGPT y menciona que “nos debería levantar la vara a los docentes, y nos daría muchas herramientas para facilitar el aprendizaje”. Señala también que “Cuantos más datos tengamos, potenciado con la digitalización, más conocimiento vamos a poner a disposición para seguir entrenando estos modelos”. Sin embargo, afirma también que “el uso excesivo de ChatGPT por los estudiantes durante el proceso, y ejercitación en trabajos prácticos, puede traer la disminución de la creatividad y la independencia de pensamiento de los estudiantes”.

Coincide con esa opinión el el sitio web español EDUCACIÓN 3.0, que en un artículo titulado “No todo vale con la Inteligencia Artificial en la educación” nos recuerda que , más allá del potencial de esta tecnología para distintos aspectos relativos a la enseñanza, aún no podemos afirmar que existen beneficios derivados del uso directo de las herramientas en las aulas. El articulo además trae a la vista que no todos los contenidos curriculares de la escuela son asuntos de las máquinas: la ética, la moral, el cuidado común o el cuidado del medio ambiente, por nombrar algunos ejemplos. Entrenar el espíritu crítico, prosigue, puede incluir el descubrimiento de lo que subyace a, construye y entrena una IA.

El compromiso ético

Docentes e investigadores han declarado, además, que el uso de la IA trae consideraciones éticas, como el impacto de la IA en la privacidad de los estudiantes y la seguridad de sus datos.

Este tipo de herramientas se alimentan de datos, que se recogen de distintas fuentes y que en muchos casos fueron producidos con finalidades distintas. En el marco educativo, esto puede incluir información sobre el rendimiento escolar, pero podría abarcar un espectro mayor, atendiendo a la complejidad de las relaciones sociales que se producen dentro y fuera del aula, como intereses, interacciones y hasta perfiles emocionales y psicológicos.

La discusión en torno al tipo de tecnologías que se implementan, la forma en que se usa, los cuidados implementados en materia de derechos humanos, así como el nivel de control real y transparente que sobre la información que entra y sale del sistema son requisitos fundamentales para evitar la imposición de una lógica extractivista parasitaria de los sistemas educativos, que merme el derecho a la autonomía de estudiantes y docentes. Más todavía, cuando hablamos de niñas, niños y adolescentes.

El desarrollo de un compromiso ético profundo de las autoridades y de los cuerpos docentes con el derecho a la educación, a la autonomía, a la privacidad y a la intimidad son fundamentales previo a la implementación de cualquier sistema de IA.

En favor de estándares técnicos para fortalecer los derechos humanos

Para que tu celular, tu televisor inteligente o quizás tu moderno refrigerador pueda acceder a la a la red wifi de tu hogar se requiere que un grupo de múltiples actores, trabajando en las diferentes capas de internet, generen acuerdos para establecer estándares técnicos. Son discusiones que involucran a una larga lista de instituciones públicas y privadas, a cargo de distintas partes de los sistemas de telecomunicaciones, incluyendo la red intercontinental de cables submarinos, satélites, empresas de software y dispositivos, entre muchos otros. Por ejemplo, para poder acceder a internet desde tu celular en un avión se requirió acordar la utilización de determinadas bandas de frecuencias para el servicio aeronáutico móvil por satélite.

ISO, IEC, W3C, IETF, IRTF, IEEE, UIT son algunas de las organizaciones dedicadas a establecer estándares técnicos relacionados con las tecnologías digitales y emergentes. Son organizaciones con diferentes historias y ámbitos de acción, pero que tienen en común albergar y dirigir discusiones con el objetivo de generar normas técnicas para el funcionamiento, implementación e interopreatividad de tecnologías. Estos acuerdos usualmente se alcanzan por concenso y los distintos actores participan de forma voluntaria en los procesos.

Un reporte de la Oficina del Alto Comisionado de las Naciones Unidas, publicado en julio, durante la 53a sesión del Consejo de Derechos Humanos, reconoce el rol que la generación de estándares ha tenido en el desarrollo de una internet libre y abierta, lo que ha creado grandes posibilidades para el ejercicio de la libertad de expresión, el acceso a la información y el desarrollo de distintos modelos de negocio y crecimiento económico. “Las normas técnicas definen la forma en que ejercemos nuestros derechos económicos, sociales, culturales, civiles y políticos”, explica el reporte. A partir de ahí, realiza un análisis del ecosistema de trabajo para la creación de estándares e identifica algunos problemas para la promoción y el fortalecimiento de los derechos humanos.

Pero ¿qué tienen que ver los derechos humanos?

El informe ahonda en la relación entre los derechos humanos y los estándares técnicos, además de pensar la aplicación práctica de los Principios Rectores sobre las Empresas y los Derechos Humanos (A/HRC/53/42). Según el informe muchos estándares técnicos «definen procesos y acciones que responden directamente a ciertas preocupaciones relacionadas con los derechos humanos».

Hay estándares que tienen como finalidad la protección de la privacidad y de los datos personales de las personas. Por ejemplo, si haces clic en la barra de direcciones de esta web, podrás ver un ejemplo de lo que estamos hablando. Luego de muchos problemas relacionados con la vulnerabilidad del sistema «http», se desarrolló otro protocolo, el https o Protocolo seguro de transferencia de hipertexto, que transmite la información cifrada, para que su uso sea más seguro.

Otro ejemplo: en 2017, el Instituto de Ingenieros Eléctricos y Electrónicos lanzó el estándar que describe metodologías específicas para ayudar a abordar y eliminar problemas de sesgo negativo en la creación de sus algoritmos (IEEE standard P7003). Si pensamos en inteligencia artificial, los estándares técnicos pueden estar involucrados no solo en el desarrollo de la tecnología, sino también en lidiar con aspectos que tienen que ver con los derechos humanos a garantizar en el despliegue de estas tecnologías. Por ejemplo, en 2023, la ISO lanzó un estándar para la gestión de riesgos de la inteligencia artificial (ISO/IEC 23894:2023).

Sin embargo, también encontramos muchas discusiones que simplemente no toman en consideración los derechos humanos. Un estudio publicado en 2012 por la Organización Mundial de Comercio (OMC), hace hincapié en aspectos de las normas técnicas, como la necesidad de interoperabilidad, reducción de costos y facilitación del comercio que son importantes para el efectivo ejercicio de derechos. Otros informes, como el reporte del Relator de Libertad de Expresión de las Naciones Unidas, destacan que la «consideración inadecuada de los derechos humanos ha contribuido a la creación de lagunas técnicas que hacen que los usuarios sean vulnerables a restricciones de acceso, violaciones de la privacidad y otros abusos».

En este sentido, hay muchas capas que complejizan la consideración de los derechos humanos en estos espacios. Los altos costos de la participación, la falta de transparencia, la falta de participación de mujeres y personas LGBTQIA+, la falta de acceso a documentos y a listas de participación son algunas de las barreras que la sociedad civil viene reclamando desde hace tiempo

El rol de UIT

El informe del Alto Comisionado destaca el papel desempeñado por la Unión Internacional de Telecomunicaciones (UIT), el organismo especializado de Naciones Unidas a cargo de cuestiones como, por ejemplo, garantizar el uso racional, equitativo, eficaz y económico del espectro de frecuencias radioeléctricas y definir estándares en tecnologías de infraestructura de telecomunicaciones, como redes celulares.

En este caso específico, el reporte se centra en en el problema de la apertura a la participación, señalando que las normas y prácticas procesales limitan el impacto de los aportes de la sociedad civil.

Se identifica que hay pocas organizaciones de la sociedad civil en las listas de miembros de los grupos de estudio, sobretudo del Sector de Normalización de las Telecomunicaciones de la UIT. El reporte resalta que a pesar de que las organizaciones de sociedad civil participan de las delegaciones de los Estados miembros, «tales modelos se vuelven insostenibles cuando los objetivos de los miembros de la sociedad civil y del Estado chocan». Por fin, aconseja a la UIT reevaluar su modelo de participación y fortalecer «aún más sus esfuerzos para aumentar la participación del Sur Global, incluso mediante la sensibilización y el desarrollo de capacidades», reduciendo costos, proporcionando viajes y financiamiento para ello, y de esta manera aumentar la inclusión, con un enfoque específico en promover la representación equitativa de género.

Múltiples recomendaciones

No existe una solución sencilla para estos complejos desafíos. Además de la recomendación específica para la UIT, el informe del Alto Comisionado entrega recomendaciones diversas para los Estados, las organizaciones de estándares técnicos y la sociedad civil, que constituyen importantes pasos hacia una consideración efectiva de los derechos humanos en estos procesos y para alcanzar acuerdos sobre normas técnicas.

La oficina ACNUDH está iniciando un proyecto sobre esta temática para contribuir a la implementación de las recomendaciones que se exponen en su informe.

Entendemos que además de un diagnóstico más preciso sobre los problemas que vemos en múltiples espacios relacionados a estándares técnicos, es de suma importancia una continuidad para el seguimiento de los necesarios avances. Y de nuestro lado, seguiremos con nuestros planes para garantizar la participación efectiva en estos espacios.

Diplomacia y peligro: negociando la paz en el ciberespacio

El pasado mes de julio, el Grupo de Trabajo de Composición Abierta Sobre Seguridad y Uso De Las Tecnologías De La Información y las Comunicaciones 2021-2025  (OEWG, por sus siglas en inglés) de la Primera Comisión de la Organización de las Naciones Unidas, tuvo una nueva sesión sustantiva, dedicada a buscar consenso sobre su segundo informe anual de progreso. La instancia es el mecanismo por el cual todos los países de ONU discuten la actividad de los Estados en el ciberespacio, particularmente en atención al riesgo de ciberataques entre Estados. Se trata no solamente de la búsqueda de mecanismos para mejorar la seguridad, sino también para procurar la paz en el uso de las tecnologías.

Sin embargo, alcanzar consensos no fue fácil, y los avances se vieron opacados por la inclusión de elementos con poco apoyo, que algunos estados estiman pueden generar incertidumbre y riesgos.

Consenso, señor, consenso

Por un lado, la discusión del borrador final estuvo marcada por la insatisfacción de muchos Estados, debido a  cambios y omisiones de propuestas formuladas en la sala. Y por otro, por la inclusión casi forzada de propuestas todavía sin apoyo significativo, a fin de rescatar un frágil consenso, por la vía de notas al pie que reconocen la vieja aspiración de reglas internacionales vinculantes para los Estados, en lugar de prácticas y normas no obligatorias. Sin embargo, el informe constata puntos de avance y define las prioridades para las discusiones futuras, a la vez que identifica iniciativas de colaboración que ya existen entre Estados.

Dentro de los puntos positivos estuvo el avance en la propuesta de un directorio global de puntos de contacto en la ONU, para facilitar la comunicación entre Estados al momento de conocer una amenaza o un actor malicioso. Dicha propuesta ha avanzado hacia una operacionalización mediante la adopción de un documento anexo al informe anual. También se plasmaron las peticiones de reuniones intersesionales para tratar puntos de más difícil acuerdo, como la aplicabilidad del derecho internacional o la definición de las amenazas, que siguen siendo objeto de intensa discusión.

Asimismo, se incluye lenguaje que invita a los Estados a una mayor transparencia sobre su comprensión de las amenazas, las posturas sobre la aplicabilidad del derecho internacional y la implementación de reglas no vinculantes. Resultan alentadoras las referencias a la sensibilidad con el género, en particular en relación con las amenazas y la capacitación, en tímido reconocimiento de la multidimensionalidad de las brechas digitales de género.

Menos afortunada resultó la mención reducida o condicionada de la intervención de partes interesadas no gubernamentales («stakeholders»), incluyendo a la sociedad civil, como actores clave en varios de los aspectos de atención. Del mismo modo, la resistencia al lenguaje explícito sobre derechos humanos hizo que su presencia quedara muy acotada, limitando el reconocimiento de la necesaria consideración por los derechos humanos en las medidas para garantizar la seguridad en el ciberespacio.

 A pesar de que Derechos Digitales, como otras organizaciones, ha destacado el esquema de distintas partes interesadas, y ha defendido el lenguaje sobre derechos humanos, la atención de los Estados parece haber estado mucho más concentrada en  la búsqueda de consensos que en estos tópicos.

Negociación y denegación

El riesgo de no alcanzar consenso estuvo dado por la contumaz propuesta de integrar lenguaje que reconociera la propuesta —minoritaria— de trasladar los acuerdos a reglas de carácter vinculante a un nuevo tratado de la ONU sobre ciberseguridad. La “diplomacia de notas al pie” (como destacó una delegación) se convirtió en una salida práctica para salvar un consenso difícil entre países en abierto conflicto geopolítico. La insistencia recae en un punto promovido desde hace años por la delegación rusa y algunas aliadas, de negociar nuevos tratados de ciberseguridad y cibercrimen (esto último ya en discusión en un Comité Especial), debido a la importancia dada en algunos de esos países a la “seguridad de la información”, concepto más amplio que el de la “ciberseguridad”, preferido en Occidente.

Por cierto, la experiencia muestra que llegar a puntos muertos no implica necesariamente un fracaso total de los procesos, pero exige abordar la discusión de manera realista para no arriesgar la paz y el desarrollo globales.

Estamos lejos de considerar que el avance del OEWG represente las aspiraciones de la sociedad civil por promover medidas inclusivas y resguardar los derechos humanos. No obstante, no podemos abandonar la aspiración de mejores reglas de conducta entre Estados, que reconozcan que la seguridad y la paz requieren del aporte de distintos actores.


Un incentivo a la seguridad informática

Todo sistema informático es susceptible a vulnerabilidades. Esto incluye a sistemas informáticos tradicionales, pero también dispositivos móviles, cámaras, drones, automóviles y un número creciente de dispositivos electrónicos que llevan un computador dentro. Por esta razón, la búsqueda, detección, reporte y corrección de vulnerabilidades de software es cada vez más importante.

La investigación en seguridad informática consiste en un conjunto de prácticas que buscan hacer un sistema más seguro y confiable. Quienes la practican dedican su actividad profesional a incursionar dentro de los sistemas en busca de vulnerabilidades, para mitigar o eliminar el riesgo de que estas puedan ser explotadas. Es uno de los mecanismos más efectivos para mejorar la seguridad del software, aunque no siempre se realiza con autorización o consentimiento de la o las personas responsables del sistema. Es por ello que a veces se habla de “hacking ético”, entendido como aquel que se realiza con la intención de reportar vulnerabilidades para prevenir ataques cibernéticos malintencionados, protegiendo la información valiosa de empresas, usuarios y usuarias.

En Chile, la regulación sobre la investigación en seguridad está actualmente en discusión, a propósito de la nueva ley de delitos informáticos, vigente desde mediados de 2022, y que implementa el Convenio de Budapest contra la Ciberdelincuencia. Sin embargo, la forma en que la normativa favorece las actividades de seguridad es deficiente: solamente se despenaliza el acceso cuando existe autorización. En la discusión del nuevo proyecto de Ley Marco sobre Ciberseguridad se vuelve a intentar consagrar de forma razonable de una exención para la investigación de seguridad. En su artículo 46 se modifica la Ley de Delitos Informáticos, incluyendo la exención de responsabilidad penal por el delito de acceso ilícito, sin necesidad de autorización previa y sujeta a muchísimos resguardos.

Desde Derechos Digitales defendemos la aprobación de este artículo y la protección legal a la búsqueda y notificación de vulnerabilidades de ciberseguridad, especialmente si ponemos atención a las estadísticas. Según un análisis de la empresa multinacional de ciberseguridad Fortinet, durante el primer semestre de 2023, Chile fue el objetivo de más de 4.000 millones de intentos de ciberataques. Durante los últimos seis meses el secuestro de datos fue 13 veces más alto que a fines de 2022, posicionando a Chile como el quinto país con más intentos de ciberataques en la región.

La investigación en seguridad informática ayuda a las empresas a estar más protegidas. Es un elemento esencial para contrarrestar las acciones malintencionadas y reducir el impacto de los daños en todo tipo de organización. Además, permite mejorar las políticas y metodologías de ciberseguridad, reduce los ataques y las consecuencias derivadas de ellos, como los costos financieros y el daño a la reputación de la marca.

Es importante que las empresas comprendan el rol que tienen las y los investigadores para el ecosistema de seguridad de sus propios productos, servicios y sistemas, estableciendo estructuras mutuamente benéficas. Grandes empresas y organizaciones han aprendido la utilidad del proceso de notificación coordinada de vulnerabilidades. Las principales empresas de tecnología de Estados Unidos no solamente toleran esta actividad, sino que la fomentan, otorgando premios económicos en un proceso denominado Bug Bounty. Google, Microsoft, Facebook e incluso organizaciones como el Pentágono y la Fuerza Aérea de Estados Unidos interactúan de esta forma tanto con la comunidad de investigadores como de profesionales de ciberseguridad, fomentando su desarrollo.

La investigación permite mejorar los niveles de seguridad de los países, por eso es importante que cuente con la garantía de que quien la practique no se exponga a una sanción penal. En caso contrario, desincentiva la exploración en esta área. La investigación en seguridad informática puede, además, mejorar la formación de los profesionales de seguridad, ya que fomenta el aprendizaje de nuevas técnicas y métodos de protección de sistemas, y permite que los profesionales estén actualizados y preparados ante ataques informáticos cada vez más sofisticados. 

Por lo mismo, la exención de sanción al descubrimiento de vulnerabilidades genera mayor confianza y sube el estándar de ciberseguridad. Tal exención fue discutida también en la tramitación del proyecto de ley de delitos informáticos. La propuesta de la Cámara de Diputados planteaba una eximición de responsabilidad penal a quien ingresa sin autorización a un sistema, cuando informa de inmediato a la autoridad competente del Ministerio del Interior y Seguridad Pública. En esa ocasión, al igual que ahora, Derechos Digitales fue enfática en promover la exención, posición compartida por la academia y la comunidad técnica. Sin embargo, la propuesta fue rechazada en Comisión Mixta. La exención vigente, contemplada en el artículo 16 de la Ley de delitos informáticos, exige la autorización expresa del titular del sistema. El efecto que ha tenido esta disposición es claro: según el Coordinador Nacional de Ciberseguridad, en sesión de 10 de mayo de 2023, el número mensual de reportes sobre vulnerabilidades pasó de 40 a cero desde la entrada en vigor de la norma. 

El proyecto de Ley Marco de Ciberseguridad ofrece corregir las falencias de la propuesta rechazada y de la ley vigente, mediante la exigencia de múltiples requisitos para que opere la exención de responsabilidad. Y así fue, afortunadamente, aprobada en el Senado de Chile. No obstante, la propuesta está hoy bajo ataque: se teme que una exención —cualquier exención— abra la puerta a la actividad criminal.

Sin embargo, la oposición a la exención propuesta, de manera errada, conlleva la penalización de una actividad seria y fundamental en la formación de capacidades de ciberseguridad y prevención de ataques. Al mismo tiempo, ignora que el crecimiento en cantidad y en sofisticación de los ciberataques, incluidos los ejecutados desde el extranjero, no va a detenerse porque haya sanciones penales más altas en Chile. Es importante minimizar los riesgos legales para los investigadores. Esto puede hacerse por medio de evoluciones legislativas que otorguen garantías y condiciones para la realización de su trabajo, lo que debe ir aparejado de una sensibilización de los fiscales, para limitar los procedimientos legales en el caso de investigadoras e investigadores dedicados a la búsqueda de vulnerabilidades en sistemas informáticos.

Construyendo el fediverso

El fediverso es una “red de redes”, similar a internet. De ella participan redes federadas como Mastodon (que es similar a Twitter), Pixelfed (similar a Instagram), Peertube (a Youtube), entre muchas otras. Se puede pensar en el fediverso como un mundo compuesto por países, que están formados por ciudades. Los países serían las redes federadas y las ciudades serían las instancias donde las personas u organizaciones tienen cuentas. Las instancias son servidores en internet donde se instalan sistemas como Mastodon, Pixelfed u otros, y se pueden crear cuentas para publicar y leer contenido. En el fediverso existen miles de instancias que pueden interactuar unas con otras, a través de la federación.

La mayoría de personas que participan del fediverso lo hacen a través de cuentas que crean en instancias que son mantenidas por personas voluntarias y donaciones. Existen instancias grandes como Mastodon.Social, con más de 300 000 usuarias, y otras más pequeñas, como Mastodon Uruguay, que tiene poco más de 300. Las instancias funcionan gracias a sistemas de software libre que se instalan en servidores. De manera similar como se puede instalar WordPress para tener un sitio web, se puede instalar Mastodon para tener un microblog, PixelFed para compartir fotos, PeerTube para compartir videos, entre otros. Incluso, existen plataformas de hosting que permiten tener una instancia en el fediverso de manera fácil.

El pasado 31 de julio, la BBC decidió experimentar con el fediverso y creó una instancia de Mastodon, que actualmente aloja nueve cuentas de distintos programas. A diferencia de las instancias antes mencionadas, no está abierta para crear cuentas. Si alguien desea seguir una de las cuentas de la BBC en el fediverso, debe tener una cuenta en una instancia pública o implementar la propia. De esta forma, la BBC tiene la posibilidad de informar a la ciudadanía, sin tener la responsabilidad de almacenar los datos de las personas que comentan en sus artículos.

De manera similar, en abril de 2022, la Unión Europea implementó una instancia de Mastodon y otra de PeerTube para que distintas agencias puedan interactuar con la ciudadanía. Al igual que la de la BBC, estas instancias no están abiertas para que cualquier persona pueda crear una cuenta. Sin embargo, agencias estatales de la Unión Europea o funcionarios públicos podrían solicitar una.

Los gobiernos de Suiza, Holanda y Alemania han implementado sus propias instancias de Mastodon. El caso de Alemania es interesante. Algunos partidos políticos, como el Partido Verde y el Partido Social Demócrata, ya tienen sus propias instancias, lo que demuestra que diversos tipos de organizaciones están creando sus propios espacios en el fediverso para publicar y acceder a contenido.

La descentralización mitiga el impacto de los fallos

El modelo centralizado con el que trabajan las principales plataformas y redes sociales de internet es susceptible a un único punto de fallo. Si algo deja de funcionar en Twitter, este error afectará a más de 500 millones de cuentas; si la falla es en Instagram, entonces la afectación será a más 2 mil millones de cuentas. Esto ya ha sucedido. Por ejemplo, en octubre de 2021, Facebook, Instagram y WhatsApp dejaron de funcionar de manera simultánea por 5 horas a nivel de mundial. Eso quiere decir que miles de millones de personas a nivel global perdieron parte importante de su comunicación por culpa de una sola empresa.

En tal sentido, es casi imposible que todo el fediverso deje de funcionar a la vez o que que todas las instancias de una red como Mastodon fallen de manera simultánea. El modelo federado es más antiguo que internet y una de sus motivaciones es evitar un punto único de fallo. El correo electrónico es el caso de éxito más importante. Nunca ha sucedido que todos los correos electrónicos del mundo dejen de funcionar a la vez.

Desde el punto de vista de la privacidad, es importante tener la opción de escoger una instancia en la que se pueda confiar. De esta manera es posible saber quién tiene acceso a nuestros datos y se puede decidir dónde participar, sin perder la posibilidad de interactuar con el resto. Incluso, si se creó una cuenta en una instancia de Mastodon, es posible migrar la cuenta y sus seguidores a otra instancia. De esta manera, además de tener la posibilidad de proteger los datos, se evita tener dependencia de proveedor.

En el caso de las organizaciones, tener una instancia propia significa tener mayor autonomía. Las publicaciones no podrán ser borradas o censuradas, porque la plataforma está controlada por la organización. Desde el punto de vista técnico, no es más complejo que administrar un sitio web propio, sobre todo si la instancia no permite registrar cuentas de forma pública.

En marzo de este año, WordPress adoptó de manera oficial un plugin para publicar contenido al fediverso, a través del protocolo ActivityPub. Esto quiere decir que personas con cuentas en el fediverso pueden suscribirse al contenido publicado en un sitio web directamente desde su cuenta de Mastodon, Pixelfed u otra.

Las instancias gubernamentales mencionadas en este artículo y la de la BBC se encuentran en una etapa de pruebas. No se sabe si tendrán éxito y se mantengan a lo largo del tiempo, pero el hecho de que las empiecen a probar es alentador. Esperemos que en el futuro tengamos más redes descentralizadas y federadas, que estén pensadas para que las personas se comuniquen de manera libre y sin dependencia de proveedores. Ojalá que cada vez más gente habite el fediverso.

Cumbre Amazónica: desafíos en materia de tecnología y conectividad

Recientemente se realizó la IV Reunión de Jefes de Estado de la Organización del Tratado de Cooperación Amazónica (OTCA), con el objetivo de fortalecer la cooperación regional entre países de la Amazonía, sobre la base de una política común para el desarrollo sostenible, basada en la lucha contra la deforestación y las desigualdades sociales y económicas.

La Declaración de Belém, firmada por los ocho países que conforman la OTCA (Bolivia, Brasil, Colombia, Ecuador, Guyana, Perú, Surinam y Venezuela) junto a San Vicente y las Granadinas, los Congos e Indonesia, introduce elementos fundamentales en 113 puntos, reunidos en 18 ejes temáticos, que buscan fomentar la cooperación para evitar que la Amazonía alcance un punto de no retorno.

Entre los aspectos positivos consignados en la Declaración destaca la inclusión de una perspectiva de género, así como las medidas diferenciales dirigidas a mujeres, a la participación de los pueblos indígenas y de las comunidades locales. Junto con ello, son particularmente positivas las medidas enfocadas en proteger la labor de defensores de derechos humanos y aquellas que buscan generar financiamiento para programas que promuevan el manejo integrado y sostenible de los recursos naturales, además de fortalecer institucionalmente a la OTCA.

No obstante, activistas, expertas y comunidades originarias criticaron la Declaración, la que calificaron de “inherentemente frágil”. Entre las principales carencias del documento se señala la falta de un compromiso de cero deforestación —punto sobre el cual no se logró consenso— y de un pedido explícito para poner fin a las prospecciones petrolíferas en la región.

El rol de la tecnología en la Declaración: ¿avances o tecnosolucionismo?

La Declaración presenta a la tecnología como una herramienta para apoyar y lograr algunos de los fines deseados. Por ejemplo, se menciona la necesidad de promover la innovación de tecnologías para la sostenibilidad, el uso sostenible de los recursos naturales, la generación de conocimiento, la recuperación de las zonas degradadas y la promoción de prácticas agrícolas sostenibles, entre otras.

Sin duda, la tecnología ofrece capacidades relevantes para aportar a la sustentabilidad ambiental y podría constituirse en una importante aliada para dicho fin. Sin embargo, existe un uso reiterado del término “soluciones tecnológicas”, sin clarificar qué soluciones ni cuál sería su aporte. Esto dificulta evaluar las propuestas en base a estándares internacionales de legalidad, proporcionalidad y necesidad.

Si bien el espíritu del texto supone buenas intenciones, es necesario fortalecer las salvaguardas para evitar caer en tecnosolucionismos que ocasionan mayores peligros que beneficios. Evaluaciones de impacto en derechos humanos y lineamientos robustos para la protección de datos personales son fundamentales para imposibilitar que los fines perseguidos originalmente se desvirtúen, especialmente en aquellas medidas que apuntan al desarrollo de aplicaciones, plataformas digitales y otras soluciones tecnológicas para fortalecer la participación ciudadana.

De la misma forma, la cooperación estatal en materia de intercambio y acceso a tecnología debe estar sujeta a criterios de derechos humanos. Esto es especialmente importante considerando que en su punto 74, la Declaración fomenta la cooperación técnica del uso de tecnologías de percepción remota, incluyendo satélites, drones y otras plataformas aéreas, para el monitoreo y evaluación de los ecosistemas de la Amazonía, así como para la identificación de actividades ilegales y la promoción de la seguridad ambiental. Si bien es cierto que estas tecnologías pueden ayudar a dicho fin, la redacción del texto es demasiado amplia, especialmente en cuanto a finalidad; sin salvaguardas robustas, puede incentivar el intercambio y uso indebido de tecnologías con capacidades de vigilancia en detrimento de derechos fundamentales. 

Brechas de conectividad

La Declaración reconoce la demanda de conectividad y la necesidad de cerrar la brecha digital, mediante el fortalecimiento de infraestructura sostenible. A su vez, insta a la cooperación en el desarrollo conjunto de tecnologías de conectividad para facilitar el acceso a localidades aisladas, por el agua y por el aire, para fines de atención social.

Si bien estos son elementos valiosos para avanzar el acceso a internet en la región amazónica, no explicita la importancia de la conectividad para el ejercicio de derechos humanos, particularmente en comunidades que han sido históricamente excluidas del acceso a derechos.

Es importante considerar que, para el acceso y uso de las tecnologías, estos grupos encuentran las mismas barreras que para el ejercicio de otros derechos fundamentales, pero que la interacción con la tecnología (o su ausencia) puede a su vez generar nuevas formas de exclusión.

En el proyecto de investigación “Latin America in a Glimpse: Amazonía”, recientemente publicado por Derechos Digitales, resaltamos que el impacto de la brecha digital se identifica en el acceso a servicios públicos y en la posibilidad de ejercer derechos fundamentales, como el derecho a la educación, a la salud y a la libertad de expresión. La infraestructura fue identificada como causa y evidencia de los obstáculos para el acceso a servicios relacionados con derechos fundamentales, entre los que también se encuentra el acceso a internet, por lo que la referencia en la Declaración es claramente positiva.

Sin embargo, es importante que esta sea accesible, con costo efectivo, robusta, escalable y con capacidad para permitir las aplicaciones que son consideradas relevantes. La sola referencia a la importancia de la infraestructura es insuficiente si no existen lineamientos que orienten su desarrollo. La promoción de redes comunitarias puede ser una alternativa atractiva, pues son infraestructuras de comunicaciones desplegadas, administradas y gestionadas por la propia comunidad que las utilizan.

A su vez, es importante resaltar que la conectividad es el primer paso en una serie larga de acciones necesarias para que las tecnologías de información y comunicación (TICs) puedan ser utilizadas en beneficio de las comunidades, por medio de la apropiación tecnológica, lo que requiere el aseguramiento de un entorno habilitante para ello. Esto implica no solo el uso de una herramienta tecnológica para satisfacer una necesidad, sino un continuo desarrollo, reutilización y ampliación de la tecnología por parte de la comunidad, a medida que se identifican nuevas necesidades.

Desafíos y oportunidades

La Declaración provee varios lineamientos y compromisos positivos para la región amazónica. El énfasis de la participación de las comunidades en los procesos identificados en la Declaración es clave, pues se trata de un derecho humano reconocido internacionalmente, que sienta las bases de toda política pública dirigida a ellas y que también es esencial para lograr la apropiación social de las tecnologías. Sin embargo, la Declaración no refleja ni apunta a generar políticas públicas situadas, que tengan como objetivo lograr autonomía tecnológica. Tampoco se aborda su relación con otras problemáticas de justicia social, ambiental y derecho al territorio.

Resulta imperioso que los estados amazónicos incorporen estas temáticas desde una perspectiva de derechos, que integre a las tecnologías como un elemento que beneficie a las comunidades, por medio de políticas públicas de acceso a internet y a las TICs a partir de las necesidades de los pueblos originarios y la preservación de la Amazonía. Se necesita un cambio de paradigma que permita la formulación de propuestas de políticas públicas desde una visión holística y situada. 

Estrategia Nacional de Patrimonios Digitales: más dominio público, posibilidades de uso y tecnologías abiertas

El Ministerio de las Culturas, las Artes y el Patrimonio de Chile, por medio de la Subsecretaría del Patrimonio Cultural, ha comenzado el diseño de una Estrategia Nacional de Patrimonios Digitales. Si bien el proceso se encuentra todavía en la fase de diagnóstico, se trata de una noticia sumamente esperanzadora. Actualmente, dentro de las instituciones que dependen del Ministerio, existen una serie de iniciativas centradas en la digitalización y la puesta a disposición de las personas de diversos materiales en formatos digitales, pero la falta de lineamientos comunes merma el impacto potencial de dichos esfuerzos, al mismo tiempo que dificulta su propia subsistencia, como identificamos en el estudio “Digitalización del patrimonio documental”, publicado en 2019.

En un país extenso y fuertemente centralizado, las tecnologías digitales brindan una oportunidad única para que las personas a lo largo del territorio nacional puedan acceder, disfrutar y utilizar la cultura de forma sencilla y a bajo costo. Bien construida, la estrategia podría ampliar de forma exponencial las posibilidades de las y los habitantes del país de acceder y participar de la vida cultural.

Sin embargo, ello supone, primero, generar condiciones dentro de las instituciones que permitan la disponibilización de artefactos culturales. Esto incluye la entrega de recursos suficientes para ello, pero además la creación de una cultura institucional que entienda el valor de este acto. Una comprensión común sobre este punto es fundamental, además, para no sucumbir frente a potenciales presiones de actores con gran poder de lobby, que se han movilizado de forma sumamente efectiva en favor de mayores restricciones a la circulación y el acceso a la cultura en el país.

Las definiciones que se tomen hoy en torno a la política de patrimonios digitales pueden impactar de manera importante el futuro del panorama cultural nacional y, por lo tanto, esperamos que se hagan a conciencia y con una fuerte vocación en favor del acceso y la participación comunitaria.

Un problema de definiciones

Una primera cuestión que parece importante resolver es el alcance de la idea de “patrimonio digital”. La decisión que se tome en torno a este punto determina en gran medida el carácter de la estrategia. UNESCO, el organismo internacional que probablemente más ha abogado en favor de la creación de este tipo de políticas de preservación, lo define como “todos aquellos recursos de carácter cultural, educativo, científico o administrativo e información técnica, jurídica, médica y de otras clases, que se generan directamente en formato digital o se convierten a éste a partir de material analógico ya existente”. Se trata de una definición correcta, pero sumamente amplia que, entendida al pie de la letra, abarca casi cualquier cosa, lo que no permite generar lineamientos para jerarquizar los esfuerzos de conservación.

Una forma de acotar sería, por ejemplo, circunscribir la estrategia a la preservación de obras de arte digital, un campo en expansión y que sin duda requiere de esfuerzos de conservación propios. Sin embargo, una definición de este tipo —importante como es— es demasiado estrecha y no da cuenta de la potencia que pueden tener las tecnologías digitales en el acceso a la cultura. Entendiendo que la estrategia debe destinar recursos para el resguardo de este tipo específico de artefacto cultural, también creemos que esta debería ir más allá.

La definición de UNESCO menciona además aquellos recursos que han sido digitalizados. Esto abre una puerta sumamente interesante para que las bibliotecas, galerías, museos y archivos generen repositorios digitalizados a partir de sus colecciones. Memoria Chilena ha sido pionera en este tipo de trabajo, poniendo a disposición de las personas versiones en alta calidad y sin marcar de distintos objetos culturales pertenecientes a la colección de la Biblioteca Nacional, iniciativa que podría ser replicada en el resto de la red de instituciones dependientes del Ministerio de Cultura. Lo anterior puede estar complementado con un énfasis en la preservación y rescate de las obras que se encuentran en el dominio público, lo que permitiría que todas las personas accedieran a un abanico mayor de usos potenciales sobre las obras digitalizadas, versus aquellas que cuentan con restricciones de derechos de autor vigentes.

Otro elemento que llama la atención en la definición de UNESCO es que utiliza una concepción amplia de cultura, que no la circunscribe al ámbito artístico. A partir de ello, la estrategia podría considerar la disponibilización del patrimonio cultural generado con recursos públicos. Las distintas instituciones que conforman el Estado crean diariamente obras de distintos tipos, muchos de ellos documentos administrativos, pero también fotografía, video, ilustraciones, mapas, trabajos de diseño, música y otros. Gran parte de este material ha sido creado originalmente en formatos digitales y su relevancia se considera efímera. Sin embargo, las tecnologías digitales abren y facilitan las posibilidades de remezclar y reutilizar obras para la producción de nuevos artefactos culturales. Una gráfica, un video o una fotografía generada en el marco de una campaña de comunicación o de la documentación de una actividad en terreno por parte de un ministerio puede adquirir nueva vida en un collage o un documental. Poner a disposición de las personas este tipo de recursos, con la intención explícita de que sean usados, contribuye a la producción de nuevo patrimonio. Para ello el desafío es principalmente administrativo, pues supone la creación de una norma que defina posibilidades de usos para las obras creadas con fondos públicos, más allá de las restricciones regulares del derecho de autor.

En digital, ¿y para qué?

Además del problema que supone definir la noción de patrimonio cultural, otra decisión relevante tiene que ver con el objetivo de la política. Una primera respuesta puede ser la preservación del patrimonio. En efecto, se trata de un objetivo relevante, sin embargo, por sí mismo es sumamente acotado, entendiendo que la preservación se puede realizar al interior de las instituciones y no supone necesariamente el acceso público al catálogo de obras que forman parte del patrimonio digital.

Otra respuesta posible es preservar y garantizar el acceso de las personas a las obras. Existen hoy algunos esfuerzos muy interesantes en esa dirección, como Ondamedia en el caso del audiovisual o la Biblioteca Pública Digital. Sin desmerecer el valor de dichas iniciativas, necesitamos políticas culturales que hagan una interpretación amplia del concepto de “participación” a la que alude el artículo 27 de la Declaración Universal de Derechos Humanos, que no se restrinja a “experimentar” los objetos culturales, sino que además incluye la posibilidad de generar artefactos culturales y ponerlos en circulación. El acceso al patrimonio cultural es fundamental para ello.

En ese sentido, las posibilidades de reutilizar obras para la producción de nuevos artefactos culturales debería estar contemplado como una parte fundamental de la estrategia, pues ahí está el potencial de un cambio radical en la política cultural del país, que se abre a las posibilidades de nuevas formas y lógicas de producción cultural.

Lineamientos técnicos y desafíos políticos

Una preocupación que puede parecer de segundo orden, pero que es fundamental, tiene que ver con los aspectos técnicos y cómo la estrategia puede entregar lineamientos sobre la manera en que los recursos digitales deben ser almacenados y puestos a disposición de la población.

Sin entrar en detalles ni señalar tecnologías específicas, es importante que la estrategia asegure la disponibilización de los recursos digitales en la mejor calidad posible y sin ningún tipo de marca de agua u otros identificadores que atenten contra la integridad del recurso. Además, es importante que la estrategia aborde el tema de la interoperabilidad tecnológica y la potencial obsolescencia de los formatos. Los lineamientos de UNESCO sugieren la adopción de tecnologías abiertas como forma de enfrentar ambos desafíos, una recomendación que la futura estrategia debería tomar.

Finalmente, en el ámbito político, es necesario señalar que la estrategia se está construyendo en medio de un cambio de gabinete que ha significado la salida de Jaime de Aguirre y el nombramiento de la actriz Carolina Arredondo como nueva Ministra. Esperamos que esto no implique un retraso en la construcción de la política y que pueda quedar finalizada durante el actual periodo presidencial.

Migrantes sin papeles y su regularización

Quienes hemos migrado a otro país, o quienes han soñado en hacerlo, tenemos como una gran prioridad contar con “los papeles al día” lo que incluye, entre otros, portar un pasaporte y visado vigente, y obtener el documento de identidad o permiso temporal de estadía en nuestro lugar de destino.

No tener los papeles al día tiene consecuencias relevantes. Sin ellos es casi imposible matricularse en una universidad o colegio, reduce los chances de conseguir empleo formal, puede alejarnos del acceso a servicios de salud y ni hablar de abrir una cuenta bancaria para emprender o recibir un sueldo, o de la posibilidad de enviar o recibir mesadas. Todo esto sumado al miedo continuo de ser deportados o devueltos a nuestro lugar de origen por las autoridades migratorias.

La situación de migrantes indocumentados ha motivado al Relator Especial de los Derechos Humanos de los Migrantes de las Naciones Unidas a publicar un informe dedicado a llamar la atención de los Estados para que su situación se regularice. El informe, quizá por primera vez, advierte algunos aspectos sobre el rol que las tecnologías digitales juegan en ese tipo de políticas y que vale la pena explorar de cerca.

¿Qué es eso de la regularización?

Según el Relator Especial, la regularización es el proceso que emprenden los Estados para poner fin al limbo en que viven los migrantes indocumentados, a través de políticas diversas que buscan dotarlas de los permisos necesarios para normalizar su estadía o residencia en el país.

Estas políticas casi siempre tienen un período de duración limitado y operan bajo restricciones o requisitos exigentes, por lo que beneficiarse de estas no es fácil. El informe del Relator Especial menciona el caso de las políticas de regularización de migrantes indocumentados en Ginebra durante 2017 y 2018. Dicha política regularizó a indocumentados siempre que llevasen residiendo allí más de 10 años — 5 para personas con hijos—, tuviesen un empleo formal e independencia económica, un certificado A2 de francés y ningún antecedente penal.

Las políticas de regularización pueden llegar a ser tan exigentes, poco transparentes y discrecionales, que terminan excluyendo a los migrantes más vulnerables.

Regularización: entre la digitalización y la biometría

El informe menciona cómo, fruto de los procesos de transformación digital que están experimentando las políticas y proceso migratorios en distintos países, el trámite de las solicitudes de regularización depende cada vez más de los canales digitales. Para los migrantes sin papeles que no tienen acceso estable a internet o dispositivos para navegar en línea, o que no cuentan con las habilidades necesarias para navegar los sitios web o aplicaciones móviles a través de las cuales enviar y consultar el estado de su solicitud, la digitalización puede suponer un reto adicional. La brecha digital, recordemos, puede agravar desigualdades de base y el informe enfatiza que no tener papeles al día es un factor de vulnerabilidad muy serio.

Pero otro asunto que menciona el informe tiene que ver con la captura de datos biométricos de migrantes indocumentados como un obstáculo adicional en la postulación a los procesos de regularización. No obstante, no explora cuál es el impacto que podría tener la recogida de ese tipo de información en esos contextos. Una oportunidad perdida de cara a la progresiva masificación de ese tipo de prácticas en países como Colombia y, más recientemente, en Chile.

En ese contexto, distintas preocupaciones e intereses opuestos convergen. Por un lado, los migrantes indocumentados son titulares del derecho a la privacidad y protección de datos con la autonomía para decidir a quién entregan o no su información personal sensible. No obstante, el ejercicio del consentimiento en los contextos de regularización se ve en entredicho cuando la entrega de los datos biométricos supone una condición para acceder a los procesos de regularización migratoria. Ahora ¿qué finalidades cumple esta captura de datos?

En el caso de Chile, el más reciente caso en nuestra región, la toma de datos biométricos no tiene un fin del todo claro, pero abstenerse a su entrega puede influenciar negativamente la decisión de regularización migratoria que depende de si la persona solicitante tiene o no un empleo formal, vínculos familiares, ausencia de antecedentes penales, entre otros. Sin embargo, la política omite que las oportunidades de formalización de empleo para los migrantes sin papeles son escasas, si es que existen.

La creciente tendencia de recopilación de datos biométricos dice justificarse en la necesidad de identificar a las personas migrantes sin papeles, pero ¿qué otras alternativas menos invasivas de su privacidad podemos imaginar en aras de normalizar su situación migratoria? Urge fortalecer la rendición de cuentas de los Estados que despliegan políticas de regularización, al tiempo que aumenta su apetito por datos cuyo abuso puede ser instrumentalizado en contra de personas en condición vulnerable. Las políticas migratorias suelen tener reglas esquivas sobre privacidad y protección de datos, incluso cuando estas puedan estar vigentes.

En el caso chileno hay un proyecto de ley de protección de datos que lleva más de dos décadas en trámite. ¿Qué tema no ha sido discutido en la futura ley? La protección de los datos biométricos de personas migrantes en situación irregular, incapaces de negarse a entregar sus datos sensibles. ¿No valdría la pena corregir el rumbo ahora, que todavía estamos a tiempo? Ojalá en futuros informes el Relator Especial pueda profundizar en este tipo de prácticas.

Hasta entonces, les sugiero estar pendientes de nuestra próxima publicación sobre programas de identidad digital en la región. En ella hay hallazgos relevantes para avivar la discusión también en esta materia.