Por una internet descentralizada

WhatsApp es la plataforma utilizada en América Latina para los chats familiares, de estudios, de trabajo, para comercio y más. De repente, durante casi un día todas estas personas quedan incomunicadas. Seguramente habrá quiénes se alegraron por la paz de un día de desconexión. Sin embargo, para una parte no despreciable, dicho evento significó inconvenientes varios y posiblemente no cumplir sus actividades con normalidad.

A nivel mundial, WhatsApp sirve para comunicar a dos mil millones de personas, casi tres veces la población de América Latina. ¿Qué habría pasado si en lugar de caerse las plataformas de Meta, se hubieran caído Claro y Movistar? Seguramente esto habría sido un escándalo y estas empresas habrían sido multadas por los Estados de varios países y por no miles, sino millones de clientes. No es para menos: las telecomunicaciones son un recurso esencial en la sociedad actual. Además, consideremos que WhatsApp utiliza como estrategia el zero rating, es decir, no precisa comprar previamente un paquete de datos por lo que afecta especialmente a las personas con menor poder adquisitivo.

Se podría decir que “si no pagamos por el servicio tampoco podemos quejarnos”, pero la realidad es que sí pagamos cuando aceptamos que nuestros datos sean recolectados y analizados por estas empresas. Esta vez no hablaremos sobre privacidad, sino sobre la concentración de las comunicaciones en la red. Internet fue pensada originalmente como una red de redes. En la que, si una de estas redes fallaba, no se tenía un fallo a nivel global. Cada vez más internet ya no es una red de redes, sino una red de pocas redes dominadas por pocas empresas de Estados Unidos.

Muchos al ver la caída de WhatsApp decidieron cambiarse a plataformas como Telegram o Signal. Esto tampoco es una solución mientras Telegram y Signal no puedan hablar entre sí y con otros proveedores, de manera similar a como funciona el correo electrónico. Si existen varios proveedores que funcionen de forma interconectada va a ser más difícil generar una estructura de poder centralizada y fuerte que, tarde o temprano, será abusiva.

Es innegable que para el correo electrónico existen grandes proveedores como Gmail, Yahoo u Outlook.  De todas maneras, contamos con disposición de miles de servidores de correo electrónico provistos por empresas más pequeñas; autogestionados por empresas, organizaciones o individuos. No ha existido nunca una caída de correo electrónico como tal. Si bien en diciembre de 2020 se registró una falla de Gmail y otros servicios de Google (una importante: afectó a más de mil millones de personas) no implicó la suspensión de los servicios de todas las redes de correos electrónicos en el mundo.

El concepto de tener varios proveedores que se comunican entre sí es conocido como federación. Si el correo electrónico es un servicio federado, ¿por qué no pueden serlo los sistemas de mensajería instantánea? Esta pregunta se la planteó un grupo de técnicos a finales de los años noventa y trabajaron en lograr un estándar que permita la comunicación de varios servidores de chat para que se puedan comunicar entre sí. Así es que en octubre de 2004 nació la primera versión del protocolo XMPP (protocolo extensible de mensajería y comunicación de presencia, por su sigla en inglés) que desde entonces permite la mensajería instantánea federada.

Este protocolo con un nombre difícil de recordar fue adoptado de forma parcial por WhatsApp en sus inicios. Es más, WhatsApp no inició desde cero, sino que utilizó el popular sistema de software libre Ejabberd para brindar el servicio. La implementación de XMPP fue parcial, puesto que no implementaron la federación. Es decir, que, si bien la tecnología permitía interactuar de forma igual con otros sistemas, WhatsApp no la quiso implementar.

WhatsApp no fue la única empresa grande que apoyó sus sistemas de chat con el protocolo XMPP: el sistema Google Talk funcionó de manera federada entre los años 2005 al 2013. Durante ese periodo de tiempo, se podría chatear desde la interfaz web de Gmail con cualquier persona dentro de la red XMPP. Lamentablemente, para Google la interoperabilidad dejó de ser una prioridad, por lo que esta opción no se encuentra en funcionamiento.

Si es técnicamente posible que los sistemas de chat sean federados, ¿por qué los principales sistemas no lo son? A inicios de los años dos mil, antes de WhatsApp, era común el uso de SMS. En Ecuador, hasta octubre de 2004 era imposible enviar SMS entre diferentes operadoras celulares, pero esto cambió gracias a una regulación estatal, y fue un suceso tan importante que el primer SMS recibido entre operadoras fue realizado por el entonces presidente de la república.

No es necesario tener Gmail para enviar un correo a alguien que tiene cuenta en este servicio. No debería ser necesario tener WhatsApp para poder contactarse con alguien de esta red desde otra plataforma como Signal, Telegram o cualquier otra. En este artículo se habló sobre XMPP, pero hay otras tecnologías que permiten tener sistemas de chat federados, por ejemplo, Matrix, un estándar similar a XMPP que se viene desarrollando desde 2014.

Desde sus orígenes, las tecnologías detrás de internet han permitido tener una red descentralizada con muchas redes pequeñas que se comunican entre sí. En los últimos años, internet se ha convertido en un espacio centralizado donde pocas empresas controlan las comunicaciones de miles de millones de personas. Esto da demasiado poder a las empresas y les quita autonomía a las personas. Las soluciones técnicas no son suficientes: es necesario contar con políticas que obliguen a las plataformas a interactuar entre sí y con proveedores pequeños para que las personas decidan qué servicio quieren usar o, de ser el caso, implementarlo en su propia infraestructura.

Una internet feminista no es un ideal lejano, sino una realidad que debe ser construida a diario

La violencia de género en línea se inserta en un contexto de violencia estructural que en América Latina ha buscado alejar a las mujeres (especialmente las mujeres racializadas) y personas LGBTQ+ de espacios y debates públicos. Este tipo de violencia se suma y da continuidad a brechas y otras formas de violencia físicas o psicológicas que persisten y se intensifican en la región.

Si internet tiene el potencial de amplificar el acceso a la información y las posibilidades de expresión libre y democrática, las distintas formas de violencia en línea generan trauma y exclusión, cuando las víctimas se sienten forzadas a desconectarse para sentirse seguras. Como señaló en su más reciente informe la Relatora Especial para la Libertad de Expresión de la ONU, Irene Khan, la equidad de género sigue un objetivo distante cuando se trata de libertad de expresión. “En la era digital, internet se ha convertido en un nuevo campo en la disputa por derechos de las mujeres, aumentando las oportunidades para que se expresen, pero a la vez multiplicando las posibilidades de represión”.

Según datos de Unesco, de una muestra de 901 periodistas de distintos países que se identifican como mujeres, 73% ha experimentado alguna forma de violencia en línea – siendo la amenaza de agresiones físicas y sexuales dirigidas a ellas o sus familiares una de las más comunes. Más grave: 20% reporta haber sufrido ataques o abusos consecuentes de violencia en línea. 

Los daños son reveladores: además de afectar sus derechos a la libertad de pensamiento, expresión, asociación, protesta y de participación en la vida pública, la exclusión digital restringe las posibilidades de las personas afectadas por la violencia de pedir ayuda y trae limitaciones al ejercicio de sus derechos sociales. Estos incluyen el derecho a la información —por ejemplo, información relevante sobre salud, incluida la salud sexual y reproductiva— el acceso a beneficios sociales, el derecho a la educación, acceso al conocimiento y cultura, entre muchos otros. Más todavía durante la pandemia en curso, cuando todos estos derechos pasaron a depender de manera mucho más dramática de la tecnología. 

Por otro lado, toda la sociedad pierde con el silenciamiento de voces, especialmente aquellas de defensoras de derechos humanos, activistas y organizaciones feministas, artistas y periodistas que ofrecen opiniones críticas a los poderes económicos y políticos establecidos. Mientras aumenta la represión, persecución y criminalización de discursos disidentes, la violencia de género representa una forma más de censura contra las mujeres y personas LGBTQ+.

En el día que marca la lucha contra la violencia contra la mujer nos parece fundamental recordar la urgencia de hacer de internet no solo un espacio seguro para la expresión de las mujeres en toda su diversidad, como un ambiente en el que tal expresión se dé de manera libre de la interferencia arbitraria de agentes públicos y privados.

Es inaceptable que la protección de grupos vulnerables sea utilizada como excusa para más vigilancia, criminalización y control. Al contrario: es crucial que las mujeres puedan participar activamente en las discusiones y la formulación de políticas relacionadas a las tecnologías y que se dé prioridad a fortalecer las iniciativas de acompañamiento a víctimas de violencia en línea y fuera de línea en la región, así como proteger aquellas que utilizan las redes para defender sus derechos.

Una internet feminista no es un ideal lejano, sino una realidad que debe ser construida a diario.

Cuerpos y datos: Las tecnologías de identificación biométrica aumentan en América Latina

Si has caminado por el centro de Santiago de Chile durante los últimos meses, probablemente los has visto afuera de algún centro comercial, a la entrada de un parque o frente a un semáforo concurrido: dos personas con una esfera metálica, ofreciéndote dinero a cambio de una imagen de tu ojo. O algo así. El dinero no es dinero per se, sino el equivalente a 20 USD en Worldcoin, una criptomoneda. Y la imagen de tu ojo no es una simple imagen de tu ojo, sino un escaneo de tu iris, dato biométrico utilizado para identificarte. Todo con un aire a pacto faustiano muy de película sci-fi de bajo presupuesto. El propio Edward Snowden salió a criticar la iniciativa, que en Chile contabiliza alrededor de 10 mil inscritos. 10 mil iris escaneados.

Una cifra como esa es preocupante y un poco desmoralizante, la verdad. Pero a pesar de ello, comprensible: en un país con una ley de protección de datos personales del siglo pasado, donde el cliché de los-datos-son-el-nuevo-petróleo se repite como mantra, pero donde no se hace nada al respecto (al menos, para proteger mejor esos datos) y donde la información personal parece pasar de un lado a otro con absoluta promiscuidad, no es raro que para algunas personas entregar el iris a cambio de una cantidad potencial de dinero, por poco que sea, no es la gran cosa.  

Y, sin embargo, debería ser una gran cosa. Más allá de lo anecdótico del caso, la creciente normalización del uso, recolección y exigencia de datos biométricos es una tendencia preocupante. De muestra un ejemplo: esta semana nos enteramos de que una administradora de fondos de pensión (AFP) está exigiendo validar la identidad de sus clientes a través de biometría facial. La excusa es siempre la misma: seguridad. ¿Pero la seguridad de quién? Saber que mis datos sensibles, relativos a mi cuerpo, están siendo almacenados y procesados quién sabe dónde, bajo quién sabe qué condiciones, por quién sabe quién, no me transmite ninguna seguridad. Al contrario, me da escalofríos.

Si una empresa dedicada a la gestión de dinero no es capaz de encontrar otras maneras de asegurar la recaudación que no impliquen generar y almacenar un modelo algorítmico de mi rostro, quizás a esa empresa no debería confiársele tal tarea. Porque el día de mañana, cuando esa base de datos se filtre, no hay nada que puedan hacer para devolverme el control sobre mi cara. Ese es el gran tema con los datos biométricos: una vez entregados, no hay vuelta atrás.

En la práctica, la identificación biométrica requiere ceder control sobre el propio cuerpo.

Reconocimiento facial

Cualquier discusión sobre identificación biométrica quedaría incompleta sin hablar de reconocimiento facial. Recientemente, las organizaciones reunidas en el consorcio Al Sur publicaron “Reconocimiento facial en América Latina: tendencias en la implementación de una tecnología perversa”, una investigación colectiva que identifica 38 sistemas de reconocimiento facial desarrollados en la región, al alero de distintas políticas públicas.

Alguna de la información recopilada, aunque poco sorprendente, constata sospechas fundadas: el número de sistemas de reconocimiento facial se ha incrementado de manera importante durante los últimos años, su finalidad principal es la vigilancia del espacio público y los procesos de auditorías externas para fiscalizar el funcionamiento de los sistemas casi no está considerando en ninguna parte, ni hablar de estudios de impacto en derechos humanos. Tampoco sorprende la dificultad para acceder a información básica respecto a las tecnologías utilizadas y sus proveedores, que ha sido la tónica en la mayoría de los esfuerzos realizados en la región a la hora de lidiar con este tipo de políticas públicas. Por ello es destacable el esfuerzo por recopilar información sobre proveedores y los países en los que operan. Una cuestión llamativa es una tendencia a la adopción de  tecnologías por medio de donaciones, característica de algunas empresas chinas.

Pero más allá de la información recogida en el estudio (disponible además en un sitio web especialmente dispuesto para ello, que pueden visitar aquí), llama la atención cómo la región parece ir a contrapelo de la tendencia mundial, donde se parece haber alcanzado algún consenso respecto de la necesidad de tomar medidas contra este tipo de tecnologías, al menos hasta tener mayor certeza de sus efectos negativos y cómo sopesarlos desde una perspectiva de derechos humanos. Pero a pesar de la declaración de la Alta Comisionada de la ONU para los Derechos Humanos, las distintas localidades que han impuesto moratorias o prohibiciones de utilizar sistemas de reconocimiento facial hasta incluso el anuncio de Facebook de dejar de utilizar el sistema de reconocimiento facial en su plataforma, parece ser que esas noticias no han llegado a los oídos de los tomadores de decisiones en América Latina.

La pregunta es qué es lo que se requiere para poder hacer entender tanto a las autoridades como a la población en general sobre la necesidad de tomarnos este asunto en serio, cuando parece haber conciencia de los riesgos, existe experiencia internacional relevante, declaraciones de organismos internacionales y, sin embargo, la región parece un campo cada vez más fértil para la implementación de este tecnologías de identificación biométrica para cualquier cosa.

Coronavirus, tecnología y privacidad

El 11 de marzo del año 2020, la Organización Mundial de la Salud declaró la pandemia de COVID-19, originada por el coronavirus SARS-CoV-2. A medida que la enfermedad se iba expandiendo, saturando los sistemas de salud, los gobiernos declararon  estados de emergencia, restringiendo algunos derechos e implementaron diversas medidas para intentar contener la expansión del virus, incluyendo el cierre de aeropuertos y fronteras terrestres, de escuelas y de los lugares de ocio, llegando incluso al confinamientos de la población.

La emergencia sanitaria obligó a los gobiernos de todo el mundo a buscar soluciones para contener la expansión del virus. Y la tecnología jugó un papel importante en el afán por minimizar el contagio y mantener vigilada a la población en los momentos de las restricciones de movilidad. En América Latina y el resto del mundo se desarrollaron una gran cantidad de aplicaciones que ofrecían información oficial sobre el desarrollo de la enfermedad, realizaban test de autodiagnóstico, intentaban hacer rastreo de contagios, entre varios otros usos. Se utilizaron técnicas de Big Data para monitorear las aglomeraciones y los movimientos de la población a través de datos de conexión de teléfonos celulares a torres de telefonía, datos de geolocalización y datos del bluetooth de los dispositivos celulares.

Uno de los principales puntos de debate se centra en la tensión entre el derecho a la salud y el derecho a la privacidad, en relación al uso que han dado los gobiernos a distintas tecnologías que capturan datos personales y sensibles, en el marco de estrategias para contener la enfermedad; cuando solicitan a las empresas privadas la entrega de los datos que recolectan, y cuando esas tecnologías se emplazan sin un ejercicio de prudencia sobre los impactos que pueden causar en los derechos humanos de la población

Con el objetivo de conocer cómo fue implementado este abordaje en la región, particularmente con relación al uso y protección de los datos personales, Derechos Digitales juntó a la Global Network Initiative realizaron un estudio para conocer de qué manera fueron usadas las tecnologías y si se puso en riesgo la privacidad de las personas. El objetivo era realizar también un primer acercamiento a los casos en los cuales los gobiernos solicitaron datos a las empresas de telefonía móvil, para entender el modo en que se realizó esa colaboración, desde una perspectiva de derechos humanos.

El estudio, titulado El uso de tecnologías para el combate de la pandemia: Datos personales en Latinoamérica, está disponible en inglés y castellano, y analiza los casos de 6 países de Latinoamérica: Argentina, Bolivia, Brasil, Colombia, Ecuador y El Salvador.

De las respuestas tecnológicas estudiadas salen a la luz algunos problemas que deben ser revisados si las futuras estrategias de salud echarán mano nuevamente de ellas. Problemas de seguridad y riesgos a la privacidad en el diseño de aplicaciones; idoneidad frente a la realidad socioeconómica de los países de la región; problemas de apego irrestricto a la normativa de protección de datos personales y ausencia de normas especializadas en algunos países; limitada transparencia respecto del desarrollo y la implementación de las soluciones tecnológicas, así como en los convenios firmados entre empresas privadas y administración pública; y falta de coherencia en el uso de aplicaciones con una estrategia general de salud, son algunas de las falencias que se han podido constatar a través de la función de contraloría que ejercen numerosas organizaciones en la región.

Queda claro que el derecho a la privacidad no es absoluto y que, en el marco de la emergencia, algunas intrusiones a este derecho, cuando está en juego la salud de la población, son tolerables. Sin embargo, eso no quiere decir que estas intromisiones deban socavar la privacidad y el derecho de autodeterminación informativa de las personas. Para ello, es necesario que cualquier respuesta en el combate a la pandemia y a cualquier futura emergencia, sea adecuada, proporcional, con una finalidad clara, delimitada en el tiempo, consentida y necesaria. Aunque parezca evidente, debe también contar con habilitaciones legales suficientes, en respeto del principio de legalidad.

Algunas de estas recomendaciones adquieren una mayor importancia para países con situaciones sociopolíticas convulsas en desarrollo, como Colombia y El Salvador, por el riesgo que representa la recolección desproporcionada de datos personales en un contexto en el que estos pueden utilizarse para la persecución de rivales políticos, defensores de derechos humanos o para mantener el control de la libertad de expresión de la población en general.


Esta columna resume parte del contenido de la investigación, que puedes revisar aquí.

¿Podemos reducir las barreras de participación?

En el Grupo de Trabajo de Ingeniería de Internet (o IETF por sus siglas en inglés) actualmente se discuten asuntos tan relevantes para los derechos humanos como la privacidad en el sistema de nombres de dominio (DNS) o la asignación aleatoria y cambiante de direcciones MAC (Media Access Control) de los dispositivos conectados, para proteger la identidad de las personas usuarias, entre otros.

Hace unos años empezamos a conocer y participar de este espacio, contribuyendo primero en el desarrollo de un documento sobre libertad de asociación en internet, y luego en otro sobre feminismo y protocolos. Y como señalábamos desde un comienzo, a pesar de ser una organización abierta, que funciona de manera horizontal y colaborativa, donde la participación es libre y se hace a título personal, y donde se busca alcanzar consensos manteniendo un ambiente de trabajo respetuoso e inclusivo, todavía encontramos muchas dificultades para compartir nuestras preocupaciones y necesidades, e incluso para vincularnos a los debates y procesos.

Sin embargo insistimos en participar, pues consideramos necesario fortalecer la gobernanza de la infraestructura, contribuyendo en espacios donde se toman decisiones técnicas. Y es que en la IETF se están buscando soluciones para problemas técnicos inmediatos, pero también se busca analizar cómo evolucionan los protocolos técnicos, para pensar las posibilidades del futuro de internet. Las discusiones allí son técnicas pero también son profundamente políticas; por ejemplo, cómo el fortalecimiento de la privacidad en ciertas tecnologías puede redundar en mayor centralización del mercado o cómo sistemas más complejos de cifrado pueden debilitar el anonimato de las personas usuarias.

Durante este tiempo nos hemos interesado en conocer y entender las distintas barreras de participación en este espacio, con el fin de buscar estrategias para reducirlas. Existe un borrador sobre diversidad e inclusión que ofrece una lista, pero aquí intentaremos señalar algunas. La primera y más evidente es el costo de participación, pues la IETF acostumbra reunirse tres veces al año, en Norteamérica, Europa y Asia respectivamente, y porque la inscripción al evento tiene un costo que puede ser alto incluso en dichas regiones. Aunque desde antes existía la posibilidad de participar de manera remota y sin costo, durante la pandemia por COVID-19 se mejoraron enormemente las posibilidades técnicas de participación remota, y se han venido estableciendo reglas para garantizar que las reuniones totalmente en línea sean no solo funcionales sino accesibles y satisfactorias.

Pero aún participando remotamente y sin costo, resulta muy complicado vincularse a las discusiones que tienen lugar en las listas de correo y en los distintos grupos de trabajo. Para quienes trabajamos en la intersección entre derechos humanos y tecnología, por ejemplo, puede ser útil conocer “Cómo funciona realmente internet” y que si bien ante cualquier conflicto IETF busca “favorecer a las personas usuarias finales”, en términos generales “los usuarios” de las tecnologías desarrolladas aquí son los operadores de redes y las empresas proveedoras de internet. También es útil conocer el “Tao. Guía para principiantes”, un documento explicativo sobre la estructura y procesos dentro de IETF que está traducido en siete lenguas, incluyendo el español

La lengua es una barrera que se extiende a todo el campo de las tecnologías de internet, pues las computadoras y la industria funcionan principalmente en inglés. Y específicamente en IETF, cualquier persona que quiera participar activamente de las discusiones abiertas debe no solo entender sino desenvolverse cómodamente en inglés. Por suerte hay personas dentro de la comunidad técnica en América Latina interesadas en traducir y contextualizar algunos asuntos relevantes, por ejemplo “Cómo leer un RFC” o el “Estado actual de los protocolos de seguridad de la IoT”. Pero falta mucho por analizar, discutir y contribuir desde nuestra región.

Hace un tiempo estuvimos en el programa IT-Women de Lacnic conversando al respecto y señalamos que, gracias a los datos existentes, es posible establecer que la participación desde regiones como América Latina o África, así como la participación general de mujeres, es muy marginal. Esto se evidencia en el reporte de la coordinación de IETF presentado en su más reciente plenaria, donde mostró que la participación sigue siendo predominantemente de Estados Unidos (38,9%), seguida de China (9,7%), Alemania (7,2%), Reino Unido (4,8%), Japón (3,9%), Canadá (3,6%), India (3,4%) y Francia (2,9%), y no se conocen datos desagregados por género, por ejemplo.

Estos datos no contradicen, sino que confirman, la brecha estructural de participación en entornos tecnológicos. Sin embargo, consideramos importante preguntarnos cuáles son los datos disponibles para construir estas estadísticas, ¿son suficientes? Frente a esta pregunta, desde hace tiempo hay una comunidad involucrada en los debates sobre protocolos y derechos humanos, trabajando en Big-Bang, una herramienta para el análisis de comunidades que desarrollan estándares y participan de la gobernanza de internet, a través del análisis estadístico, discursivo y de redes en las listas de correo. Este tipo de herramientas pueden servir para entender mejor quiénes y cómo están participando de las discusiones en IETF.

Pero, ¿de qué depende que esta situación cambie? Sabemos que en los entornos de diseño, producción y consumo de tecnologías digitales se manifiestan y re actualizan los problemas sociales estructurales, y que no es suficiente con transformar las tecnologías para transformar la sociedad. Sin embargo, también consideramos que traer otros casos de uso a la discusión, así como otras maneras de discutir y otros intereses (más allá de la estabilidad del mercado o la seguridad nacional, por ejemplo), es necesario para encaminarnos hacia una internet centrada en las personas y en nuestros derechos individuales y colectivos.

Incluso en América Latina, hace falta mucha reflexión sobre derechos humanos dentro las comunidades técnicas y entre las empresas operadoras y proveedoras de internet, como comentamos hace poco en el marco del Workshop PreIETF organizado por la Sociedad Brasilera de Computación. Creemos, sin embargo, que hay varios espacios donde se puede conocer e incidir en estos temas: el Public Interest Technology Group publica mensualmente un boletín (en inglés) con temas relevantes en materia de derechos humanos y protocolos; Lacnic cuenta con un programa cíclico de mentoreo IT Women (cuya inscripción cierra hoy 12 de novimebre); y está la lista de interés IETF-Lac donde es posible conversar sobre diversos temas de IETF, tanto en español como respecto a sus implicaciones en América Latina. Además, dentro de IETF está el Education, Mentoring and Outreach Directorate, que busca promover la diversidad e inclusión en la organización, y también está Systers, una lista de interés para mujeres que participan de IETF.

Desde Derechos Digitales seguiremos publicando al respecto, y estamos abiertas a contribuir con otras personas y organizaciones en la región interesadas en vincularse a esta discusión.

La política nacional de Inteligencia Artificial chilena y su proceso de participación ciudadana

El pasado 28 de octubre fue lanzada la política nacional de Inteligencia Artificial chilena, en un esfuerzo por responder a los desafíos que implica la masificación de tales tecnologías en la actualidad. Así, se busca promover una estrategia que permita favorecer el desarrollo de capacidades y un uso responsable de la tecnología, atendiendo a las oportunidades y riesgos que estas implican.

El desarrollo de la política nacional supuso la conformación de un comité de expertos, así como de un comité interministerial y contó con dos etapas de participación ciudadana, una primera instancia de convocatoria a contribuciones y luego una consulta pública del documento borrador de la política.

Es necesario reconocer la importancia del desarrollo de la política en cuestión, que sitúa a Chile en línea con el trabajo que han desarrollado Argentina, Brasil y Colombia, entre otros países de la región, por orientar el uso y aplicaciones de la inteligencia artificial. Asimismo, es importante destacar el rol de la consulta pública en la elaboración de la política chilena, que se suma a esfuerzos como el brasileño por incluir este tipo de instancias.Sin embargo, debemos igualmente señalar algunas consideraciones críticas respecto del proceso de participación ciudadana y sus alcances en el caso chileno.

En la primera etapa de participación ciudadana, de convocatoria abierta, se realizaron una serie de conversaciones (considerando mesas regionales, mesas autoconvocadas y reuniones temáticas online) que implicaron la asistencia de más de 8.000 personas a nivel nacional. La magnitud del número, sin embargo, carece de sentido sustantivo a la hora de evaluar el impacto de tales instancias de consulta en el borrador de la política. Aun cuando se declara que “Los insumos generados durante este proceso fueron sistematizados, analizados en profundidad y consolidados junto con las discusiones ministeriales y con expertos.” (P14) no es conocido cuáles fueron los criterios para la sistematización y análisis de tales aportaciones. Bien, entonces, por la participación, pero mal en lo que refiere a la trazabilidad de la incidencia deliberativa en la articulación de la política.

Lo anterior resulta particularmente relevante dado el innovador modelo de participación propuesto por el Ministerio de Ciencia, Tecnología, Conocimiento e Innovación chileno, que implicó la realización de 70 mesas de trabajo autoconvocadas, en las que participaron 1.300 personas, considerando actores de la sociedad civil, la industria, la academia y el sector público. Lamentablemente, no tenemos mayor noticia del modo en que influyó tal proceso de discusión en el borrador de la política. Lo mismo respecto a las 69 mesas de trabajo regionales o las 15 reuniones temáticas online, de las que tampoco existe acceso público a sus actas.

La segunda etapa del proceso de participación ciudadana, de consulta pública al borrador, fue realizado a través de un formulario online que contemplaba 1.500 caracteres para comentarios y la evaluación —a partir de una escala de acuerdo y desacuerdo— con los objetivos propuestos. Desde Derechos Digitales hicimos públicos nuestros reparos, tanto al formato de la consulta como de la estructura y contenidos del borrador inicial (tales consideraciones pueden ser revisadas aquí).

De todas maneras, es importante destacar el esfuerzo de sistematización que realizó el Ministerio en relación a la etapa de consulta pública (disponible aquí) y que sí permite un mayor grado de trazabilidad de los cambios implementados.

Una cuestón que no podemos omitir es que de las 179 personas naturales que respondieron la consulta, solo un 21% declara una orientación de género femenino. Esto es importante pues tal bajo porcentaje, en relación a la distribución demográfica de la población chilena, hace patente la necesidad de plantear mecanismos de participación ciudadana con orientación activa hacia grupos prioritarios. Para el caso, contamos con información respecto a género, pero sería muy importante conocer también cuántas personas de pueblos originarios, con algún tipo de discapacidad o pertenecientes a algún otro grupo minoritario de la sociedad tomó parte de la consulta. Por cierto, no está demás puntualizar que el proceso de consulta estaba disponible solo en lengua castellana, cuestión que resulta paradójica al considerar que uno de los ejes de la política es IA inclusiva.

Esto pues, como bien ha señalado la oficina de la Alta Comisionado para los Derechos Humanos de las Naciones Unidas en relación a las tecnologías biométricas y sus efectos discriminatorios, son justamente aquellos grupos quienes pueden verse mayormente afectadas por los riesgos que supone la implementación de tecnologías de inteligencia artificial.

De esta forma, la política chilena de inteligencia artificial surge desde un proceso de discusión y participación pública significativo y destacable en el contexto regional, pero sin dudas insuficiente respecto de los impactos que las tecnologías de inteligencia artificial puede tener en la vida cotidiana de las personas (se pueden verificar más antecedentes al respecto en el proyecto IA e Inclusión desarrollado por Derechos Digitales en https://ia.derechosdigitales.org/ ).

Sin perder el foco en las materias procedimentales, que buscan favorecer la legitimidad de la política en cuestión, no podemos dejar de extrañar al menos tres aspectos sustantivos: 1) la necesidad de establecer un diagnóstico que explique y justifique la implementación de tecnologías de inteligencia artificial, 2) la importancia de desarrollar un modelo de gobernanza de las tales tecnologías que tenga los derechos humanos como eje central (y no accidental) de su aplicación y 3) la comprensión de la aplicación de tecnologías y sus impactos desde un punto de vista que supone desafíos que exceden el ámbito técnico y que inciden en la propia definición de lo humano,  como bien ha señalado Carolina Gainza.

Gobierno uruguayo y el “negocio” del acceso a internet

La LUC en Antel, Antel en la LUC

En Latinoamérica, fue Uruguay país pionero en lanzar una red comercial 5G. Es líder en 4G y uno de las naciones con mayor y mejor cobertura de redes de banda ancha por fibra óptica (FTTH). Ello ocurre, sobre todo, por las inversiones de la estatal Antel (Administración Nacional de Telecomunicaciones), compañía monopólica para los servicios fijos, que también actúa en los mercados de banda ancha y telefonía móvil.

Para afrontar la pandemia fue esencial contar con conexiones a internet extendidas, de calidad y a precio accesible: nos permitió continuar con el trabajo, los estudios en todos los niveles de enseñanza, realizar consultas médicas, organizar el plan de vacunación, estar en contacto con nuestros seres queridos y acceder a entretenimiento. Elijo Antel, como usuaria de internet fijo y de celular. Lo elijo, como tantas otras uruguayas, no solo por la convicción de aportar a la empresa estatal, también por su alta calidad en el servicio, el buen saldo en la ecuación calidad/precio y la facilidad de financiación en los equipos.

Los aplausos del domingo pasado tienen su fundamento. Es la constatación en nuestra vida cotidiana. Nuestras conexiones a internet fijas y móviles no funcionan como antes. No se accede a los contenidos con la fluidez acostumbrada. Demoran en cargar. Quienes hemos tenido el privilegio de visitar otros países, habíamos constatado que teníamos la costumbre de gozar de una conexión veloz y accesible, ya en lo físico como en lo económico.

Pongamos un ejemplo. Si hoy día quiero recargar gigas, hace menos de dos años compraba 40 GB por 200 pesos uruguayos (4,5 USD, por un internet casi ilimitado) que me duraban diez días. Sin embargo, hoy puedo acceder a 50 GB que me terminan en cinco días, por 150 pesos (3,4 USD). ¿Pago 25% menos? En términos absolutos es cierto, pero en realidad es por la mitad de los días. Por supuesto, estos servicios de recarga lo utilizan sobre todo quienes tienen contratos más económicos y/o no cuentan con servicio de internet fijo en el hogar. Así de sutil pero eficiente se trata el desmantelamiento de Antel. Como el viejo mito de la rana que se cuece a fuego lento.

Liderazgo uruguayo en conexión a internet

Antel fue creada en 1974. Anteriormente, el servicio era administrado por la Usina de Telecomunicaciones del Estado (UTE), monopólica en el sector de la electricidad y en la telefonía. Posee una larga tradición dentro de las empresas públicas del país. Brinda servicios telefonía fija, móvil y de conexión a internet.  Gracias a la gestión de Antel, Uruguay es líder en región con mayor acceso a internet por habitante y es uno de los nueve países integrantes del grupo Digital Nations – D9, aquellos que poseen mejores conectividades. La Encuesta de Usos de las Tecnologías de la Información y las Comunicaciones 2020, en 2019 el 95% de los hogares en Uruguay acceden a internet a través de algún dispositivo y el 71% tiene banda ancha.

Antel ha permitido la ejecución de varias políticas de inclusión digital y universalización del acceso a internet, que ha permitido democratizar la conectividad y los dispositivos. Algunos ejemplos. Al ingresar al sistema público de enseñanza primaria o secundaria, cada niño y niña y cada docente de aula obtienen una computadora por medio del Plan Ceibal. El 100% de los centros educativos públicos cuenta con wifi, provisto con fibra óptica de Antel.

Además, el Plan Ibirapitá entrega tablets a personas mayores, jubilados, jubiladas y pensionistas que perciben las menores remuneraciones. Dicho plan c con capacitaciones y tarifas preferenciales. En 2019, dentro del total de hogares que cuentan con dispositivos digitales no celulares, 1 de cada 5 lo hizo únicamente debido a que contó con dispositivos de Plan Ceibal o Ibirapitá. En particular, Ibirapitá, se ha visto seriamente afectado debido a los recortes presupuestales.

Sumada a la destacada conexión de fibra óptica, la empresa construyó un Data Center, incorporación de contenidos digitales de VeraTv y Vera+, donde hasta 2020 podíamos acceder en forma universal a los partidos de la selección uruguaya de fútbol y los Juegos Olímpicos. Hoy accede quien puede pagarlo. La mayoría, ahora excluida, no puede disfrutar en directo del más popular de nuestros deportes.

Una empresa valiosa y pública

Antel sobrevivió a la oleada neoliberal de venta de las empresas públicas, a través de un referéndum impulsado por el movimiento social uruguayo en 1992 en defensa de las empresas públicas, que frenó las intenciones privatizadoras por aquel entonces. Acompañó el proceso del crecimiento acelerado de las telecomunicaciones en la última década.

Datos de la Ursec, indican una la participación en el mercado en telefonía móvil es de 51,2% para Antel, 30,7% para Movistar y 18% para Claro. Entre los años 2010 y 2014, Antel facturó 4600 millones de dólares, y en el período 2015-2019, de 4700 millones de dólares. En total, entre 2010 y 2019, la empresa aportó 1000 millones de dólares a rentas generales, es decir, a las políticas públicas de todo el país. Es una cifra importante en cualquier economía, pero realmente significativa en el PIB de un país de poco más de tres millones de habitantes.

Según información obtenida por el semanario Brecha, los ingresos de internet fijo en hogares alcanzaron en 2020 un nuevo récord histórico: 17.232 millones de pesos (unos 410 millones de dólares). Esto representó un incremento de 36% en comparación con 2018. Antel es la prueba fehaciente que los servicios públicos pueden ser rentables, brindar calidad destacada a ciudadanía en calidad y precio y que las ganancias se vuelquen a lo común.

El rico patrimonio

En marzo de 2020 asumió un nuevo gobierno en el país, poniendo fin al ciclo progresista que comenzó en 2005. Las estrategias propuestas para las empresas estatales son distintas a las anteriores. El conjunto de medidas y lineamientos que está llevando adelante el Poder Ejecutivo impactan desfavorablemente en Antel.

En la Ley de Urgente Consideración, en el presupuesto nacional, en la rendición de cuentas o en la nueva ley de medios, se busca sacar tajada de la empresa en beneficio de la competencia. Cuando no existen los consensos necesarios, se insiste en habilitar concesiones, ventas y beneficios por otros mecanismos o acelerando procesos privatizadores.

Florencia Leymonié, del integrante de Sindicato Único de las Comunicaciones (SUTEL) afirmó en una actividad del Colectivo +Igualdad “como trabajadoras y trabajadores de Antel vemos en los ecosistemas distintos sabotajes del servicio público, no solo de los servicios que da sino de su naturaleza de retribución social”.   

Es necesario entender que el acceso a internet hoy es condición de posibilidad del ejercicio de otros derechos fundamentales: el trabajo, el estudio, la salud, la cultura, la participación, entre otras. Las condiciones impuestas por la pandemia así lo demuestran y son irreversibles. Lo que arriesga la privatización producto de las presiones del mercado puede implicar retrocesos enormes en un camino con reconocimiento internacional, que repercute en mayores garantías y más democracia para las uruguayas y los uruguayos.

“No venderé el rico patrimonio de los orientales al precio miserable de la necesidad”, dijo José Artigas hace dos siglos. El aplauso sostenido sólo se explica por la insistente necedad de la coalición gobernante en poner a disposición de la mano invisible del mercado a la más sólida y rentable empresa uruguaya.    

No bombardeen Buenos Aires: reconocimiento facial en CABA hoy

No hay dudas de que estamos ante un crecimiento exponencial en el uso de tecnologías automatizadas de reconocimiento facial en América Latina. El abaratamiento de la tecnología, junto con la expansión de los fines utilizados ha incrementado los casos de su uso por parte de Estados y empresas.

Sin embargo, la tecnología ha sido ampliamente cuestionada por organismos internacionales y por la sociedad, ya sea a través de manifiestos, protestas e incluso demandas. Por ejemplo, en algunas ciudades de los Estados Unidos se decidió prohibir el uso de reconocimiento facial, ya que no existen garantías para el respeto de derechos humanos.

En el caso de los Estados, ciudades como Salvador, São Paulo, Río de Janeiro, Lima, Nueva York, Londres y Buenos Aires han adoptado este tipo de sistemas para monitorear la población en diferentes lugares, alegando fines de seguridad pública.

Esta semana surgió un prometedor avance regulatorio en la ciudad de Buenos Aires, Argentina.

Críticas y acciones contra el sistema de reconocimiento Facial en la Ciudad de Buenos Aires

El “Sistema de Reconocimiento Facial de Prófugos” (SRFP) consiste en 300 cámaras de vigilancia en las calles y estaciones de metro,  siempre siguiendo la línea que más tecnología aumentaría la seguridad y cuidaría a las personas. A pesar de las severas críticas, tomó 22 días la implementación del sistema.

El relator especial de Naciones Unidas sobre el Derecho a la Privacidad, criticó la falta de evaluación previa a su implementación y proporcionalidad de las medidas. Además, mostró preocupación respecto a la base de datos que alimenta la SRFP (Sistema de Consulta de Rebeldías y Capturas-CONARC), ya que fue realizada una inserción desproporcionada en la base de datos, divulgación indebida de datos, falta de información sobre qué delitos se imputan, errores y fallas y falta de actualización.

Respecto al caso específico, la ONG Human Rights Watch fue enfática sobre la existencia de graves daños a los derechos de la niñez y la adolescencia, ya que al analizar la base de datos se encontraron al menos 166 menores, incluidos niños sospechosos de haber cometido delitos de menor potencial ofensivo.

Acciones jurídicas impulsadas desde sociedad civil

Como si las críticas no fueran suficientes, el sistema fue impugnado por al menos dos juicios. Una demanda, presentada por la organización Asociación por los Derechos Civiles (ADC), solicita ante el Tribunal Superior de Justicia porteño que declare inconstitucionales los cambios legales. El otro, propuesto por el Observatorio de Derecho Informático Argentino (ODIA) pide un juicio de amparo en primer grado de competencia, que requiere el análisis del sistema a través de la constitucionalidad y convencionalidad, además de las medidas cautelares para suspender su uso.

El pasado 13 de octubre, Derechos Digitales fue admitida como amicus curiae en la demanda propuesta por ODIA. Se amplió la participación social en el caso, recibiendo también aportes de otras organizaciones, como Access Now y Asociación Trabajadores del Estado (ATE), además de la adhesión y participación de los ciudadanos como autores de la demanda.

Reflexiones sobre el caso Ciudad de Buenos Aires

Este proceso muestra claramente tres cuestiones centrales, que se reproducen de la misma manera otros países. El primero, es un tema técnico con implicancias sociales relevantes en cuanto al uso de la inteligencia artificial y lo que esto significa para la ciudadanía. El segundo tema, se relaciona con la democracia en sí y la transparencia del sistema. El tercer tema es el respeto a los derechos humanos.

Al principio, la cuestión de la velocidad con la que se desarrolló y entregó el proyecto es impresionante. Solo pasaron 22 días desde el lanzamiento del proyecto hasta su implementación, una velocidad que sería “envidiable e incluso sospechosa”, según ODIA.

1. Implicancias sociales: falsos positivos y la discriminación

Sin embargo, la cuestión técnica que tiene las mayores implicaciones sociales se refiere a la precisión y calidad de la base de datos utilizada. Los estudios más variados demuestran una menor tasa de aciertos en personas de piel oscura y mujeres.

El estudio “Gender Shades”, por ejemplo, demuestra que las tasas de error son diferentes según el grupo analizado, alcanzando más del 90% de identificación incorrecta para personas de piel oscura. Y menos del 1% de error para personas de piel más clara. Si bien puede ser un fallo en la calibración de los datos, ya sea por el uso de bases de datos sesgadas o por otros motivos, lo cierto es que hay que analizar si este tipo de tecnología incide desproporcionadamente en la garantía de igualdad a las personas tradicionalmente discriminadas y más vulnerables, como pueblos originarios, mujeres, niños, ancianos y personas trans.

2. Democracia y transparencia

En cuanto al tema de la democracia y la transparencia, parece que hay poco o ningún debate en el legislativo sobre la implementación de este tipo de sistema. Asimismo, en muchos casos existe una gran opacidad en cuanto al uso de la tecnología, bajo el argumento que el tema no debe ser debatido, que “es demasiado técnico” para una amplia participación social y que la transparencia no sería necesaria.

En el caso de Buenos Aires, tanto la ADC como el ODIA, plantearon importantes y extensas preguntas sobre la creación, contratación, uso y salvaguardas del sistema de reconocimiento facial.   Obtuvieron poca o ninguna respuesta. Si bien las investigaciones muestran que la tecnología “generalmente se crea en el exterior y se utiliza en casa”, existe una falta de transparencia sobre cuáles son las empresas responsables de la implementación de la tecnología, especialmente, en los procesos de definición de la contratación.

3. Vigilancia y derechos humanos

Finalmente, el tema de los derechos humanos involucrado en la aplicación de tecnología de vigilancia masiva. Desde 2013, luego del caso Snowden, Brasil y Alemania propusieron una resolución a la Asamblea General de la ONU, sobre “El derecho a la privacidad en la era digital”.

Con la actualización de la citada resolución en octubre de 2021, se dio mayor robustez a las cuestiones sobre el uso de datos biométricos, con el reconocimiento expreso que los usos de la inteligencia artificial (IA) pueden suponer graves riesgos para el derecho a la privacidad, citando como ejemplo, el empleo de IA para identificación, reconocimiento facial, seguimiento, elaboración de perfiles, predicción de comportamiento y puntuación de personas.

La conclusión de la asamblea de la ONU es que los Estados deben garantizar que las tecnologías de identificación y reconocimiento biométrico —incluidas las tecnologías de reconocimiento facial por parte de actores públicos y privados— no permitan la vigilancia arbitraria o ilegal, incluidos quienes ejercen su derecho a la libertad de reunión pacífica.

Autoritarismo, censura y libertad de expresión en internet

En febrero de 2020, cuando el presidente Nayib Bukele irrumpió con militares en el Salón Azul de la Asamblea Legislativa para presionar la aprobación de un millonario préstamo, las señales sobre el carácter autoritario del mandatario no han hecho más que incrementarse.

En este camino, el mandatario desobedeció sentencias de la Sala de lo Constitucional y se aseguró de debilitar progresivamente el Instituto de Acceso a la Información Pública (IAIP) hasta tomarlo por completo y volverlo un ente sin incidencia alguna.  Sumado al debilitamiento institucional, hostigó y acosó a periodistas, defensores de derechos humanos y críticos a su gobierno, con complicidad de funcionarios reforzadas por apoyos a través de redes sociales. Estas últimas acciones, que aún continúan, han ocasionado que la Comisión Interamericana de Derechos Humanos (CIDH) ordene al Estado la protección de periodistas del periódico digital El Faro y de la abogada Bertha de León, por considerar que la integridad física de los amparados corre peligro.

Finalmente, en mayo de 2021, la Asamblea Legislativa —de mayoría oficialista— en su primera sesión destituyó ilegalmente a los cinco magistrados de la Sala de lo Constitucional y llenó sus vacantes en contra de los procedimientos establecidos por la Constitución. Igual suerte corrió el Fiscal General.

Para completar el golpe al Órgano Judicial iniciado en mayo, la Asamblea Legislativa aprobó el Decreto Legislativo Nro. 144 que jubila a jueces y magistrados de cámara mayores de 60 años o con 30 años de servicio que representan un tercio de los jueces del país. La decisión fue realizada sin tener competencia de acuerdo a la Constitución, lo que ha sido interpretado como un pretexto para dar a la Corte Suprema de Justicia —hoy tomada por el oficialismo— mayor margen de maniobra para remover jueces y sustituirlos con juzgadores afines.

Paralelo a la remoción de jueces, la Sala de lo Constitucional impuesta por el oficialismo emitió una resolución que autoriza al presidente Bukele a ser relecto en su cargo, a pesar de la prohibición que la misma Constitución establece.

La marcha del 15 de septiembre y la libertad de expresión

En este contexto de eliminación del sistema de pesos y contrapesos, más el descontento generado por la aprobación inconsulta de la ley que obliga al uso del Bitcoin como moneda de curso legal, el actual gobierno enfrentó la primera marcha multitudinaria en su contra, realizada por la sociedad civil el pasado 15 de septiembre.

En el marco de esta protesta, el hashtag #El15marchamos fue posicionado para acompañar los reclamos en el ámbito digital. Paralelamente, algunos usuarios organizaron spaces en Twitter para informar e intercambiar opiniones sobre estos temas relevantes.

En días posteriores a la realización de la marcha, usuarios de Twitter denunciaron la “desaparición” fulminante del #El15marchamos que, hasta unas horas antes y por varios días, había estado como tendencia en la red social. Al mismo tiempo, algunos organizadores de spaces denunciaron que estas sesiones terminaban abruptamente, sin haber sido notificados de las razones por las cuales esto sucedía.

La hipótesis para explicar estos hechos fue que tanto el hashtag como las cuentas organizadoras de los spaces estaban siendo denunciadas por cuentas afines al oficialismo. Dicha hipótesis se alimenta por la confesión del Ministro de Seguridad acerca de la realización de ciber-patrullaje, bajo la excusa del combate a las pandillas, así como por la detención ilegal efectuada por la Policía Nacional Civil contra Mario Gómez, una de las voces más críticas sobre la implementación del Bitcoin en el país.

Si esta hipótesis se confirma, correspondería en un futuro analizar el proceder de Twitter en la aplicación de sus políticas de moderación de contenidos, a la luz de los estándares de protección de derechos humanos, particularmente respecto al derecho a la libertad de expresión.

A pesar de que el objetivo de esta columna no es corroborar tal hipótesis y, en consecuencia, tampoco lo es ahondar en un análisis sobre el apego a los estándares de derechos humanos, si podemos señalar algunas interrogantes que saltan a primera vista. Valdría la pena preguntarnos: ¿la exclusión de contenidos en Twitter se realiza de manera automatizada?, ¿por qué los spaces son cerrados abruptamente sin explicar al usuario la razón por la que se cierra?, ¿la simple denuncia masiva podría inhabilitar un space o hacer desaparecer un hashtag?, ¿por qué desaparecería con facilidad un hashtag que está ligado directamente con la expresión del descontento con el gobierno que la ciudadanía?

En este caso particular resulta cuestionable afirmar que los spaces y #El15marchamos hayan infringido alguna de las reglas comunitarias de Twitter. En sí ninguna de las expresiones puede ser acusada de circular mensajes de odio, fomentar el terrorismo, o de ejercer violencia u acoso. Si alguna cuenta utilizó el hashtag o participó en algún space contrariando las reglas de la plataforma, deberían ser eliminadas únicamente esas interacciones. De lo contrario, se inhabilita parte de la expresión ciudadana en el marco de un reclamo legítimo a sus gobernantes.

Aunque aún no se ha llegado a medidas extremas como el bloqueo de internet en el país, si la hipótesis se confirma, es pertinente señalar la preocupación respecto a que Twitter inhabilite espacios de discusión política en un momento en el cual debería reforzar su protección. En particular, considerando que afortunadamente la marcha del 15 de septiembre se realizó sin ninguna represión por parte de los cuerpos de seguridad, aunque esto puede cambiar, tal como lo advirtió el presidente Bukele en cadena nacional.

El proyecto de ley para la regulación de las plataformas digitales atenta contra los derechos humanos

La búsqueda de una solución a problemas como la desinformación y la violencia en línea, junto con la necesidad de mayor control sobre las compañías que ofrecen servicios en internet basados en la explotación de los datos personales, son algunos de los desafíos regulatorios más importantes de la actualidad. Son debates que vienen desarrollándose hace varios años, desde distintas perspectivas y en distintos foros, a escala nacional, regional y mundial, por especialistas altamente calificados trabajando desde la academia, la sociedad civil, el sector público y también el privado.

Actualmente no existe consenso sobre cómo abordar estos dilemas regulatorios, pues constituyen problemas altamente complejos, independientes pero enlazados entre sí, con distintas aristas, intereses y derechos que es necesario balancear adecuadamente, cuestión que ha probado ser increíblemente difícil de lograr.

Lo que sí está claro, es que ningún esfuerzo serio por aportar a la solución de estas problemáticas puede pretender resolverlas mediante un proyecto de ley misceláneo, que ignore el trabajo desarrollado por académicos, activistas de derechos humanos y expertos internacionales, así como las obligaciones en materia de derechos humanos. Ninguna de las experiencias comparadas que se destaque a nivel internacional es así, salvo aquella que ha sido producida bajo las lógicas de gobiernos autoritarios con el objetivo de incrementar sus propios mecanismos de control en desmedro de las libertades fundamentales. Y es que los impactos de una mala regulación en la materia puede generar disrupciones graves en la forma en la cual las usuarias interactúan con la tecnología y la forma en la cual se sirven de ella para ejercitar sus derechos.

Y, sin embargo, la propuesta sometida a consideración del Congreso chileno en los últimos días escoge ignorar todo ello en favor de respuestas nóveles que parecen inmunes a la mera consideración de los impactos sistémicos que las responsabilidades civiles propuestas pueden tener sobre derechos fundamentales como la libertad de expresión, el derecho de asociación por medios digitales y la no discriminación, que desde el estallido social y la posterior pandemia se han mostrado como cada vez más fundamentales para el ejercicio democrático a nivel local y global. Junto con ello, el proyecto atropella otros esfuerzos, por ejemplo, la larga lucha por establecer una adecuada protección de datos personales (que se debate hace una década en nuestro país) y es inconsistente con el trabajo que académicos, activistas de derechos humanos y expertos internacionales llevamos desarrollando por al menos una década.

The Chilean way

El pasado 01 de septiembre de 2021 ingresó al congreso nacional chileno el proyecto de ley que regula las plataformas digitales (Boletín N° 14.561-19). La primero que llama la atención es que este proyecto no haya sido resultado de un proceso de trabajo más amplio con la participación de expertos y expertas que contribuyeran a su redacción, considerando que sus patrocinantes son los mismos que en abril de este año convocaron la creación de un grupo de trabajo, al alero de la Comisión “Desafíos del Futuro” del Senado, para debatir muchas de estas cuestiones con expertos de sociedad civil y la academia.

A primera vista, el texto revela defectos formales que hacen sospechar que al proyecto no se le dedicó todo el tiempo debido. Estas sospechas se incrementan tras una lectura detallada de la propuesta, que solo puede ser caracterizada como precipitada y que, en vez de ponerle coto a los potenciales abusos cometidos por las plataformas digitales, tienen un enorme potencial para dañar el ejercicio de derechos fundamentales.

“Consumidores digitales”

En primer lugar, el proyecto define a los usuarios de las plataformas como consumidores digitales. Si el lenguaje crea realidades, esta redacción nos lleva a la tierra de las relaciones de consumo, las que operan bajo una lógica distinta a la de los derechos y libertades esenciales.

El derecho del consumo es una herramienta cada vez más explorada en el contexto internacional para poder abordar algunos de los abusos de los proveedores de servicios digitales, tal es el caso de la Federal Trade Comission de los Estados Unidos o la experiencia regulatoria de la Comisión Europea. Pero en tales casos la regulación se desarrolla en forma incremental y consistente con la actualización de conceptos que provienen de esa área del derecho, y no por el simple hecho de introducir un concepto huérfano y aislado.

Como dio ocasión de atestiguar la tramitación del artículo 15 bis del Boletín Nº 12.409-03 que establece medidas para incentivar la protección de los derechos de los consumidores, hay una oportunidad para que el Servicio Nacional del Consumidor pueda cumplir un rol más activo frente a las plataformas digitales, pero ello debe hacerse con una aproximación sistémica —como la que viene cultivando dicho servicio—  y no de espaldas a esos esfuerzos, mediante referencias aisladas en una ley miscelánea como la propuesta.

 ¿Libertad de expresión digital?

Si hay algo que reconocerle al proyecto es que no escatima en la construcción de conceptos novedosos y torpes. Así, por ejemplo, el texto introduce la noción de “libertad de expresión digital”, que instala una distinción artificial y odiosa entre la libertad de expresión que ocurre «en línea» y fuera de ella.

Cabe recordar que los organismos internacionales de derechos humanos han insistido en que la correcta interpretación que debe guiar la acción de los estados es el  reconocimiento de que los mismos derechos en el entorno físico deben ser protegidos en su ejercicio en entornos digitales. Así El Consejo de Derechos Humanos ha recalcado en su resolución sobre Promoción, protección y disfrute de los derechos humanos en internet: “que los mismos derechos que tienen fuera de línea las personas también deben protegerse en línea, en particular la libertad de expresión, lo que es aplicable independientemente de las fronteras y por conducto de cualquier medio de su propia elección, de conformidad con el artículo 19 de la Declaración Universal de Derechos Humanos y del Pacto Internacional de Derechos Civiles y Políticos”.

Ello también ha sido expresamente abordado por la Asamblea General de las Naciones Unidas al exhortar a todos los Estados: “a que velen por que los mismos derechos que tienen las personas cuando no están conectadas, incluidos los derechos a la libertad de expresión, de reunión pacífica y de asociación, estén plenamente protegidos también cuando estén en línea, de conformidad con el derecho de los derechos humanos”.

Como si no fuera suficiente, el  artículo que introduce la noción de “libertad de expresión digital” establece que los contenidos publicados por los “consumidores digitales” podrán ser eliminados en caso de que “puedan considerarse civilmente injuriosos, calumniosos, constitutivos de amenazas, que constituyan delitos tipificados por otros cuerpos jurídicos o que inciten a cometer un crimen.” Es decir, la regulación propuesta genera un incentivo absoluto para la eliminación de contenido que pueda ser calificado con el potencial de ser ilícito. ¿Quién califica ese potencial? ¿Quién pondera la libertad de expresión, la privacidad, la no discriminación que pudiera estar en juego?

Una disposición como esta no solo no mejora el panorama actual de deficiencias en la moderación de contenidos que muchas veces se aprecia en plataformas digitales, sino que lo agrava, para entregarles más poder de decisión sobre lo que puede o no expresarse en ellas. En lugar de reducir el poder de las plataformas, lo aumenta.

Valga en este punto y para la regulación posterior contemplada en el mismo artículo, que el artículo 13 de la Convención Americana de Derechos Humanos (CADH), firmada y ratificada por Chile, proscribe la censura previa, así como la censura indirecta, con lo cual parece poco probable que la regulación propuesta resulte compatible con las obligaciones de protección y promoción de la libertad de expresión contraídas por Chile. La CADH permite como límite a la libertad de expresión el establecimiento de responsabilidades ulteriores que pudieran derivarse del ejercicio de ella, pero exige que deben ser fijadas expresamente por ley, cumpliendo además una serie de condiciones (ser necesarias para proteger la reputación de terceros, la seguridad nacional, el orden, salud o moral pública) que no se condicen con las hipótesis propuestas en el proyecto. Ya a corto andar, nos encontramos con un proyecto de ley inconstitucional.

 Responsabilidad de las plataformas

Desde la perspectiva de la responsabilidad de las plataformas digitales, el proyecto de ley cierra con broche de oro al establecer un estándar de responsabilidad objetiva y absoluta. Dicho estándar —además de no ser conocido en esta formulación draconiana por ninguna legislación en el planeta— hace aún más severos los impactos en el ejercicio de la libertad de expresión y, a través de ella, de otros derechos fundamentales esenciales para la democracia.

El miedo de que nuestros dichos puedan potencialmente lesionar algún bien o derecho ajeno no solo tendrá un efecto autocensor. Las plataformas digitales, presa de esa misma prevención y para salvar su responsabilidad (objetiva) frente a los daños patrimoniales o morales que ocasionen sus “consumidores digitales”, generarán un patrullaje automatizado de la expresión en línea y que siempre caerá más del lado de la interpretación conservadora para salvar su responsabilidad; es decir, remover cualquier cosa ante el más mínimo atisbo de que pueda resultar problemática. ¿Es esta libertad de expresión desmejorada a lo cual el proyecto de ley quiere bautizar como “libertad de expresión digital”?

El establecimiento de este régimen de responsabilidad objetiva amplísima es, a la vez, una contradicción directa a las recomendaciones de los órganos de derechos humanos a nivel internacional. En el sistema interamericano de derechos humanos, “un esquema de responsabilidad objetiva en el ámbito de la comunicación electrónica  o  digital  es  incompatible  con  estándares  mínimos  en  materia  de  libertad  de  expresión”, como ha indicado y reiterado la Relatoría Especial para la Libertad de Expresión de la Comisión Interamericana de Derechos Humanos. Los Principios de Manila, con base directa en el derecho internacional de los derechos humanos, también descartan esa forma de responsabilidad. ¿Por qué el proyecto chileno buscaría posicionarse tan radicalmente en contra del derecho internacional?

El uso de conceptos totalmente abiertos e indeterminados —algunos de ellos con reminiscencias al derecho civil decimonónico— incorporados en el proyecto, tales como “informaciones manifiestamente falsas”, “actuar con diligencia”, “situación actual” o “mecanismos de verificación de edad apropiados”, no hacen más que agravar la incerteza jurídica. Lo más probable es que las plataformas, incapaces de revisar mediante humanos todo el contenido que pasa a través de ellas, lo harán a través de sistemas de inteligencia artificial que, al no distinguir contextos, terminarán bajando contenido perfectamente lícito en forma preventiva, cuestión que ya ha sucedido y ha sido denunciada globalmente por las expertas en la materia.

Por cierto, dejamos de lado por ahora la discusión sobre qué son las plataformas digitales que de acuerdo a la definición del proyecto, que podría ser perfectamente el blog de un centro cultural o comunitario o la infraestructura de comunicación autónoma ofrecida por un grupo feminista o un medio periodístico independiente, todo lo cual es aún más grave para los intereses de las usuarias: prácticamente cualquier servicio digitalizado conllevaría obligaciones de monitoreo y control.

El proyecto además concede al Estado el poder para ordenar la suspensión de plataformas, lo cual contraviene las recomendaciones de los organismos de protección de derechos humanos para asegurar y promover una internet libre y abierta. No hay duda sobre la falta de legitimidad democrática y desproporción de este tipo de medidas, como se lee claramente en la declaración conjunta de los Relatores Especiales de las Naciones Unidas y de la CIDH para la Protección y Promoción del Derecho a la Libertad de Opinión y de Expresión de 2015: “El filtro de contenidos en Internet, el uso de ‘interruptores de apagado de emergencia’ en las comunicaciones (por ejemplo, el cierre de partes enteras de los sistemas de comunicación), y la apropiación física de las estaciones de radiodifusión son medidas que nunca pueden ser justificadas”.

Podríamos seguir uno a uno con los artículos del proyecto explicando sus insuficiencias e incompatibilidad con la protección de derechos fundamentales, pero creemos que ya ha quedado claro que estamos frente a un proyecto técnicamente deficiente, inmaduro en dar cuenta del estado del arte de los debates internacionales en la materia y formulado de espalda a la protección de derechos fundamentales y al abordaje sistémico que ellos requieren.

Seguramente hay buenas intenciones detrás. pero llamamos a una reflexión profunda acerca de la forma más sensible de tener este debate en forma participativa y abierta, para recoger las experiencias internacionales en la materia y los aportes que expertos tanto de sociedad civil, como la academia puedan hacer desde distintas disciplinas, para poder tener una discusión a la altura de lo que la complejidad de a temática requiere, sin pausas pero sin prisas que generen impactos negativos sistémicos en el ejercicio de derechos fundamentales en el entorno digital. No por nada, fuera de Chile este tema lleva siendo discutido en la última década, no reinventemos la rueda cuadrada.