Vigilancia, control social e inequidad: la tecnología refuerza vulnerabilidades estructurales en América Latina

Mientras la brecha entre ricos y pobres se incrementa en el mundo, América Latina sigue siendo la región donde la riqueza se distribuye de forma más desigual. Según la Comisión Económica para América Latina y el Caribe (CEPAL), existen marcados desequilibrios entre los distintos niveles socioeconómicos en aspectos como la esperanza de vida, la mortalidad infantil, la tasa de analfabetismo y el acceso a agua al interior de las viviendas. Así, la altísima inequidad que asola al continente influye directamente en el bienestar de sus habitantes, sus posibilidades de desarrollo y en el ejercicio de sus derechos fundamentales.

La implementación de programas que condicionan el acceso a servicios básicos a la vigilancia estatal y privada ejemplifican de manera clara no solamente el hecho de que las tecnologías no son neutras, sino que impactan de forma diferenciada a distintos grupos humanos, de acuerdo a su género, al color de su piel y a su clase social. 

Aprovechándose de las deficiencias de nuestros sistemas legales y explotando sus áreas grises, la industria ha impulsado agresivamente un tecnosolucionismo chauvinista, abrazado irresponsablemente por una clase política con ganas de figurar a la sombra de una idea tristemente reducida de progreso. Así, el negocio se transforma en la promesa de un beneficio acotado, que se consigue a costa de los derechos de quienes no tienen más opción que someterse al escrutinio constante, a la vigilancia, al control, a la discriminación. Hablar de desigualdad en América Latina es hablar de la ponderación que se hace entre los derechos de quienes pueden acceder a otras posibilidades y quienes no. 

La inequidad se esconde hoy tras una serie de muletillas de significado impreciso – big data, decisiones algorítmicas, inteligencia artificial – que en nombre de la eficiencia intentan naturalizar los sesgos bajo los cuales operan, haciendo inescrutables los sistemas que los procesan y la forma en que son usados para regular el acceso a programas sociales, el uso del transporte público o la asistencia a eventos populares.

Ejemplos no faltan. En Argentina, la provincia de Salta firmó en 2017 un acuerdo con Microsoft para utilizar inteligencia artificial en la prevención del embarazo adolescente y la deserción escolar. Según la empresa, a partir de datos recolectados por medio de encuestas a sectores vulnerables de la sociedad “los algoritmos inteligentes permiten identificar características en las personas que podrían derivar en alguno de estos problemas y advierten al gobierno para que puedan trabajar en la prevención de los mismos”.  Los datos recabados son procesados por servidores de Microsoft distribuidos alrededor del mundo y el resultado de ese procesamiento apunta específicamente a las adolescentes identificadas como personas bajo riesgo, afectando no solamente su privacidad, sino también su autonomía y generando amplio potencial de discriminación. Se trata, finalmente, de un mecanismo dirigido de control sobre personas en situación de vulnerabilidad que son expuestas a intervenciones sin su consentimiento, reforzando la vulnerabilidad de las personas que son privadas incluso de la posibilidad para decidir sobre esas intervenciones.

Aunque se argumente que los datos utilizados para la proyección son entregados voluntariamente, es cuestionable la idea de que las niñas y adolescentes afectadas por estas medidas –o sus responsables–  puedan prestar un consentimiento activo y realmente consciente sobre las implicaciones de entregar información específica sobre sus hábitos sexuales y potencial embarazo. Cabe señalar que Salta fue la última provincia argentina que dejó de impartir educación religiosa en las escuelas públicas después de un fallo de la Corte Suprema, reconociendo la existencia de violaciones a los derechos a la igualdad y a la no discriminación, así como a la privacidad de los ciudadanos y ciudadanas. El uso tecnológico descrito no es sino expresión de problemas más amplios para comprender los ámbitos de autonomía y privacidad de las personas, con un propósito político.

En Brasil, el Ministerio de Ciudadanía firmó un acuerdo con el gobierno de Salta y Microsoft para implementar un programa similar. En este caso, además de la prevención del embarazo adolescente y la deserción escolar, se pretende anticipar cuestiones como la desnutrición y enfermedades en la primera infancia. El país sería el quinto en la región en compartir la experiencia argentina. Además de dudas sobre el consentimiento informado y el acceso del Estado a informaciones sensibles sobre poblaciones vulnerables, quedan sin respuesta algunas preguntas sobre qué otros usos u previsiones se pueden extraer de esos datos y cuáles los límites para su tratamiento por parte de Microsoft y los gobiernos involucrados en el programa.

Por su parte, Chile inició en 2019 la implantación piloto de una herramienta que busca detectar a niños, niñas y adolescentes en situación de riesgo. Según el Ministerio de Desarrollo Social y Familia, Alerta Niñez es un instrumento preventivo que “identifica el conjunto de condiciones individuales, familiares, del entorno y de los pares de los niños y niñas y adolescentes, que tienden a presentarse cuando existe un riesgo de vulneración de derechos de niños, niñas y adolescentes”. El sistema se basa en el procesamiento estadístico de grandes cantidades de datos provenientes de organismos públicos para calificar a la población menor de 18 años, ordenando a las personas según su probabilidad de sufrir vulneraciones.

Aunque en este caso el sistema haya sido desarrollado por una universidad privada local, nuevamente se trata de una iniciativa invasiva de recolección de datos sensibles de menores de edad que conlleva gran riesgo de profundizar situaciones de prejuicio y estigmatización hacia grupos históricamente vulnerables. Además, estos procesos implican la transferencia de datos personales a terceros y la posibilidad de que esos datos sean usados para fines distintos a los que permitieron su recolección; sin bases legales ni garantías de que la información generada no será utilizada a futuro con otros propósitos, como iniciativas de policiamiento predictivo por ejemplo.

Dado que cuestiones como embarazo adolescente, evasión escolar y desnutrición son problemas estructurales en la región, es extremadamente cuestionable que las políticas asociadas sean mediadas o condicionadas a la recolección de grandes cantidades de datos. Que no exista a su vez una preocupación por los derechos de niños, niñas y adolescentes, concordante con instrumentos vigentes en toda la región, da cuenta de un problema más profundo.

Vigilancia, control y exclusión

En Chile, la implementación de sistemas de identificación biométrica en el sistema nacional de salud preocupa por las posibles limitaciones que podría generar a poblaciones marginadas y empobrecidas -e incluso a personas mayores, por la pérdida de legibilidad en rasgos como las huellas digitales- para su acceso a servicios básicos de salud.

La implementación del llamado “Sistema Biométrico para la Seguridad Alimentaria” en Venezuela, a través del cual se exige a los ciudadanos la verificación de su identidad a través de la huella digital para adquirir productos categorizados como de “primera necesidad” (productos alimentarios, de higiene y medicinas), ha generado denuncias por discriminación hacia personas extranjeras -documentadas e indocumentadas- y personas transgénero. La situación es particularmente preocupante dada la situación de escasez de bienes esenciales y la crisis humanitaria que se agrava en el país, principalmente afectando los derechos a la alimentación y salud de las poblaciones más vulnerables. 

En São Paulo se implementó hace dos años el uso de cámaras de reconocimiento facial en el sistema de transporte público, con la justificación de que ayudarían a evitar el fraude en el uso de beneficios sociales asociados al transporte, como descuentos a adultos mayores, estudiantes y personas con discapacidad. En estos dos años el sistema ha bloqueado más de 300 mil tarjetas supuestamente usadas indebidamente, o sea, no por sus titulares. Por otra parte, la municipalidad ha anunciado la suspensión total las tarjetas anónimas y ha implementado medidas para obligar el registro de las tarjetas con datos de identificación únicos y residenciales. Este tipo de medida puede impactar en el acceso de personas no registradas –como personas sin techo e inmigrantes– al servicio. En una ciudad de las dimensiones de São Paulo, las tarjetas que permiten la integración con descuento a distintos tipos de transporte son fundamentales para la locomoción de gran parte de la población al trabajo, escuela y actividades culturales. El bloqueo o imposibilidad de acceso a medios de transporte puede tener un gran impacto en la vida y el desarrollo de las personas.

Además de crear limitaciones al acceso a servicios públicos para grupos históricamente marginados de la población, los sistemas de identificación obligatoria y biométricos implican una “sobrevigilancia” hacia esos grupos. No se sabe cómo son utilizados, agregados y compartidos los datos recolectados de esos grupos, ni parece proporcional exigir un nivel tan alto de información para la entrega de beneficios limitados o condicionados. En el caso venezolano las bases de datos biométricas provienen del sistema electoral, para ser utilizadas tanto por operadores estatales -incluyendo funcionarios de migración y policías- como por cajeros de supermercados y farmacias, sin ningún tipo de requisito legal previo. En São Paulo, el gobierno municipal llegó a anunciar la venta de las bases de datos de las tarjetas utilizadas en el transporte pero, bajo presión pública y después de la aprobación de una ley de protección de datos en Brasil, cambió su posición.

No está demás reiterar que solamente se someten a esos sistemas a los usuarios de sistemas públicos de salud, asistencia social y transporte que, en general, no incluyen las élites locales que pueden prescindir de ellos y recurrir a prestadores privados; manteniendo mayor control sobre su información y preservando su privacidad.

Desigualdad, discriminación y pobreza

Que los mecanismos de vigilancia sean implementados de manera diferencial hacia los grupos más vulnerables no es novedad, esto remonta a procesos de control social y precarización que han estado en la base de la construcción de muchas de nuestras sociedades para asegurar tanto la dominancia de las clases sociales y económicas más privilegiadas como la explotación de los más vulnerables. Aún hoy, con las posibilidades ofrecidas por las tecnologías para optimizar la entrega de servicios de toda clase, vemos que esas tecnologías son usadas para mantener esa estructura social desigual. Con asistencia de la tecnología, la vulnerabilidad es castigada con vigilancia.

No tiene por qué ser así. La promesa de la tecnología es la mejora de nuestras vidas. Esa promesa debería ser transversal a toda la sociedad y no estar reservada para aquellas personas que puedan costear las mejoras, o que puedan pagar el precio de no tener que someterse a aplicaciones abusivas de la tecnología. Estos desarrollos y despliegues tecnológicos no deberían resultar en una nueva forma de discriminación que profundice otras desigualdades como un daño colateral que debemos asumir en favor de un supuesto bien mayoritario. 

Una aproximación de derechos fundamentales con una comprensión interseccional de los distintos tipos de exclusiones que las tecnologías promueven y clausuran es la única manera de hacer frente a la desigualdad a la que millones de personas están siendo sometidas en el continente. Solo así, las nuevas tecnologías quizás puedan convertirse en un factor que ayude al cierre de las brechas que enfrentamos ahora. 

Las apariencias engañan: falencias del reconocimiento facial y sesgo algorítmico

Según el antiguo cliché, el rostro es el espejo del alma. Algo por el estilo deben haber estado pensando los responsables en Unilever y otras compañías con sede en el Reino Unido, que han comenzado a utilizar un sistema de análisis de expresiones faciales en los procesos de selección de personal

The Telegraph explica que el sistema compara los videos de las entrevistas de los postulantes con una base de datos que contiene información facial y lingüística de aquellos empleados que se desenvuelven bien en el trabajo. Según Nathan Mondragon – psicólogo jefe de Hirevue, la empresa estadounidense que provee el servicio – «Las expresiones faciales indican ciertas emociones, comportamientos y rasgos de personalidad». 

Pero, ¿lo hacen realmente? La Association for Psychological Science quiso poner esta hipótesis a prueba y reunió a cinco expertos para intentar determinar cuánto de cierto había una idea arraigada en el sentido común, que la emoción puede determinarse de manera confiable mediante movimientos faciales externos. El resultado fue concluyente: no existe evidencia científica que respalde la noción de que el estado emocional de una persona se puede inferir fácilmente del modo en que mueve su rostro. 

Esto, por una serie de razones: las mismas emociones no se expresan siempre de la misma manera, las mismas expresiones faciales pueden indicar distintas emociones y las características culturales y contextuales influyen en el modo en que las emociones son expresadas. Las emociones son complejas y no necesariamente obvias de comprender, incluso para quién las experimenta, mucho menos para un observador externo.  

“Preferiría tener mi primera entrevista con un algoritmo que me trate justamente y no tener que depender de qué tan cansado esté el reclutador ese día”, argumenta Loren Larsen, director de tecnología de Hirevue, haciendo eco de aquella vieja idea de que las máquinas están libres de sesgos y, por tanto, son preferibles a los seres humanos. Pero como replica para el Telegraph Anna Cox, profesora de interacción humano-computadora en UCL, el sistema «va a favorecer a las personas que son buenas para hacer entrevistas en video y cualquier conjunto de datos tendrá prejuicios que excluirán a las personas que realmente habrían sido excelentes en el trabajo», eso sin mencionar sesgos de género, raza o etnicidad.

La búsqueda por una técnica que provea a la humanidad de un acceso directo a representar la realidad de forma objetiva es de larga data, e incluye la invención de la perspectiva en el renacimiento y la fotografía. Las técnicas algorítmicas y las “máquinas que ven” son la última adición a una lista larga. Y, sin embargo, se revelan tan dadas a los sesgos como cualquier otra. 

Un ejercicio interesante al respecto lo realizaron hace pocos días Kate Crawford y Trevor Paglen, responsables de la exhibición “Training Humans”. Como parte de la muestra, pusieron en internet ImageNet Roulette, un sitio web temporal (y ya no disponible en línea) que ponía a disposición de cualquiera con una conexión a internet un algoritmo entrenado con la base de datos ImageNet, uno de los sets de entrenamiento más utilizados para el aprendizaje de máquinas: para enseñarle a un computador qué es un perro, se le muestran miles de imágenes de perros, hasta que aprende distinguirlos de aquello que no es un perro. Las imágenes son etiquetadas a mano por personas que imprimen sus propios sesgos al hacer la tarea. Esto no es particularmente problemático cuando estamos hablando de perros, pero sumamente complicado cuando se trata de personas, también incluidas en la base de datos.

Como pudieron comprobar quienes visitaron ImageNet Roulette, el modo en que sus selfies eran clasificadas incluía términos como “terrorista”, “mujerzuela” o “nonentity”, definido como “una persona sin poder”. Todo esto, simplemente a partir de sus rostros. «El proyecto busca llamar la atención sobre los daños reales que los sistemas de aprendizaje automático pueden perpetuar», explica Paglen.

América Latina

En nuestra región, los usos de sistema de reconocimiento facial han comenzado a expandirse rápidamente, principalmente para la vigilancia del espacio público asociada a actividades de seguridad. En Paraguay, un sistema de reconocimiento facial está funcionando desde julio de 2018 en Montevideo, envuelto en un manto de secretismo total: a pesar de los esfuerzos de Tedic por obtener información respecto a la ubicación y los usos del sistema, poco se sabe respecto al funcionamiento de este. 

Cuestión similar ocurre en Buenos Aires, Argentina, que cuenta con un sistema de vigilancia por reconocimiento facial desde marzo de 2019. Se sabe que existen cerca de 200 cámaras equipadas con un sistema de reconocimiento facial en algunas estaciones de Subte y en la zona de trenes. Pero pese a los esfuerzos de ADC por conocer la ubicación de los dispositivos, la información ha sido negada por el Gobierno de la Ciudad, aduciendo razones de seguridad. 

En México, los sistemas de reconocimiento facial son cada vez más comunes. Solo en 2019, el Gobierno del Estado de Coahuila ha instalado 1282 cámaras de vigilancia pública equipadas con tecnología de reconocimiento facial en las calles de diversas ciudades. Ya en 2018 se reportó el uso de esta tecnología en los accesos a la Feria Ganadera de Sinaloa y, recientemente, unidades de patrulla en la Ciudad de México se han equipado con tecnología de reconocimiento facial.  En Brasil, Bolivia, Ecuador y Chile existen sistemas de reconocimiento facial o planes para su próxima instalación. 

En general, el planteamiento es poder agilizar la búsqueda de prófugos de la justicia y poder identificar rápidamente a los delincuentes. Pero los resultados distan de ser los esperados. Recientemente, un hombre estuvo seis días preso por error en Buenos Aires, gracias al sistema de reconocimiento facial. En Chile, las pruebas realizadas por la policía a un sistema de reconocimiento facial implementado por una cadena de centros comerciales arrojaron una taza de error que ronda el 90 %. 
Así, pareciera ser que las tecnologías de reconocimiento facial producen más problemas que los que son capaces de resolver, a la vez que las bases teóricas que sustentan sus supuestos beneficios se desmoronan ante la evidencia.  En Estados Unidos, varias ciudades han prohibido completamente el uso de estas tecnologías. Quizás sea el momento de seguir su ejemplo.

Consejo Asesor de Facebook: ¿La bala de plata para los problemas de la moderación de contenidos?

Es habitual encontrar quejas sobre el funcionamiento de grandes plataformas y sitios como YouTube, Twitter o Instagram; sea por quitar imágenes o videos de sus usuarias por infracción de sus políticas y condiciones de uso, o bien por mantener en sus sistemas comentarios constitutivos de amenazas o discriminación. En otras palabras: por quitar demasiado sin suficiente justificación o mérito, mientras los nazis circulan sin molestias.

Se trata a menudo de decisiones difíciles, intentando sopesar tanto el interés por la expresión libre con el respeto a la ley o a las reglas de convivencia en la interacción entre usuarios en la plataforma. En una escala planetaria, con cientos o miles de millones de personas haciendo lo mismo a la vez, la tarea de moderación es de una magnitud difícil de medir. A ello se agrega la complejidad de responder a distintas normas legales y sociales existentes entre distintos países y comunidades.

De allí nace el anuncio de un Consejo Asesor de contenido de Facebook, con la misión de actuar como árbitro último en la decisión de cuándo corresponde un retiro de contenido o no. Hace pocos días -y tras un intenso período de consultas en persona y por escrito- se incluyó la respuesta de la coalición Al Sur (p. 126), de la cual Derechos Digitales forma parte, y se realizó el anuncio oficial del Acta constitutiva que despeja varias de incertidumbres; dejando abiertas algunas interrogantes levantadas por diversas organizaciones de la sociedad civil durante el periodo de consultas. 

Un órgano diverso e independiente

Uno de los aspectos clave de la implementación de un Consejo como el planteado es la independencia funcional, esto es, que no se trate de un órgano que responda a Facebook. Por ello, el más reciente anuncio se anota un punto favorable al incluir la formación de un fideicomiso, que recibirá fondos de la compañía pero estará independientemente encargado de financiar la operación del Consejo, incluyendo la compensación por servir en el mismo. La forma de interacción entre los tres órganos está también contemplada en el Acta (art. 5).

El Consejo contará también con capacidad independiente para seleccionar los casos a los que se dedicará. Aunque resta conformar los estatutos para el funcionamiento del Consejo, será este mismo el que podrá modificarlos a futuro, idealmente asegurando así que la primera versión de ellos que producirá Facebook no afectará la forma en que se diseñe su proceso de toma de decisiones.

Por otra parte, la composición del Consejo (art. 1 del Acta) debe ser “diversa”, con entre 11 y 40 personas con un amplia gama de conocimientos, competencias, diversidad y pericia; evitando los conflictos de interés. Puesto que no hay un Consejo conformado todavía, aún no sabemos si en la práctica se cumplirán las aspiraciones de diversidad de voces y perspectivas anunciada, sin embargo ya está en marcha el proceso de selección de miembros iniciales. Aún no queda claro si los criterios para la remoción de miembros del Consejo (art. 1 s. 8), una vez establecidos, serán suficientes para garantizar que la permanencia sirva como modo de presión para la toma de decisiones en uno u otro sentido. Tampoco hay mecanismos establecidos para enfrentar las inevitables acusaciones de sesgo de quienes compongan el Consejo o alguno de sus paneles. Todos estos detalles pendientes resultan esenciales para una evaluación final de los requisitos que miran a la diversidad, independencia y legitimidad de la acción del Consejo Asesor.

La toma de decisiones sobre la expresión global

En principio, el Consejo estará llamado a responder a los casos que Facebook directamente someta a su decisión por su “importancia” y “dificultad”, para posteriormente recibir también solicitudes de las usuarias (art. 2). El Consejo, como hemos dicho, podrá decidir sobre la selección de casos. Las decisiones que se adopten por el Consejo en tales casos serán vinculantes y las medidas adoptadas en su cumplimiento deben ser informadas transparentemente por Facebook (art. 4).

Pero de manera mucho más crucial, las facultades del Consejo no estarán limitadas a lo que Facebook o sus usuarias indiquen sobre retiro de contenidos o comentarios, sino para interpretar las políticas de contenidos en general (art. 1 s. 2). Esto incluye no solo a las Normas Comunitarias, sino también otras cuestiones como el uso de herramientas automatizadas de moderación, o las políticas sobre avisos. Queda por ver si el Consejo extenderá su ámbito de acción, y si Facebook reconocerá esa ampliación. 

El Acta admite que el Consejo entregue “guía” a Facebook para la modificación de sus políticas (art. 1 s. 4), sin hacer obligatorio un cambio de esas políticas para la compañía. Si bien es comprensible que un órgano externo como el Consejo no tenga influencia directa en las reglas de la plataforma, la decisión de formulación de esas reglas continuará exclusivamente en manos de la compañía. Llama la atención a este respecto el lenguaje ambiguo utilizado respecto del carácter vinculante -o no- de las recomendaciones en materia de modificación de políticas, versus el reconocimiento explícito del carácter vinculante de las decisiones referidas a casos específicos que les sean sometidos. Dicha ambigüedad atenta contra las recomendaciones formuladas por Derechos Digitales y otras organizaciones durante el periodo de consultas. El mínimo esperable en este caso, si no existe un efecto vinculante de las recomendaciones del Consejo, es que Facebook se comprometa a proveer explicaciones suficientes y razonadas al Consejo que justifiquen su negativa.

El Consejo podrá también recabar información adicional (art. 3 s. 3), incluyendo opiniones expertas, peticiones de investigación, o traducciones. Es de esperar que no haya una limitación de recursos que haga inviables esas expectativas de información que puede ser crucial para comprender el contexto en que una expresión cuestionada se produce. Además, el Consejo podrá recibir opiniones no solicitadas de personas o grupos afectados o representados en el contenido respectivo, a modo de amici curiae. Por otro lado, se mantiene la posibilidad de someter al Consejo una decisión expedita en casos especiales, con hasta dos semanas para responder, un plazo menos que ideal por ser muy extenso para responder a una situación urgente y muy breve para una decisión razonada. Por ello, esperamos que el Consejo desarrolle mecanismos propios para enfrentar casos urgentes.

El proceso para llegar a una decisión y a su implementación por Facebook está centrado en la determinación sobre si una decisión de retirar contenido es consistente con las políticas de contenido y los “valores” de la compañía. Es decir, se trata de vigilar la observancia de reglas de una empresa privada, y no de reglas legales nacionales o internacionales, en situaciones de expresión que alcanzan a todo el planeta. Aunque se incluyen por primera vez menciones explícitas a la atención necesaria a las “normas de derechos humanos que protegen la libertad de expresión” en el Acta (art. 5 s. 2) y al derecho internacional de los derechos humanos entre los valores que inspiran las Normas Comunitarias (al menos, desde hace unas semanas), es necesario que un compromiso real a futuro con los derechos fundamentales sea más explícito y más amplio; así como que se reconozca de una jerarquía superior a los valores internamente establecidos por la compañía. Tan solo relevar valores de libertad de expresión y no otros derechos humanos implicados en la moderación de contenidos -muy en línea con la perspectiva estadounidense- es insuficiente para reconocer los entramados de derecho internacional de los derechos humanos y las complejidades normativas que pueden variar alrededor del mundo.

También aparece en el Acta la función de marcar “precedentes” de las decisiones (art. 2 s. 2) intentando proveer al mecanismo consistencia en sus decisiones. Sin embargo, se compromete su implementación limitada a lo técnicamente posible y a lo que no esté legalmente prohibido (art. 4), planteando nuevas dudas sobre el real apego a reglas tales como las propias del derecho internacional de los derechos humanos. 

El beneficio de la duda

Desde un inicio el anuncio del Consejo Asesor de contenido fue recibido ampliamente con un sano escepticismo, pero como una buena medida inicial para incrementar la transparencia, el debido proceso, la diversidad y la rendición de cuentas en la moderación de contenidos. Parece un piloto interesante para evaluar soluciones que abarquen más de una compañía o nuevos esfuerzos individuales, aún cuando falta una mayor recuperación del amplio legado del sistema internacional de derechos humanos. Es una preocupación que las decisiones difíciles y con impactos continúen siendo dejadas de este modo en manos privadas, sin primacía de procesos para ponderar la proporcionalidad de afectación a derechos propia del sistema internacional de derechos humanos; a pesar de contar con una larga historia de toma decisiones en casos complejos. 

El escepticismo en torno a la intención de proteger usuarias en lugar de proteger su éxito económico es comprensible, ya que el historial de la compañía hace difícil entregar el beneficio de la duda en un ámbito con consecuencias sensibles. Pero a la vez, podría significar un paso inicial para el reconocimiento de la responsabilidad que -en el marco internacional de los derechos humanos- recae en quien aloja buena parte de la expresión a nivel mundial.

Dada la alta complejidad en torno a mantener espacios a la vez libres de acoso y de contenido dañino, propicios para la expresión libre y ausentes de censura ilegítima, es difícil entregar confianza sobre el control de la misma a un sistema diseñado por una empresa privada por genuino que resulte el esfuerzo. La solución ofrecida por este Consejo Asesor está lejos, por tanto, de ser la -ansiada por muchos- bala de plata de la moderación de contenido.

Contra las nuevas formas de violencia antidemocrática

Un día como hoy, hace 46 años, las Fuerzas Armadas chilenas derrocaron al gobierno democrático de Salvador Allende. El golpe de estado – producto de una confabulación entre militares y civiles, con apoyo de la CIA – dio inicio a 17 años de dictadura sangrienta y voraz, cuya violencia se expresó como asesinato y tortura, pero también como política económica y en la creación de una Constitución todavía hoy vigente. 

Ese 11 de septiembre de 1973, mi madre tenía 14 años; 13 mi padre. El retorno de la democracia los encontró comenzando los 30, con un hijo pequeño y una hija recién nacida. Además de infundir miedo y hambre, la dictadura les arrebató su juventud. Valientemente asumieron la responsabilidad de luchar contra la represión, de todas las maneras que encontraron: marchando, haciendo barricadas, tirando panfletos, organizando actos culturales, haciendo títeres, cantando, tomando vino navegado en las peñas folklóricas, mirando películas censuradas, yendo al teatro. Fue así como se conocieron y quizás su amor haya sido también una manera de resistir, un pequeño gesto de esperanza frente a la monotonía de la desolación. 

Como mis padres, miles de personas lucharon todos los días durante 17 años contra la dictadura, desde distintos frentes, de diferentes maneras. La recuperación de la democracia es su legado, su regalo para quienes les seguimos. Pero la democracia es siempre una promesa, un proyecto inconcluso, susceptible también al retroceso. Y esa es algo de lo que tenemos que ser conscientes, especialmente cuando hemos visto un alza de las voces negacionistas del horror, no solamente en Chile, sino también -por ejemplo- en Brasil, que al igual que otros países Latinoamericanos vivió también una historia de represión, violencia y terrorismo estatal.

Las nuevas tecnologías de la comunicación -desde las redes sociales a las aplicaciones de mensajería- han sido una de las principales armas que han encontrado los grupos negacionistas, que han sabido explotar hábilmente el desinterés de las compañías por generar espacios seguros para quienes las usan y las sociedades en que habitan. Alguna vez celebradas como la vanguardia de la democracia, las redes sociales se han convertido en la mayor caja de resonancia que han encontrado los proyectos filofascistas en el siglo XXI. 

La explotación del miedo con fines políticos -a través del perfilamiento de la población- gracias a la acumulación masiva de datos personales, es también una expresión  que remite al arsenal de herramientas utilizado por las dictaduras latinoamericanas; que además reconocieron el potencial de las campañas de desinformación muchísimo antes de la masificación de los celulares y los grupos de WhatsApp. 

Por su parte, las tecnologías de vigilancia, que de forma cada vez más común se despliegan en los espacios públicos y semi-públicos, tienen el potencial de volver literal la advertencia macabra emitida por el dictador cuando se ufanaba de que en Chile no se movía una hoja sin que él lo supiera ¿Cuánto más efectiva habría sido la CNI si hubiese tenido acceso a la tecnología de reconocimiento facial que hoy se instala de manera casi anecdótica en nuestras ciudades? Y aunque en Chile la CNI ya no existe, periodistas y activistas siguen siendo vigilados y perseguidos por medio de las mismas tecnologías que se suponía venían a liberarnos. 

La relación entre tecnología y violencia no debería extrañarnos, ¿no fue acaso IBM proveedor de la Alemania Nazi? Lo que debería parecernos raro es la ingenuidad con la que se suele abordar esta relación, como si viviéramos constantemente obnubilados por el brillo de las pantallas que hemos decidido anexarnos. 

Frente a estas nuevas formas de violencia que atentan contra nuestras frágiles democracias y los derechos fundamentales de quienes las conforman, nuestro deber es resistir y luchar de todas las formas que encontremos: por quienes lo hicieron antes que nosotros y para quienes nos van a suceder.

¿Qué oculta la nueva consulta pública sobre derechos de autor en Brasil?

Brasil tiene una de las leyes de derechos de autor más estrictas de América Latina, con escasas flexibilidades para las usuarias manifestadas en excepciones y limitaciones a los derechos exclusivos. Aunque hubo algunos avances jurisprudenciales en los últimos años, la Ley Nº 9.610 de 1998 mantiene una serie de restricciones al uso privado de obras protegidas y no incluye autorizaciones que favorezcan el uso de obras intelectuales en escuelas, bibliotecas o museos.

Una historia complicada

La ley fue por años clasificada como una de las peores del mundo por Consumers International y en menos de diez años de vigencia fue considerada obsoleta, ya que su carácter restrictivo frenaba muchas de las posibilidades de acceso a la información, conocimiento y cultura potenciadas por las tecnologías digitales. No obstante, este análisis crítico sirvió como una de las bases para iniciar un primer proceso de debates públicos para hacer una revisión de la ley. Ese proceso fue iniciado en 2007 por el Ministerio de Cultura (hoy integrado al Ministerio de Ciudadanía), encabezado por el popular artista Gilberto Gil. 

Los debates incluyeron un ciclo de encuentros en distintas regiones del país, reuniendo a expertos, artistas y sociedad civil entre otros interesados. Las discusiones tenían un fuerte énfasis en la ampliación de las limitaciones y excepciones favorables al uso de las obras intelectuales. A partir de estos debates, fue presentado un texto inicial de reforma para consulta pública virtual en 2010 y en 2011 un nuevo texto estuvo abierto para comentarios. En un proceso que ya era novedoso por el carácter inclusivo y abierto de la discusión, las consultas virtuales surgían como una expresión pionera de participación: la ciudadanía podía no solamente revisar las propuestas, sino también comentarlas y revisar los comentarios de otros interesados.

Sin embargo, el proceso no prosperó. Con los cambios políticos vividos en el país desde entonces y la ascensión de liderazgos menos comprometidos con la promoción de la cultura libre, el texto jamás fue presentado al Congreso Nacional. Reformas menores fueron aprobadas, pero la esperanza inicial por una ley equilibrada se diluyó.

Mientras ese proceso de modernización se detuvo, la marcha de la tecnología continuó, incluyendo una masificación de las redes sociales y de formas cada vez más complejas de producción y recreación artística y cultural. Los cambios en el ecosistema digital, a nivel nacional y global, trajeron nuevos desafíos a una regulación cada día más atrasada.

La ley vuelve a la discusión pública

De manera sorpresiva, el gobierno de Bolsonaro abrió una nueva consulta pública sobre la ley actual -recibiendo comentarios sobre el texto completo hoy vigente- y sobre los temas que podrían integrarse a la ley. La consulta fue lanzada sin ningún debate o documento preparatorio, sin un texto base (salvo la ley vigente) y sin referencia alguna a los desarrollos del proceso iniciado en la década pasada. Tampoco hay ningún compromiso con la publicación de las contribuciones recibidas, ni sobre la información de la participación; lo que consiste en un gran retroceso en transparencia en relación a los procesos anteriores.

Aunque sea loable la iniciativa de abrir al público la discusión de una ley tan criticada, surge la pregunta: ¿qué motiva la apertura de una consulta sobre la ley de derechos de autor en este momento? 

Dos elementos apuntan a una intención de establecer nuevas reglas para la difusión de contenidos protegidos en línea. El primero de ellos, es la mención expresa a la Directiva Europea de Derechos de Autor en el texto que presenta la consulta. Como se sabe, la Directiva incluye un controvertido artículo que responsabiliza los intermediarios en línea por infracciones de derechos de autor, incluso de parte de terceros, obligando a una censura proactiva por las empresas de internet. Cabe preguntarse si el gobierno brasileño pretende hacer propio un modelo que, a pesar de haber sido aprobado, ha presentado grandes polémicas y sigue planteando serios desafíos para su implementación.

El segundo elemento, es la pregunta en el formulario de consulta sobre la necesidad de una “reforma integral” a la ley, o solamente una reforma en lo relativo a los nuevos modelos de negocios de internet. La segunda opción trae como ejemplo la regulación del artículo 19 del Marco Civil de Internet, que precisamente trata de la responsabilidad de intermediarios de internet. 

Aunque políticamente se optó por dejar a una regulación específica el tratamiento de la responsabilidad en caso de violaciones a los derechos de autor, cabe recordar que la sociedad brasileña hizo una opción en el Marco Civil (que también pasó por un proceso de construcción ciudadana reconocido en todo el mundo) por no responsabilizar a las plataformas por infracciones cometidas por terceros y con eso priorizar la libre expresión en línea. Un cambio en ese sistema, alineado con los desarrollos de la Directiva Europea que parece inspirar al gobierno brasileño, representaría la victoria de intereses comerciales de la industria por sobre la ciudadanía y el interés público.

La voz de la ciudadanía para un sistema equilibrado

Es difícil otorgar el beneficio de la duda a gobiernos autoritarios a propósito de iniciativas revestidas de democracia y participación. En una materia como la legislación de los derechos de autor, tan relevante para el interés público y el avance de derechos humanos, pero tan susceptible a la presión por parte de las industrias de contenidos y las entidades de cobro, esa suspicacia es aún mayor. A ello se suma la falta de documentación informativa y la ausencia de compromisos de transparencia, que podrían invitar a un involucramiento más activo de la ciudadanía.

Pero esas mismas razones son las que invitan a aprovechar esta apertura. Dado que los espacios de participación en políticas públicas son hoy limitados, una consulta pública resulta un espacio propicio que ocupar. Dado que las voces siempre presentes en estos debates son las de quienes utilizan a la propiedad intelectual como caja pagadora (y a menudo, no los artistas mismos), una consulta pública es una oportunidad para expresar los intereses de quienes usan obras a diario para crear, para expresarse, para enseñar. Y dado que no hay certeza sobre cómo serán consideradas las respuestas a la consulta, es una oportunidad para presentar y difundir públicamente con fuerza las ideas de la sociedad civil para una regulación equilibrada y respetuosa de derechos fundamentales. 

El futuro de internet, la creación y la difusión del conocimiento libre y abierto, están hoy en consulta pública en Brasil. Esta es una oportunidad para hacer que la ley recoja las necesidades de las personas que usan internet para educar, crear, compartir, documentar -incorporando a los acervos e instituciones que preservan la memoria y el conocimiento- para alzar la voz en defensa de los humanos, contra la vigilancia y censura en la red.


Vea también:

La Directiva Europea de Derecho de Autor y su impacto en los usuarios de América Latina y el Caribe: una perspectiva desde las organizaciones de la sociedad civil

Reforma da LDA: o que você precisa saber

Represión contra mujeres periodistas y activistas en México

El viernes 16 de agosto en la Ciudad de México se convocó a una protesta ante las omisiones de justicia en casos de violación donde los culpables son elementos de las fuerzas policiacas. Estos casos, que no han sido pocos ni recientes, llevaron a que cientos de mujeres se encontraran en las inmediaciones de la Glorieta de Insurgentes para dar lugar a lo que se denominó “Diamantada”: donde la diamantina fue retomada como símbolo de protesta durante la manifestación convocada tras los eventos del 12 de agosto.

Cabe recalcar que el tema de la violencia contra mujeres en México es un problema histórico que hoy en día se mantiene al alza, simplemente en este año hemos pasado de tener un promedio de 8 a 10 asesinatos de mujeres al día. Aunado a esto, la violencia también se ha ejercido a través de otros mecanismos y estructuras de poder. No hay que olvidar que hace unos meses atrás aún nos encontrábamos analizando la luz que arrojó la segunda ola del #MeToo sobre casos de acoso y otros tipos de violencia en diferentes gremios: incluso el periodístico.

Desde hace varios años, diversas instancias se han encargado de documentar las implicaciones que -en el contexto de violencia contra periodistas, donde México está consolidado como uno de los peores en América Latina para ejercer esta profesión- recaen en asumir el compromiso con documentar y comunicar la realidad como mujer periodista. No es gratuito que la renombrada periodista Lydia Cacho recientemente haya huido del país.

Por otro lado, existe una dimensión política que también aporta un matiz distinto a la polarización de la información que tanto medios de comunicación como algunos comunicadores han difundido, pues es claro que el feminismo -como la verdad- incomoda a quienes han consolidado su poder en los privilegios que existen para quienes se alinean con estructuras sociales profundamente patriarcales, machistas y misóginas como las que existen en México; estructuras que grupos de mujeres organizadas a través de distintas acciones claramente políticas han estado visibilizando, buscando derribar. Y no pasa por alto que vivimos en una época donde la participación de las mujeres en distintos espacios se ha potenciado y amplificado, evidenciando el recelo (manifestado, algunas veces, a través de agresiones) ante los cambios propios de una sociedad que se está transformando.

Sin embargo, algunos de los principales medios de comunicación han optado por abordar el tema con una mirada sesgada que promueve la polarización y desdibuja el descontento que ha movido a cientos de mujeres en todo el país. Este problema no solamente pasa por evidenciar una falta de perspectiva de género y mirada crítica en estos conglomerados comunicacionales, sino que también alimenta las posturas que suelen tomarse por quienes propagan discursos de odio e incluso dirigen agresiones a activistas y medios de comunicación feminista en redes sociales.

Imponer el silencio

Tras las denuncias públicas de medios independientes con perspectiva feminista como Luchadoras, otras iniciativas de derechos humanos y afines a las causas feministas se sumaron para denunciar la violencia manifestada a través de redes sociales en días posteriores a la marcha.

Además de los casos violencia explícita que se documentaron y los reportes de acoso y violencia en línea, se hicieron visibles estrategias de amedrentamiento que hacían uso de grupos de Facebook para convocar a “golpear feministas hasta la muerte”. Esto hace evidente la instauración del miedo como una herramienta para reprimir la legítima protesta de las mujeres que se han manifestado a través de las movilizaciones en el espacio público y la potencia de las plataformas digitales.

Desde Internet Es Nuestra hicimos un llamado a Facebook y Twitter para agilizar los procesos de reporte, aplicar sus normas comunitarias y promover acciones ante la violencia que se ejerce contra las mujeres en sus plataformas. Al día de hoy nos hemos reunido con Twitter para abordar este tema y pensar medidas conjuntas para hacer frente a los casos reportados, mientras que no hemos recibido respuesta por parte de Facebook.

Estrategias y resistencias

La violencia en línea contra las mujeres en México, así como la violencia contra mujeres periodistas en el mundo no son temas sencillos; tienen una vasta multiplicidad de matices que se complejizan cuando se sitúan en los diferentes contextos en los que aún queda camino por recorrer para alcanzar un punto en el que podamos vivir libres de violencia.

El sumar la dimensión técnica/tecnológica a las propuestas políticas y las acciones feministas no sólo nos permite repensar nuestra relación con las tecnologías, sino cuestionarnos las dependencias hacia ciertas estructuras que menoscaban la autonomía; mientras propagan ideologías que actúan en detrimento de nuestras libertades y derechos.

En México, el año pasado, un grupo diverso de mujeres que se autodenominó Tormenta habilitó un diálogo sobre identidad y feminismo en internet. El resultado fue una reflexión que pasó por abordar las estrategias de aprendizaje y cuidado colectivo por medio de una mirada crítica sobre nuestro uso de las tecnologías: mirando hacia alternativas que permitieran fortalecer la seguridad y la autonomía sobre la información.

Además, no son pocas las iniciativas feministas que trabajan seguridad digital en América Latina. Como Ciberseguras, que también tiene presencia en México y ha sido parte de procesos de acompañamiento y fortalecimiento digital para mujeres, activistas, periodistas y defensoras de derechos humanos en diferentes estados del país. 

Ante la omisión de justicia, la desinformación y la violencia, pensar la seguridad digital como una parte fundamental de nuestras actividades como comunicadoras, periodistas o activistas es fundamental para prevenir ataques o desarrollar estrategias que nos permitan actuar a tiempo: para que nuestras voces se amplifiquen y no sea el miedo lo que defina nuestro futuro. 

¿Hacia dónde va el primer tratado sobe economía digital?

El pasado 17 de mayo, los representantes de Chile, Singapur y Nueva Zelanda anunciaron la negociación de un nuevo tratado de comercio internacional: el Acuerdo de Asociación sobre Economía Digital (Digital Economy Partnership Agreement, DEPA). La novedad es que este será el primer tratado comercial dedicado exclusivamente a abordar los desafíos de la economía digital, especialmente luego del estancamiento de las negociaciones en la materia a nivel de la Organización Mundial del Comercio (OMC).

La semana pasada, la Subsecretaría de Relaciones Económicas Internacionales de Chile (ex DIRECON) convocó la primera reunión oficial, permitiendo a los miembros de la industria, la academia y la sociedad civil chilenas conocer más detalles sobre la iniciativa. Los primeros acercamientos se produjeron en diciembre de 2018 y hasta el momento se han celebrado tres rondas de negociación. La negociación será cerrada entre los tres países hasta su conclusión, pero luego se permitirá la adhesión de cualquier país que pertenezca a la OMC. 

En cuanto a las materias que se van a incorporar en el tratado, estas van desde las más tradicionalmente vinculadas al comercio electrónico (pagos electrónicos, no aplicación de tarifas aduaneras a servicios digitales, firma electrónica, etcétera) a temas nunca incluidos en un tratado internacional, como la regulación de la inteligencia artificial y la tecnología de cadenas de bloques (blockchain). Vamos por partes.

Nobleza obliga

Entre los temas que se han propuesto en la negociación, hay dos que son particularmente positivos (ambos propuestos por Chile). El primero, es la inclusión explícita de normas que promueven la utilización del cifrado. Esto es relevante porque la tecnología de cifrado de comunicaciones (especialmente de punto a punto) se ha transformado en una herramienta indispensable para mejorar los estándares de ciberseguridad de las industrias y los distintos servicios digitales. En este sentido, el cifrado no solo asegura que las personas puedan ejercer su derecho a la inviolabilidad de las comunicaciones, sino que promueve la confianza de los usuarios en la seguridad de los servicios y plataformas que operan en el ciberespacio. Esto tiene un efecto económico tangible, ya que estudios indican que el 33 % de los consumidores expresa haberse abstenido de adquirir productos y servicios en línea debido a consideraciones de seguridad y privacidad.

Su inclusión también resulta positiva a la luz de la iniciativa de distintos países para debilitar el cifrado, exigiendo a los desarrolladores incorporar “puertas traseras” en sus servicios, para “descifrar” el contenido encriptado. Estas puertas traseras son verdaderas vulnerabilidades informáticas, que no solo pueden ser aprovechadas por los gobiernos que las exigen, sino que también por delincuentes informáticos, como ya ha sucedido. Si bien todavía no se han dado a conocer los textos para cada propuesta, la inclusión de una norma que impida a los países exigir la inclusión de puertas traseras en programas informáticos sería un gran paso en la promoción de la ciberseguridad y el comercio electrónico.

Entre los temas propuestos también se encuentra la inclusión de normas que consagren el principio de neutralidad de la red. Este principio busca asegurar que los operadores de internet traten todo el tráfico que pasa por sus redes de la misma forma, impidiendo que puedan bloquear, interferir o priorizar cierto tipo de tráfico por sobre otro. Este principio básico de internet no solo promueve la competencia y la innovación al impedir que los operadores de internet puedan llegar a acuerdos privados con proveedores de contenido, sino que también promueve la existencia de un internet libre y abierta, al impedir que los proveedores puedan decidir qué contenido debe obtener un trato preferencial. 

Lo que puede mejorar

Derechos Digitales ha sido crítico de las disposiciones sobre comercio electrónico que han sido incluidas en tratados internacionales anteriores, como CPTPP o TiSA. Una de nuestras críticas es que las normas sobre flujo transfronterizo de datos personales establecen un mismo criterio para los “datos” (así, en general) que para los datos personales. 

Internet funciona por capas. En un modelo simplificado, existe una capa de infraestructura (cables, servidores, etcétera), una capa de protocolo (estándares y código) y una capa de contenido (interacciones entre seres humanos). Nadie discute que la arquitectura de internet exige que exista un libre flujo de información. En otras palabras, en la capa de infraestructura no debe existir una discriminación de hacia dónde o cómo viaja la información (los unos y los ceros). Sin embargo, los datos personales no se regulan en la capa de infraestructura, sino que en la capa de contenido. Al ser datos que se vinculan a personas naturales, su recolección y procesamiento tiene que cumplir con la regulación de cada país y respetar los derechos fundamentales de las personas. Así, el Reglamento General de Protección de Datos Personales de la Unión Europea permite que los datos personales de sus ciudadanos solo puedan transmitirse a aquellos países que tengan un nivel “adecuado” de protección. 

La negociación de DEPA se presenta como una oportunidad para enmendar el camino y redactar una norma sobre flujo transfronterizo de datos personales que haga las distinciones que hacen falta. Consagrando el valor del libre flujo de datos en la capa de infraestructura, pero estableciendo que (en la capa de contenidos) los datos personales solo podrán ser transmitidos cuando cumplan con la respectiva legislación de datos personales, o a lo menos, con una protección normativa efectiva a favor de sus titulares.

Aspectos preocupantes

Lamentablemente, la negociación del DEPA también incluye materias que resultan sumamente problemáticas y que deberían ser abandonadas de plano. Así, la negociación incluye normas para promover la adopción de políticas públicas sobre “identidad digital” similares al sistema National Digital Identity de Singapur.

Estas políticas no solo son problemáticas en términos de ciberseguridad, ya que implican concentrar el manejo de todos los datos personales de los ciudadanos en una base de datos centralizada , sino que muchas veces van acompañadas de la utilización de tecnologías de control biométrico. Esto hace que cualquier tipo de filtración, vulneración o mal utilización de la información genere una afectación mucho más grave al derecho a la autodeterminación de las personas. 

Si nuestros datos se filtran, siempre podemos cambiar nuestro correo electrónico, teléfono, domicilio e incluso nuestros nombres, pero es imposible cambiar nuestra iris o huella digital. En este sentido, la biometría es como una caja de pandora: una vez abierta las personas se ven imposibilitadas de recuperar el control sobre sus datos. ¿Qué pasará el día que un gobierno sufra la filtración o robo de todos los datos biométricos de sus ciudadanos? Además, las políticas de identidad digital promueven el uso de un método único de identificación frente a organismos públicos, pero también ante el mundo privado como forma de facilitar las transacciones económicas. Esto implica aumentar la capacidad de perfilamiento y vigilancia sobre los ciudadanos, tanto de los gobiernos como de las empresas, con las consecuencias democráticas que ello conlleva. 

Por otro lado, DEPA propone incluir normas sobre regulación de plataformas que buscan combatir el terrorismo y el discurso de odio en línea. Si bien estos son objetivos completamente loables, la responsabilidad de los intermediarios y la regulación del contenido en las plataformas es hoy un tema sumamente polémico, por las profundas consecuencias que puede tener en materia de libertad de expresión. 

Hacer responsables directamente a los intermediarios del contenido que suben sus usuarios obliga a las plataformas a monitorear permanentemente lo que circula en sus servicios y bajar “preventivamente” y sin un debido proceso cualquier material que pueda ser infractor. A eso se suma el uso de algoritmos e inteligencia artificial pero, dado que ninguna máquina tiene la capacidad de comprender las complejidades del lenguaje humano, estos mecanismos han demostrado no ser confiables a la hora de moderar contenido.

Además, tales sistemas terminan bajando más contenido legítimo, mientras que el contenido que se busca combatir se mantiene disponible. También resulta problemático que sean empresas privadas las que terminan decidiendo sobre actos de expresión (muchas veces de forma muy deficiente) sin una ponderación entre derechos fundamentales. Por lo mismo, a pesar de las buenas intenciones, consagrar reglas sobre esta materia en un tratado internacional podría generar profundos efectos perjudiciales a futuro.

Por último, DEPA se propone reconocer la importancia y crear marcos para una implementación progresiva, confiable y segura de tecnologías emergentes como la inteligencia artificial y las cadenas de bloques. Más allá de los peligros que la implementación de la inteligencia artificial puede implicar en materia de sesgos algorítmicos, y que al parecer las cadenas de bloques no serán implementadas en la escala que alguna vez se especuló, no resulta recomendable que un tratado internacional se refiera a tecnologías particulares, que no necesariamente van a resistir el paso del tiempo. Una aproximación que involucre criterios de neutralidad tecnológica resultaría más aconsejable en esta materia.

En definitiva, la negociación de DEPA se presenta como una gran oportunidad para incluir temas que promuevan la ciberseguridad y la neutralidad de la red, al mismo tiempo que se mejora la forma en que se abordan materias que han sido tratadas de forma deficiente en el pasado. La promoción de la ciberseguridad, la certeza jurídica y una aproximación de derechos humanos en el tratamiento de datos personales es un elemento que sin duda favorecerá la confianza en el ciberespacio y el comercio electrónico. Sin embargo, esta oportunidad puede verse opacada por la inclusión de materias sensibles y que pueden ser incompatibles con el ejercicio de los derechos fundamentales de las personas. Por suerte la negociación todavía se encuentra en su etapa inicial y todavía hay tiempo para enmendar el rumbo en los temas problemáticos y profundizar en aquellos que son positivos.

La oportunidad perdida del ‘gran hackeo’

  1. Big-data, algoritmos e “inteligencia artificial” se han convertido en muletillas que se arrojan al aire con la delicadeza con la que se descarga el equipaje facturado en un avión.

  2. Hoy en absolutamente todos los campos del saber humano hay alguien intentando compilar datos que serán analizados por un sistema de inteligencia artificial, construido a partir de complejos algoritmos, y así innovar de forma disruptiva, crear valor, generar experiencias inmersivas y, en última instancia, hacer del mundo un mejor lugar.

  3. Pero existía una compañía que no quería hacer del mundo un mejor lugar y estaba mucho más interesada en hacer dinero, a pesar de que ello convirtiera al mundo en un lugar peor. Esa compañía se llamaba Cambridge Analytica y utilizó big-data, algoritmos e inteliencia artificial para ganar unas elecciones en Estados Unidos y el Reino Unido. Básicamente de eso va The Great Hack, el documental de Netflix estrenado hace un par de semanas en latinoamérica bajo el inexplicable título de Nada es privado.

  4. En la superficie, The Great Hack es una moraleja respecto a los peligros que el extractivismo de datos plantea a la democracia y los derechos fundamentales de los individuos. Estos peligros son reales y necesitan ser abordados seriamente (que es lo que tratamos de hacer en Derechos Digitales).

  5. Al mismo tiempo, la película mitologiza las capacidades de la industria que critica; una industria que siempre se ha sentido más cómoda trabajando desde las sombras, esquivando las preguntas relevantes y creando mitos.

  6. The Great Hack mitologiza las capacidades de la industria datoextractivista dejando que sean los (ex) empleados de Cambridge Analytica los que expliquen cómo funcionaba el negocio, sin cuestionar su relato en ningún momento. Los documentalistas les dan todo el espacio necesario para pavonear sus capacidades, su inteligencia, su influencia y su poder.

  7. Por su puesto, no todo es culpa de los documentalistas. La verdad es que no sabemos mucho respecto a cómo funciona la industria del extractivismo de datos, cuáles son realmente sus capacidades y menos cuáles son sus limitaciones. Es posible que incluso quienes trabajan para empresas como Cambridge Analytica o Facebook tampoco lo sepan. Y tras ver The Great Hack es poco lo que podemos sacar en claro.

  8. Mucho se discute en The Great Hack respecto a la capacidad de Cambridge Analytica para acumular datos: la empresa se ufana de tener 5000 datos de cada uno de los votantes estadounidenses. Muchos de esos datos se obtuvieron a través de Facebook, por medio de cuestionarios sobre cuestiones triviales que permitían crear perfiles de votantes.

  9. Poco se discute en The Great Hack respecto a la capacidad real de Cambdrige Analytica para procesar esos trillones de datos que acumula: ¿Qué tan efectivo es realmente un test para establecer mi compatibilidad con las princesas de Disney como herramienta para crear perfiles de votantes? No estoy diciendo que esto no se pueda hacer, sino al contrario: ante una premisa así de fascinante es una lástima que los documentalistas no hayan hincado el diente en este tipo de detalles, que son precisamente los que desconocemos.

  10. Pero son precisamente esas omisiones las que obligan a mirar The Great Hack con cierta distancia ahí donde los datos se convierten en un fetiche. Esa creencia de que con suficientes datos no hay nada que no se pueda saber y anticipar. La acumulación de datos como condición de la omnipotencia.

  11. En ese sentido, The Great Hack decide concentrarse mucho más en los efectos: la elección de Donnald Trump en Estados Unidos y la salida del Reino Unido de la Unión Europea. Lo que la película sugiere es que estos resultados solo fueron posibles debido a la intromisión de Cambdrige Analytica: el Big-data, los algoritmos y la “inteligencia artificial” ganaron esas elección.

  12. Así, la película hace eco de cierta retórica negacioncista de algunos sectores que consideran mucho más reconfortante pensar que la derrota de Hillary Clinton y el resultado del referéndum sobre el Brexit solo pueden ser explicados gracias a algún tipo de hackeo al sistema democrático; que el actual panorama político es un error en la Matrix.

  13. ¿Cuánta injerencia tuvo realmente Cambridge Analytica en esos resultados? Es difícil saber. Quizás mucha, quizás no tanto. Hasta puede ser que incluso no haya tenido ninguna. ¿Cómo saber realmente?

  14. Probablemente los únicos que podrían tener respuestas son los miembros de la industria. Pero son precisamente estas personas las que tienen más incentivos para no dar respuestas verídicas. Porque como alguien afirma en The Great Hack, esta es una industria que mueve trillones y se sustenta en la premisa de que los datos pueden decirnos todo lo que necesitamos saber.

  15. El riesgo radica en que el Big-data, los algoritmos y la “inteligencia artificial” se utilizan para tomar decisiones cada vez más relevantes en los distintos campos del saber humano, sin que necesariamente exista una comprensión acabada respecto a cómo cada set de datos, cada algoritmo y cada sistema de inteligencia artificial funciona ni cuál es la lógica detrás de los resultados que emite. Y si no comprendemos estas lógicas, se vuelve mucho más difícil estimar cuándo los resultados son correctos y cuándo no.

  16. Esta incapacidad para comprender la tecnología y sus limitaciones, la imposibilidad de detectar sus errores y sesgos, puede dar pie a una peligrosa cualidad performática, donde las instituciones sociales actúan acorde a a la información entregada por el algoritmo, a pesar de que esta pueda ser errada. Caldo de cultivo para todo tipo de arbitrariedades, discriminaciones e injusticias.

  17. La única vía para evitar esto es exigir mayor transparencia respecto a las reales capacidades de la tecnología, que nos permitan entender realmente qué es lo que pueden y no pueden hacer.

  18. En ese sentido, The Great Hack es una oportunidad perdida.

La promesa de internet y la estatal de telecomunicaciones

El 19 de julio, el presidente de México anunciaba en su conferencia de prensa matutina que su empresa de telecomunicaciones estaba lista. Además de revelar que dicha empresa operaría con la infraestructura de la Comisión Federal de Electricidad (CFE), incluyendo los 43,276 kilómetros de fibra óptica reportados en su plan de negocios 2018-2022, indicó que: «ya se aprobó por el Consejo de Administración de la CFE y se está haciendo la solicitud de concesión para poder dar el servicio sin fines de lucro a todos los que viven en las comunidades más apartadas del país». 

Sin embargo, aún está pendiente la licitación de la concesión -otorgada por el Instituto Federal de Telecomunicaciones (IFT)- que definirá si la empresa operará de forma comercial o pública. Este matiz es sumamente importante, ya que esta concesión no solamente tendrá una vigencia de 30 años, sino que además determinará si efectivamente CFE Telecomunicaciones e Internet para Todos podrá cumplir con la generación de riqueza que se esperaría obtener al ser filial de la CFE: una empresa económicamente productiva, aunque controversial ante las constantes denuncias presentadas el año pasado ante la Procuraduría Federal del Consumidor (Profeco) por cobros injustificados.

De ser otorgada dicha licitación, es claro que la empresa gubernamental de telecomunicaciones tendrá preferencias que romperán la “neutralidad competitiva” del entorno de las empresas de telecomunicaciones en México. Ya que -además de gozar con un régimen especial por su relación con la CFE- esta iniciativa abrirá la posibilidad al Estado de entrar en varios conflictos de interés al pasar de ser un regulador (tanto del mercado como de la competencia) a ser un operador con privilegios que le permitirían un pase libre para rediseñar regulaciones a la medida de sus necesidades, por tratarse de una empresa productiva del Estado.

Ahora bien, a pesar de que el Presidente anunció que esta empresa buscará estar a la altura de las otras proveedoras de telecomunicaciones que operan a nivel nacional, su misión principal será la de llevar servicios de internet -sin fines de lucro- a las zonas marginalizadas del país para habilitar “centros integradores de servicios” en los que se contará la presencia del Banco de Bienestar (actualmente Bansefi), que buscarán llevar los programas de asistencia social directamente a las personas beneficiarias de las comunidades rurales e indígenas a través de la establecido por la Ley FinTech en cuanto a “capacitación, asistencia técnica e incremento de la productividad de tecnología para los integrantes del sector de ahorro y crédito popular.”

Por otro lado, es importante señalar que en lo poco que se ha compartido respecto a los detalles de operación, habilitación y licitación de CFE Telecomunicaciones e Internet para Todos no hay claridad respecto a el impacto que esta empresa tendrá en el uso del espectro radioeléctrico. Esto nos remite a la serie de trágicos eventos que hasta ahora superados por las empresas pequeñas que han cubierto las necesidades de telecomunicación anteriormente ignoradas por el Estado: ¿será la habilitación de esta empresa estatal otro reto para la supervivencia de estas iniciativas? ¿cómo se generarán parámetros que permitan el desarrollo de estos pequeños operadores y a la vez otorguen los beneficios que podría solicitar la empresa anunciada por el presidente?


Nuevos retos…

Además de cumplir con los compromisos establecidos en el Plan Nacional de Desarrollo 2019-2024, los requisitos que determine el IFT y las regulaciones definidas por la Secretaría de Comunicaciones y Transportes; esta empresa deberá alinearse con las características de una empresa productiva del Estado que, a diferencia de una paraestatal, deberá generar riqueza, ser transparente y competitiva a nivel no sólo nacional sino también internacional.

Aunado a esto, con la puesta en marcha del “apagón” del programa México Conectado que operó durante el sexenio de Enrique Peña Nieto y brindó 101 puntos de conexión a internet en espacios públicos, han surgido otras necesidades en espacios que actualmente enfrentan problemas graves de acceso a internet afectando las operaciones de espacios como la Universidad Nacional Autónoma de México. Como señaló Ingrid Motta en su columna para etcétera

Es desconcertante que el 19 de julio se anuncie CFE Telecomunicaciones e Internet para Todos como empresa para conectar al país y casi al mismo tiempo se confirme la desconexión de la máxima casa de estudios y centenares de otros sitios, por no contar un plan estratégico para la conectividad, ya sin mencionar los muchos otros temas que el actual gobierno viene atrasando por falta de objetividad y conocimiento de las necesidades reales de los mexicanos.

Además de lo señalado anteriormente es importante tomar en cuenta que dentro de los temas pendientes de la actual administración están las políticas públicas en materia de derechos humanos y tecnología en México. Si bien aún no es clara la Estrategia Nacional de Ciberseguridad que operará en este sexenio, tampoco existe algún referente que nos permita tener certeza de los códigos que regirán tanto el manejo de los datos pasen por la infraestructura de CFE Telecomunicaciones e Internet para Todos como el poder que este nuevo actor tendrá en el ecosistema de internet en el país.

En este tenor, también queda la duda sobre cómo se regulará el poder que ahora tendrá el Estado al pasar convertirse también en un operador con capacidad para competir en el mercado de las telecomunicaciones: ¿será que aún está por revelarse la creación de un ente independiente que permita que esto sea auditado y controlado? 

Lo único que sigue quedando claro es un profundo desinterés por establecer políticas que permitan brindar tranquilidad o certeza respecto a las garantías que ofrece el Estado para hacer frente a los retos actuales para los derechos humanos en el entorno digital del país, lo cual no es menor cuando se avecina la implementación de nuevos desarrollos que darán un giro a la forma en que hasta ahora han operado algunas tecnologías.

Si en México no estamos a la altura de regulaciones que protejan los derechos humanos, supervisen las capacidades (y actividades) de las empresas de telecomunicaciones y garanticen el acceso a internet: ¿con qué antecedentes enfrentaremos los retos que impacten en el país cuando las nuevas tecnologías y redes 5G vengan a ofrecer lo que nuestras políticas públicas no contemplan?

La concentración del poder para censurar en internet

En los últimos años, las discusiones sobre el rol de las plataformas de internet en la difusión de desinformación, la censura de discursos legítimos y la amplificación de expresiones de odio y violencia han aumentado notablemente. En este contexto, aunado a una fuerte tensión política, se han hecho llamados frecuentes a modificar parte de la legislación de Estados Unidos: país que rige a esas plataformas. 

Particularmente, se ha buscado cambiar el esquema fijado por la sección 230 de la Communications Decency Act. Esta disposición  sienta las bases para una regla general (aunque con excepciones) en que las plataformas de internet no tienen responsabilidad sobre el contenido provisto por terceros, el ánimo por reformas se suma a tendencias globales por provocar que empresas como Google, Facebook o Twitter sean más activas; filtrando o removiendo contenidos nocivos, y a la vez asumiendo responsabilidad por quitar espacio a contenidos legales.

Sin embargo, independientemente de que –a menudo– hay fines loables detrás de estas iniciativas, los posibles efectos sobre la libertad expresión y de información son significativos; ya que, en el particular caso del §230 CDA, tienen consecuencias a nivel global.

En términos simples, el §230(c) CDA distingue a las plataformas de internet de los editores de medios o proveedores de contenidos -cuando la información es provista por terceros- con el fin de eximirles de responsabilidad sobre esos contenidos. Además, les exime de responsabilidad por remover o bloquear de buena fe contenidos obscenos o violentos, aún si son legales: como ocurre con los términos y condiciones de uso. Es habitual que se considere a esta regla una de las piedras angulares (al menos desde el punto de vista normativo) del crecimiento de los gigantes de internet en los Estados Unidos.

La más concreta propuesta de reforma provino del Senado estadounidense en junio de 2019, en un proyecto de ley que busca quitar el “sesgo” de las grandes plataformas –en particular, redes sociales– que supuestamente afectaría a publicaciones afines a opiniones de la extrema derecha política de ese país, percepción compartida por otro troll desde la Casa Blanca. Aunque la reacción transversal negativa a la propuesta fue inmediata, las alertas sobre el riesgo que corre el §230 se encendieron de inmediato: la realidad de las malas propuestas sobre responsabilidad de intermediarios se trasladaron de manera tangible al país que alberga a las mayores empresas de tecnología.

¿Por qué esto debería importarnos, en contextos tan distintos al primer mundo? En primer lugar, por el efecto que podrían tener reglas extranjeras en nuestra propia regulación sobre lo que ocurre en internet, considerando que la reacción a la desinformación, la violencia en línea o la polarización en época electoral son también –con matices propios– problemas en nuestros países. Las malas experiencias en países como Venezuela u Honduras muestran el rol que se pretende desde las plataformas, de manera más que dañina para la libertad de expresión, mientras que otras iniciativas de regulación han terminado excluidas.

En segundo lugar, porque la ley sí tiene impacto sobre las reglas propias de las plataformas. Las normas impuestas por los gigantes de internet para sus usuarias, incluyendo aquellas que alteran la circulación de información y expresión, varían a su vez en razón de las normas a las que se sujetan esas plataformas en los países donde se erigen, o bien donde deciden domiciliarse para reducir su riesgo de responsabilidad. Si con el fin de cuidar sus ganancias cambian sus términos y condiciones de uso, ese impacto será también sufrido en otras latitudes; ya queel poder de las grandes plataformas es tal, que las condiciones de interacción varían a nivel global a partir de las decisiones que resulten lucrativas para reducidos grupos de personas en Silicon Valley.

La implementación de reglas que reflejen principios de justicia en el manejo de contenidos, incluyendo a su vez condiciones de transparencia y rendición de cuentas sobre el retiro -muy especialmente cuando median mecanismos automatizados de detección o bloqueo- son algunas medidas mínimas que deben adoptar esas plataformas. Pero quizás más importante, las reglas mismas requieren una revisión concienzuda, incluyendo la participación de actores de la sociedad civil global.

Es urgente terminar las malas iniciativas de criminalización excesiva de discurso y la radicación de la censura en plataformas. A nivel local es necesario poner al día nuestros anquilosados sistemas jurídicos y generar condiciones normativas para el discurso libre, donde se esclarezcan tanto las condiciones de exención de responsabilidad como los mecanismos y requisitos para forzar el retiro, el bloqueo, o la reposición de información. Más allá de aclarar cómo deberían ser las cosas en escenarios hipotéticos de las plataformas actuales, estas medidas permitirían fijar cómo pueden crecer las plataformas del futuro. Las normativas no deben plantearse para reaccionar a empresas específicas, respecto de las cuales persisten problemas más profundos y amplios que los relativos al contenido; ya que si bien quizás Facebook, Google o Twitter no son escenarios ideales para la discusión política o social que necesitamos, son espacios de intercambio vigente que evidencian la necesidad de establecer condiciones normativas para organizar nuestras propias alternativas.