Periodismo y vigilancia en México: sin garantías para la libertad de expresión

El 29 de octubre, la aplicación de mensajería WhatsApp, propiedad de Facebook, tomó acciones legales contra NSO Group, la empresa de tecnología de vigilancia que desarrolló el malware espía “Pegasus” aquirido por el Gobierno mexicano, cuyo uso ha sido estudiado y denunciado desde 2016 por ONGs nacionales como R3D, SocialTIC y Artículo 19,  en el caso conocido como #GobienoEspía.

En mayo de este año, el equipo de seguridad de WhatsApp detectó una falla en la aplicación, que permitía inyectar spyware comercial en celulares mediante una simple llamada. Junto con desarrollar una solución al problema, se realizó una investigación que concluyó que la vulnerabilidad había había sido explotada por NSO Group, que también utiliza el nombre Q Cyber Technologies.

La preocupante novedad que plantea esta forma de ataque es que, al ejecutarse mediante un llamado, no requiere que la víctima habilite la instalación del software malicioso pinchando algún hipervínculo, lo que dificulta la obtención de evidencia y la toma de medidas precautorias para evitar, documentar y denunciar intentos de infección.

Más de 1400 casos fueron identificados y al menos 100 contra defensores de derechos humanos. En México, un número importante de infecciones ocurrieron durante abril y mayo de 2019, coincidiendo con las revelación del caso de Griselda Triana, viuda del periodista Javier Valdez y víctima del espionaje a manos de agentes estatales, pues según NSO Group, solo venden sus productos a gobiernos.

Vigilancia como violencia

Actualmente, México es el país más peligroso del mundo para ejercer el periodismo, lo que naturalmente pone en riesgo la salud de la libertad de expresión y, con ello, de la democracia misma del país: incapaz para garantizar la seguridad de sus periodistas y, consecuentemente,  incapaz de garantizar el bienestar y la autonomía de sus habitantes.La violencia contra las y los periodistas, que entre otras formas se expresa mediante el abuso de la tecnología de vigilancia por parte del gobierno mexicano, escala gracias al clima de impunidad que hace oídos sordos frente a las denuncias realizadas por comunicadoras, activistas y personas defensoras de derechos humanos, algunas de las cuales han perdido la vida o han tenido que migrar para preservarla.

Llama la atención de que, a pesar de los logros recientes de las ONGs que han presentado denuncias a NSO Group en cortes internacionales, la respuesta por parte del Gobierno no es más que una serie de promesas, vacías que denotan un claro desconocimiento entre quienes lideran el país sobre los abuso de las tecnologías en México.

Por otro lado, lejos de perseguir los abusos tecnológicamente posibilitados, la milicia nacional parece premiar a sus responsables con ascensos laborales. La misma milicia que hoy participa de la implementación de la Guardia Nacional, una estrategia para militarizar las calles del país como respuesta a la presencia del narcotráfico y que en su más reciente muestra de poder mostró ser completamente ineficiente.

Esto pareciera indicar que, mientras el presidente declara que su administración no participa en el uso ilegítimo de las tecnologías y anuncia “compromisos”, hay personas con poder actuando desde diferentes instancias estatales para tomar ventaja de los puntos ciegos de una administración fuertemente criticada por su falta de un liderazgo estratégico, incapaz de conocer y controlar el alcance de las acciones que sus subordinados realizan con el poder que se les otorgado para “preservar la seguridad en el país”. Tal vez el problema acá sea que nadie les ha aclarado que no se trata de su seguridad propia, sino de la seguridad de la mayoría: quienes necesitan del periodismo libre para producir decisiones informadas y tener los elementos necesarios para cuestionar al Estado y sus representantes cuando no cumplan sus obligaciones fundamentales.

Lo que queda pendiente

Desde 2016 la participación de organizaciones no gubernamentales nacionales e internacionales para frenar el abuso de la tecnología se ha articulado en redes para presentar casos e informes conjuntos, con el fin de denunciar los abusos que diferentes gobiernos hacen de las tecnologías para vigilar a quienes expresan posturas críticas a sus administraciones. Los esfuerzos articulados de personas con experiencia legal, en comunicaciones, en activismo, en defensa de derechos humanos y con trayectorias multidisciplinarias en América Latina y México han sido potentes y constantes.

Hace falta que gobiernos, como el mexicano, asuman la participación en espacios de diálogo que permitan articular las experiencias y trayectorias de estos grupos a las propuestas administrativas y de desarrollo en las que quieran involucrar despliegues masivos de tecnologías, que se plasmen en acciones claras y concretas. Las declaraciones y compromisos realizados por el presidente se vuelven palabras vacías si no existen políticas públicas que las respalden. Es la única forma de defender la democracia participativa en el país, pero también asegurar que los derechos humanos sean preservados y contemplados dentro de las estrategias de seguridad nacional.

Inquietudes relacionadas con las tecnologías en el contexto de protestas en Chile

PROBLEMAS DE CONEXIÓN

¿Las empresas o el gobierno están desconectando internet?

Hasta el momento, ninguna evidencia comprobable o declaración sugiere que sea el caso, incluso la Subsecretaría de Telecomunicaciones (Subtel) lo desmintió explícitamente y aclaró que están monitoreando la disponibilidad de los servicios de comunicaciones directamente con las empresas proveedoras.

Es normal que en ciertos puntos donde hay muchas personas conectadas a la red celular (siendo las manifestaciones masivas el ejemplo más claro) la capacidad de la red se vea saturada y algunos usuarios comiencen a ver su servicio degradado o incluso interrumpido, especialmente si gran cantidad de personas en la zona usan servicios que demanden alto ancho de banda, por ejemplo la transmisión de video.

Si vas a una marcha, puedes acordar con otras personas estar preparadas para comunicarse aún si se satura la red. Aquí recomendamos algunas aplicaciones de mensajería que pueden ser útiles, aunque también fallan.

¿Pueden estar desconectando el servicio de internet residencial?

A pesar de que se han recibido quejas por mal funcionamiento del servicio de Internet en zonas específicas, los proveedores correspondiente las han reportado como fallas aisladas que han sido o serán atendidas en la medida de las posibilidades, resultando en episodios puntuales no atribuibles necesariamente a cortes intencionales de servicio en el marco de la situación actual. De todos modos, es importante que la ciudadanía esté atenta a posibles interrupciones de servicio para documentar y reportar cualquier incidente futuro.

AFECTACIÓN DE REDES SOCIALES Y OTROS SERVICIOS

¿Están censurando tendencias en Twitter?

Se han reportado algunos casos de problemas en la visualización de tendencias. Twitter actúa frente a publicaciones o actividad dentro de la plataforma que pueda estar violando sus normas comunitarias. Sobre estas no tenemos conocimiento concreto, pero podemos decir que en ocasiones, justo en los primeros minutos en que una tendencia comienza a viralizarse tiende a no aparecer en varias de las páginas de Twitter hasta pasado algún rato. Este es el funcionamiento normal del algoritmo, que debe comprobar no estar respondiendo a una actividad inusual o artificial, promoviendo palabras o expresiones contrarias a sus términos de servicio. Más información en la sección ¿Existen reglas para las tendencias? de Twitter.

De todos modos, estamos buscando más información al respecto.

¿Se están bloqueando páginas y/o servicios web?

Hemos recibido reportes de potenciales bloqueos a sitios web, especialmente basados en estos resultados producto del uso de ooniprobe, herramienta que recomendamos en días previos para medir interferencias a la red. Si bien aparecen algunas anomalías en las pruebas descritas en los resultados de ooniprobe, estos parecen ser poco consistentes con bloqueos definidos por proveedor, zona geográfica o sitios web particulares. Los resultados apuntan a intermitencias o fluctuaciones de servicio al momento de realizar las pruebas. Seguimos recomendando el uso de herramientas como ooniprobe para medir potenciales interferencias, sin embargo aclaramos que en caso de bloqueos estructurados estos serán evidentes cuando varios usuarios que comparten el mismo criterio de bloqueo (geográfico, de proveedor o de servicio consultado) carguen sus resultados y puedan ser declarados una anomalía respecto a los datos usuales de la red (sin bloqueos) pero a su vez experimentado de forma masiva.

En cuanto a Twitter específicamente, hubo una caída parcial del servicio a nivel global el día martes 22 de octubre, que afectó a varios usuarios en Chile como fue reportado en redes sociales. Esta falla no apunta a ningún hecho concreto dentro del país dado que tuvo alcance global y fue prontamente resuelta.

CIERRE DE CUENTAS EN REDES SOCIALES

¿Por qué están cerrando cuentas en Facebook e Instagram?

Esta pregunta puede tener varias interpretaciones dependiendo de cada caso:

Algunos de estos servicios emplean controles de seguridad para proteger las cuentas de usuario que funcionan adecuadamente en situaciones normales pero en escenarios de conflictividad social, cuando los patrones de publicación de usuarios cambian radicalmente pueden resultar contraproducentes y pueden terminar en la suspensión de cuentas de usuarios por actividad inusual, por ejemplo cuando se publica en un ritmo nulo o muy bajo y súbitamente se incrementa la frecuencia de publicación.

En escenarios de polarización es usual que grupos de usuarios denuncien publicaciones incómodas como contenido que incita al odio, que puede herir la sensibilidad de los que se exponen al contenido (esto aplica especialmente a imágenes de heridos, fallecidos, hechos violentos, etc.) u otras violaciones a los términos de servicio de la plataforma correspondiente. Por otra parte, los mismos algoritmos usados por las plataformas para curar contenidos pueden detectar legítima o erróneamente alguna de estas conductas y activar procesos de suspensión o cierre de cuentas de forma automatizada.

En estos casos recomendamos:

  • Revisar los Términos de servicio por plataforma para consultar qué podemos y no publicar.
  • Documentar con capturas de pantalla, tomar horas de incidentes, etc., para facilitar cualquier trámite de apelación o de reactivación de cuentas.
  • En los casos que aplique revisar en comunicaciones a los administradores de cuentas las razones por las cuales algún contenido o cuenta fue afectado
  • En casos en donde existen anomalías con el servicio o la conexión, esperar e intentar conectarse después de algunos minutos antes de publicar que nuestras cuentas o contenidos particulares fueron afectados.

Puedes encontrar más información al respecto en este documento que hemos preparado.

Así también, Fundación Datos Protegidos está recopilando información sobre este tipo de casos. Puedes revisar su iniciativa aquí.

POSIBLES INTERVENCIONES DE CELULARES

¿Podemos saber si nuestros teléfonos celulares han sido intervenidos marcando *#62#?

La capacidad de desvíos de llamada existe desde hace muchos años y todos los teléfonos actuales los soportan, aunque ciertamente esta funcionalidad puede ser abusada con fines de vigilancia, recomendamos entender bien cómo funcionan estos desvíos para no terminar desconfigurando nuestros equipos de forma adversa. Generalmente esta configuración es hecha por nuestro operador celular para activar los buzones de voz, por lo que al marcar códigos como *#62# es normal que aparezcan números diferentes al nuestro. En este caso vale la pena consultar con otros usuarios del mismo proveedor para ver si comparten configuraciones similares. Por ejemplo, Si nuestro número es «+569 1234 5678» y lo tenemos contratado con Claro Chile, es normal que aparezca como número de desvío de llamadas «+56920012345678» que es muy similar al propio con algunos dígitos extra, sin embargo no representa ningún problema en términos de vigilancia. Es importante resaltar que estas configuraciones varían por operador.

Otro aspecto a verificar es qué tipo de desvíos están activos, existen cuatro tipos de desvíos posibles

1) Cuando nuestro número cae ocupado

2) Cuando no contestamos una llamada

3) Cuando no estamos disponibles (si no tenemos cobertura o está apagado el teléfono)

4) Siempre. Este último desvío en general no debería estar activado. En caso contrario vale la pena documentar y pedir ayuda, sin embargo, no lo hemos visto hasta el momento por lo que lo consideramos improbable.

APOYOS LEGALES

En estado de emergencia, ¿La ley permite grabar la actividad de un uniformado (militar o policía)?

Siempre es legal grabar a un Carabinero o militar que se encuentra realizando un operativo o una detención. Sea en espacios públicos o privados.  Ese derecho no se restringe por el Estado de E mergencia y ejercerlo será crucial para el futuro proceso de verdad y justicia. No hay ninguna prohibición explícita y está cubierto por la libertad de expresión (y derecho a defensa, eventualmente).

Si estás grabando en video una detención policial o una violacion de DDHH grita el día y hora, lugar donde estás, tu nombre y ojalá el de la persona que está siendo agredida o detenida. Así no se puede sacar de contexto el video a futuro y sirve como prueba. Hemos preparado este post explicándolo mejor.

¿Dónde puedo denunciar si soy víctima o testigo de una violación a los derechos humanos durante el Estado de Emergencia?

Varias organizaciones de la sociedad civil se han articulado para recopilar, curar, preservar, verificar e investigar evidencia visual relacionada con violaciones de derechos humanos y otros crímenes cometidos durante el Estado de Emergencia. Puedes seguirles en Twitter @Testigoenlinea o llenar el formulario habilitado en su sitio web testigoenlinea.cl/

El Instituto Nacional de Derechos Humanos INDH ha habilitado este formulario para recibir denuncias sobre vulneraciones de derechos humanos en el marco del Estado de Emergencia.

Si quieres denunciar ante la justicia alguna vulneración a los derechos humanos durante el Estado de Emergencia, la Corporación Fundamental tiene este instructivo para presentar recursos de amparo.

También puedes comunicarte en Santiago con:

  • Abofem, Natalia Bravo Correo: Nataliabravop@gmail.com + 56 9 6587 0284.
  • Defensoría Jurídica Universidad de Chile reciben denuncias al correo cdh@derecho.uchile.cl o al teléfono +569 36203403.
  • Pikete Jurídico FECH: Whatsapp DE DENUNCIA FECH +569 3620 3403, ABOGADO, Pikete: Joaquín Astorga Norambuena + 56 9 6433 7507, formulario.

¿Puedo denunciar y recibir apoyo si he sido víctima de violencia sexual durante el Estado de Emergencia?

  • El Colegio de Matronas mantiene una línea telefónica de orientación de violencia sexual  para mujeres que han sido víctimas de abuso durante el estado de emergencia. Prestan asesoría, apoyo y orientación para denunciar. El número es +56967136071
  • La organización Amaranta, con sede en Concepción, abrió un canal de apoyo y recopilación de denuncias a mujeres cis o transgénero que han sufrido violencia, abuso o acoso sexual durante el estado de emergencia. En Twitter @AmarantaOng correo voces@amarantas.org

¿Es posible restaurar nuestras cuentas o contenidos removidos de plataformas de redes sociales?

Los motivos no siempre son claros, así como tampoco el mecanismo que detonó la alerta de moderación, que puede ser automatizada – el sistema detecta contenido potencialmente infractor y levanta la alerta sin mediación humana- o producto de un reporte realizado por otro usuario o usuaria de la plataforma.

Junto con ello, es posible que el contenido que hayas publicado entre en conflicto con los términos de servicio de la plataforma. Un ejemplo de ello es el contenido que presenta violencia gráfica. Evidentemente, en un contexto de protesta y violencia social como el que estamos viviendo, no es inusual que la documentación del uso excesivo de la fuerza policial o militar adquiera una forma particularmente explícita y delicada, lo que en ningún caso resta su valor, sino al contrario.

La fundación Datos Protegidos tiene un formulario para apelar en caso de bloqueo de contenido en redes sociales: Numerosos casos de censura de contenidos en varias plataformas de RRSS. Desde la desaparición de contenidos al bloqueo o cierre de cuentas. Puedes denunciar tu caso completando este formulario.

Las fiscalías regionales han dispuesto correos electrónicos para recibir denuncias sobre actos delictivos.

OTRAS INQUIETUDES

Puedes escribirnos a prensa@derechosdigitales.org

Apagones de internet y censura en América Latina

Las casi dos semanas de protestas en Ecuador contra las medidas de austeridad del presidente Lenín Moreno, que culminaron hace apenas unos días con la derogación del decreto que diera origen a las protestas, fueron también el escenario de una serie de incidentes de disrupción al libre flujo de las comunicaciones y la información en internet. Según reportes de la organización Usuarios Digitales, servicios como WhatsApp y Twitter presentaron fallas en la descarga de videos e imágenes. Esta información fue reforzada a través del reporte publicado por la organización Netblocks, que señaló que los servidores de imágenes y contenido (CDN) de Facebook y WhatsApp estuvieron inaccesibles a través del operador de telecomunicaciones estatal -Corporación Nacional de Telecomunicaciones (CNT)- desde la noche del 6 de octubre, en momentos durante los cuales las redes sociales veían aparecer imágenes y videos de la represión de las protestas y de la muerte de uno de los manifestantes. 

La práctica de restringir el flujo de discurso y contenido multimedia durante protestas, especialmente en contextos de represión contra manifestaciones con carácter social y político, se ha presentado en la región en casos muy puntuales pero también sumamente preocupantes como son Venezuela y Nicaragua. En Venezuela, los bloqueos intermitentes de redes sociales se han vuelto una práctica constante -tal como ha reportado incansablemente la organización Venezuela Inteligente mediante su proyecto VESinFiltro– en combinación con bloqueos permanentes a medios de comunicación específicos:

Además de bloqueos indefinidos a medios hemos reportado el uso de bloqueos cortos y tácticos a algunas plataformas claves como Twitter, Youtube, Instagram, Periscope y también sitios como el de CNN en Español. (…) Mediante el monitoreo de internet que realiza VE sin Filtro, conocemos de más de 20 medios de comunicación bloqueados de forma indefinida al momento de esta publicación.

Andrés Azpúrua para VESinFiltro

En Nicaragua, según Netblocks, los cortes intermitentes de internet estuvieron presentes durante las protestas de 2018 y 2019 mediante “apagones” completos del internet en regiones específicas, que muestran una “fuerte correlación” entre los momentos de las disrupciones y apagones de la red y los momentos en que tenía lugar la represión de civiles. Lo anterior sugiere que estas medidas buscan ahogar el flujo de información durante los momentos clave de las protestas. Cabe recordar que situaciones similares se han presentado también en Venezuela, siendo quizá la más memorable el “apagón” de internet en el estado Táchira durante las protestas de 2014, que duró más de 36 horas y tuvo lugar en la zona más álgida de protestas durante el momento de mayor represión.

En todos los casos mencionados, los bloqueos y restricciones en el acceso a internet se han visto acompañados de otras medidas y ataques contra periodistas, defensores de derechos humanos y medios de comunicación tradicionales, marcando el debilitamiento del ecosistema de la información y la comunicación y -como consecuencia inevitable- el socavamiento del entorno democrático. En este contexto, el uso de las redes sociales como herramienta para la protesta y la participación política cobra particular relevancia al convertirse en una avenida alternativa para el ejercicio de las libertades civiles y políticas.

Aunado a esto, según un reporte de la Global Network Initiative, un país con conectividad alta puede perder al menos 1,9% de su PBI por cada día que los servicios de internet se ven afectados, un costo que equivale a 1% en el caso de un país de conectividad intermedia y 0,4% en un país de conectividad baja. Es decir, las disrupciones de la conectividad no afectan solo los derechos civiles y políticos de los ciudadanos de un país, sino que minan los derechos económicos y sociales colectivos, una preocupación especialmente grave en países en vías de desarrollo y en democracias frágiles y emergentes. Según la herramienta COST, desarrollada por Netblocks para medir el costo financiero de los apagones y bloqueos a internet, Venezuela ha perdido en total USD $402.803.069 a causa de los apagones, mientras que Ecuador ha dejado de percibir USD $82,146,854 y Nicaragua USD $4,724,285.

Ya en 2016, la Asamblea General de la Organización de Naciones Unidas declaró que las medidas intencionales para evitar o interrumpir el acceso o la diseminación de información en línea constituye una violación de las normas internacionales en materia de derechos humanos. Asimismo, la OEA ha repudiado de manera específica “los apagones y disrupciones arbitrarias para restringir el acceso a las redes de telecomunicaciones e internet”. 

Queda claro que este tipo de medidas dejan de manifiesto una intención de restringir la libertad de expresión e información de manera desproporcionada e ilegítima, una decisión que es por completo incompatible con el debido funcionamiento de una democracia.

Vigilancia, control social e inequidad: la tecnología refuerza vulnerabilidades estructurales en América Latina

Mientras la brecha entre ricos y pobres se incrementa en el mundo, América Latina sigue siendo la región donde la riqueza se distribuye de forma más desigual. Según la Comisión Económica para América Latina y el Caribe (CEPAL), existen marcados desequilibrios entre los distintos niveles socioeconómicos en aspectos como la esperanza de vida, la mortalidad infantil, la tasa de analfabetismo y el acceso a agua al interior de las viviendas. Así, la altísima inequidad que asola al continente influye directamente en el bienestar de sus habitantes, sus posibilidades de desarrollo y en el ejercicio de sus derechos fundamentales.

La implementación de programas que condicionan el acceso a servicios básicos a la vigilancia estatal y privada ejemplifican de manera clara no solamente el hecho de que las tecnologías no son neutras, sino que impactan de forma diferenciada a distintos grupos humanos, de acuerdo a su género, al color de su piel y a su clase social. 

Aprovechándose de las deficiencias de nuestros sistemas legales y explotando sus áreas grises, la industria ha impulsado agresivamente un tecnosolucionismo chauvinista, abrazado irresponsablemente por una clase política con ganas de figurar a la sombra de una idea tristemente reducida de progreso. Así, el negocio se transforma en la promesa de un beneficio acotado, que se consigue a costa de los derechos de quienes no tienen más opción que someterse al escrutinio constante, a la vigilancia, al control, a la discriminación. Hablar de desigualdad en América Latina es hablar de la ponderación que se hace entre los derechos de quienes pueden acceder a otras posibilidades y quienes no. 

La inequidad se esconde hoy tras una serie de muletillas de significado impreciso – big data, decisiones algorítmicas, inteligencia artificial – que en nombre de la eficiencia intentan naturalizar los sesgos bajo los cuales operan, haciendo inescrutables los sistemas que los procesan y la forma en que son usados para regular el acceso a programas sociales, el uso del transporte público o la asistencia a eventos populares.

Ejemplos no faltan. En Argentina, la provincia de Salta firmó en 2017 un acuerdo con Microsoft para utilizar inteligencia artificial en la prevención del embarazo adolescente y la deserción escolar. Según la empresa, a partir de datos recolectados por medio de encuestas a sectores vulnerables de la sociedad “los algoritmos inteligentes permiten identificar características en las personas que podrían derivar en alguno de estos problemas y advierten al gobierno para que puedan trabajar en la prevención de los mismos”.  Los datos recabados son procesados por servidores de Microsoft distribuidos alrededor del mundo y el resultado de ese procesamiento apunta específicamente a las adolescentes identificadas como personas bajo riesgo, afectando no solamente su privacidad, sino también su autonomía y generando amplio potencial de discriminación. Se trata, finalmente, de un mecanismo dirigido de control sobre personas en situación de vulnerabilidad que son expuestas a intervenciones sin su consentimiento, reforzando la vulnerabilidad de las personas que son privadas incluso de la posibilidad para decidir sobre esas intervenciones.

Aunque se argumente que los datos utilizados para la proyección son entregados voluntariamente, es cuestionable la idea de que las niñas y adolescentes afectadas por estas medidas –o sus responsables–  puedan prestar un consentimiento activo y realmente consciente sobre las implicaciones de entregar información específica sobre sus hábitos sexuales y potencial embarazo. Cabe señalar que Salta fue la última provincia argentina que dejó de impartir educación religiosa en las escuelas públicas después de un fallo de la Corte Suprema, reconociendo la existencia de violaciones a los derechos a la igualdad y a la no discriminación, así como a la privacidad de los ciudadanos y ciudadanas. El uso tecnológico descrito no es sino expresión de problemas más amplios para comprender los ámbitos de autonomía y privacidad de las personas, con un propósito político.

En Brasil, el Ministerio de Ciudadanía firmó un acuerdo con el gobierno de Salta y Microsoft para implementar un programa similar. En este caso, además de la prevención del embarazo adolescente y la deserción escolar, se pretende anticipar cuestiones como la desnutrición y enfermedades en la primera infancia. El país sería el quinto en la región en compartir la experiencia argentina. Además de dudas sobre el consentimiento informado y el acceso del Estado a informaciones sensibles sobre poblaciones vulnerables, quedan sin respuesta algunas preguntas sobre qué otros usos u previsiones se pueden extraer de esos datos y cuáles los límites para su tratamiento por parte de Microsoft y los gobiernos involucrados en el programa.

Por su parte, Chile inició en 2019 la implantación piloto de una herramienta que busca detectar a niños, niñas y adolescentes en situación de riesgo. Según el Ministerio de Desarrollo Social y Familia, Alerta Niñez es un instrumento preventivo que “identifica el conjunto de condiciones individuales, familiares, del entorno y de los pares de los niños y niñas y adolescentes, que tienden a presentarse cuando existe un riesgo de vulneración de derechos de niños, niñas y adolescentes”. El sistema se basa en el procesamiento estadístico de grandes cantidades de datos provenientes de organismos públicos para calificar a la población menor de 18 años, ordenando a las personas según su probabilidad de sufrir vulneraciones.

Aunque en este caso el sistema haya sido desarrollado por una universidad privada local, nuevamente se trata de una iniciativa invasiva de recolección de datos sensibles de menores de edad que conlleva gran riesgo de profundizar situaciones de prejuicio y estigmatización hacia grupos históricamente vulnerables. Además, estos procesos implican la transferencia de datos personales a terceros y la posibilidad de que esos datos sean usados para fines distintos a los que permitieron su recolección; sin bases legales ni garantías de que la información generada no será utilizada a futuro con otros propósitos, como iniciativas de policiamiento predictivo por ejemplo.

Dado que cuestiones como embarazo adolescente, evasión escolar y desnutrición son problemas estructurales en la región, es extremadamente cuestionable que las políticas asociadas sean mediadas o condicionadas a la recolección de grandes cantidades de datos. Que no exista a su vez una preocupación por los derechos de niños, niñas y adolescentes, concordante con instrumentos vigentes en toda la región, da cuenta de un problema más profundo.

Vigilancia, control y exclusión

En Chile, la implementación de sistemas de identificación biométrica en el sistema nacional de salud preocupa por las posibles limitaciones que podría generar a poblaciones marginadas y empobrecidas -e incluso a personas mayores, por la pérdida de legibilidad en rasgos como las huellas digitales- para su acceso a servicios básicos de salud.

La implementación del llamado “Sistema Biométrico para la Seguridad Alimentaria” en Venezuela, a través del cual se exige a los ciudadanos la verificación de su identidad a través de la huella digital para adquirir productos categorizados como de “primera necesidad” (productos alimentarios, de higiene y medicinas), ha generado denuncias por discriminación hacia personas extranjeras -documentadas e indocumentadas- y personas transgénero. La situación es particularmente preocupante dada la situación de escasez de bienes esenciales y la crisis humanitaria que se agrava en el país, principalmente afectando los derechos a la alimentación y salud de las poblaciones más vulnerables. 

En São Paulo se implementó hace dos años el uso de cámaras de reconocimiento facial en el sistema de transporte público, con la justificación de que ayudarían a evitar el fraude en el uso de beneficios sociales asociados al transporte, como descuentos a adultos mayores, estudiantes y personas con discapacidad. En estos dos años el sistema ha bloqueado más de 300 mil tarjetas supuestamente usadas indebidamente, o sea, no por sus titulares. Por otra parte, la municipalidad ha anunciado la suspensión total las tarjetas anónimas y ha implementado medidas para obligar el registro de las tarjetas con datos de identificación únicos y residenciales. Este tipo de medida puede impactar en el acceso de personas no registradas –como personas sin techo e inmigrantes– al servicio. En una ciudad de las dimensiones de São Paulo, las tarjetas que permiten la integración con descuento a distintos tipos de transporte son fundamentales para la locomoción de gran parte de la población al trabajo, escuela y actividades culturales. El bloqueo o imposibilidad de acceso a medios de transporte puede tener un gran impacto en la vida y el desarrollo de las personas.

Además de crear limitaciones al acceso a servicios públicos para grupos históricamente marginados de la población, los sistemas de identificación obligatoria y biométricos implican una “sobrevigilancia” hacia esos grupos. No se sabe cómo son utilizados, agregados y compartidos los datos recolectados de esos grupos, ni parece proporcional exigir un nivel tan alto de información para la entrega de beneficios limitados o condicionados. En el caso venezolano las bases de datos biométricas provienen del sistema electoral, para ser utilizadas tanto por operadores estatales -incluyendo funcionarios de migración y policías- como por cajeros de supermercados y farmacias, sin ningún tipo de requisito legal previo. En São Paulo, el gobierno municipal llegó a anunciar la venta de las bases de datos de las tarjetas utilizadas en el transporte pero, bajo presión pública y después de la aprobación de una ley de protección de datos en Brasil, cambió su posición.

No está demás reiterar que solamente se someten a esos sistemas a los usuarios de sistemas públicos de salud, asistencia social y transporte que, en general, no incluyen las élites locales que pueden prescindir de ellos y recurrir a prestadores privados; manteniendo mayor control sobre su información y preservando su privacidad.

Desigualdad, discriminación y pobreza

Que los mecanismos de vigilancia sean implementados de manera diferencial hacia los grupos más vulnerables no es novedad, esto remonta a procesos de control social y precarización que han estado en la base de la construcción de muchas de nuestras sociedades para asegurar tanto la dominancia de las clases sociales y económicas más privilegiadas como la explotación de los más vulnerables. Aún hoy, con las posibilidades ofrecidas por las tecnologías para optimizar la entrega de servicios de toda clase, vemos que esas tecnologías son usadas para mantener esa estructura social desigual. Con asistencia de la tecnología, la vulnerabilidad es castigada con vigilancia.

No tiene por qué ser así. La promesa de la tecnología es la mejora de nuestras vidas. Esa promesa debería ser transversal a toda la sociedad y no estar reservada para aquellas personas que puedan costear las mejoras, o que puedan pagar el precio de no tener que someterse a aplicaciones abusivas de la tecnología. Estos desarrollos y despliegues tecnológicos no deberían resultar en una nueva forma de discriminación que profundice otras desigualdades como un daño colateral que debemos asumir en favor de un supuesto bien mayoritario. 

Una aproximación de derechos fundamentales con una comprensión interseccional de los distintos tipos de exclusiones que las tecnologías promueven y clausuran es la única manera de hacer frente a la desigualdad a la que millones de personas están siendo sometidas en el continente. Solo así, las nuevas tecnologías quizás puedan convertirse en un factor que ayude al cierre de las brechas que enfrentamos ahora. 

Las apariencias engañan: falencias del reconocimiento facial y sesgo algorítmico

Según el antiguo cliché, el rostro es el espejo del alma. Algo por el estilo deben haber estado pensando los responsables en Unilever y otras compañías con sede en el Reino Unido, que han comenzado a utilizar un sistema de análisis de expresiones faciales en los procesos de selección de personal

The Telegraph explica que el sistema compara los videos de las entrevistas de los postulantes con una base de datos que contiene información facial y lingüística de aquellos empleados que se desenvuelven bien en el trabajo. Según Nathan Mondragon – psicólogo jefe de Hirevue, la empresa estadounidense que provee el servicio – «Las expresiones faciales indican ciertas emociones, comportamientos y rasgos de personalidad». 

Pero, ¿lo hacen realmente? La Association for Psychological Science quiso poner esta hipótesis a prueba y reunió a cinco expertos para intentar determinar cuánto de cierto había una idea arraigada en el sentido común, que la emoción puede determinarse de manera confiable mediante movimientos faciales externos. El resultado fue concluyente: no existe evidencia científica que respalde la noción de que el estado emocional de una persona se puede inferir fácilmente del modo en que mueve su rostro. 

Esto, por una serie de razones: las mismas emociones no se expresan siempre de la misma manera, las mismas expresiones faciales pueden indicar distintas emociones y las características culturales y contextuales influyen en el modo en que las emociones son expresadas. Las emociones son complejas y no necesariamente obvias de comprender, incluso para quién las experimenta, mucho menos para un observador externo.  

“Preferiría tener mi primera entrevista con un algoritmo que me trate justamente y no tener que depender de qué tan cansado esté el reclutador ese día”, argumenta Loren Larsen, director de tecnología de Hirevue, haciendo eco de aquella vieja idea de que las máquinas están libres de sesgos y, por tanto, son preferibles a los seres humanos. Pero como replica para el Telegraph Anna Cox, profesora de interacción humano-computadora en UCL, el sistema «va a favorecer a las personas que son buenas para hacer entrevistas en video y cualquier conjunto de datos tendrá prejuicios que excluirán a las personas que realmente habrían sido excelentes en el trabajo», eso sin mencionar sesgos de género, raza o etnicidad.

La búsqueda por una técnica que provea a la humanidad de un acceso directo a representar la realidad de forma objetiva es de larga data, e incluye la invención de la perspectiva en el renacimiento y la fotografía. Las técnicas algorítmicas y las “máquinas que ven” son la última adición a una lista larga. Y, sin embargo, se revelan tan dadas a los sesgos como cualquier otra. 

Un ejercicio interesante al respecto lo realizaron hace pocos días Kate Crawford y Trevor Paglen, responsables de la exhibición “Training Humans”. Como parte de la muestra, pusieron en internet ImageNet Roulette, un sitio web temporal (y ya no disponible en línea) que ponía a disposición de cualquiera con una conexión a internet un algoritmo entrenado con la base de datos ImageNet, uno de los sets de entrenamiento más utilizados para el aprendizaje de máquinas: para enseñarle a un computador qué es un perro, se le muestran miles de imágenes de perros, hasta que aprende distinguirlos de aquello que no es un perro. Las imágenes son etiquetadas a mano por personas que imprimen sus propios sesgos al hacer la tarea. Esto no es particularmente problemático cuando estamos hablando de perros, pero sumamente complicado cuando se trata de personas, también incluidas en la base de datos.

Como pudieron comprobar quienes visitaron ImageNet Roulette, el modo en que sus selfies eran clasificadas incluía términos como “terrorista”, “mujerzuela” o “nonentity”, definido como “una persona sin poder”. Todo esto, simplemente a partir de sus rostros. «El proyecto busca llamar la atención sobre los daños reales que los sistemas de aprendizaje automático pueden perpetuar», explica Paglen.

América Latina

En nuestra región, los usos de sistema de reconocimiento facial han comenzado a expandirse rápidamente, principalmente para la vigilancia del espacio público asociada a actividades de seguridad. En Paraguay, un sistema de reconocimiento facial está funcionando desde julio de 2018 en Montevideo, envuelto en un manto de secretismo total: a pesar de los esfuerzos de Tedic por obtener información respecto a la ubicación y los usos del sistema, poco se sabe respecto al funcionamiento de este. 

Cuestión similar ocurre en Buenos Aires, Argentina, que cuenta con un sistema de vigilancia por reconocimiento facial desde marzo de 2019. Se sabe que existen cerca de 200 cámaras equipadas con un sistema de reconocimiento facial en algunas estaciones de Subte y en la zona de trenes. Pero pese a los esfuerzos de ADC por conocer la ubicación de los dispositivos, la información ha sido negada por el Gobierno de la Ciudad, aduciendo razones de seguridad. 

En México, los sistemas de reconocimiento facial son cada vez más comunes. Solo en 2019, el Gobierno del Estado de Coahuila ha instalado 1282 cámaras de vigilancia pública equipadas con tecnología de reconocimiento facial en las calles de diversas ciudades. Ya en 2018 se reportó el uso de esta tecnología en los accesos a la Feria Ganadera de Sinaloa y, recientemente, unidades de patrulla en la Ciudad de México se han equipado con tecnología de reconocimiento facial.  En Brasil, Bolivia, Ecuador y Chile existen sistemas de reconocimiento facial o planes para su próxima instalación. 

En general, el planteamiento es poder agilizar la búsqueda de prófugos de la justicia y poder identificar rápidamente a los delincuentes. Pero los resultados distan de ser los esperados. Recientemente, un hombre estuvo seis días preso por error en Buenos Aires, gracias al sistema de reconocimiento facial. En Chile, las pruebas realizadas por la policía a un sistema de reconocimiento facial implementado por una cadena de centros comerciales arrojaron una taza de error que ronda el 90 %. 
Así, pareciera ser que las tecnologías de reconocimiento facial producen más problemas que los que son capaces de resolver, a la vez que las bases teóricas que sustentan sus supuestos beneficios se desmoronan ante la evidencia.  En Estados Unidos, varias ciudades han prohibido completamente el uso de estas tecnologías. Quizás sea el momento de seguir su ejemplo.

Consejo Asesor de Facebook: ¿La bala de plata para los problemas de la moderación de contenidos?

Es habitual encontrar quejas sobre el funcionamiento de grandes plataformas y sitios como YouTube, Twitter o Instagram; sea por quitar imágenes o videos de sus usuarias por infracción de sus políticas y condiciones de uso, o bien por mantener en sus sistemas comentarios constitutivos de amenazas o discriminación. En otras palabras: por quitar demasiado sin suficiente justificación o mérito, mientras los nazis circulan sin molestias.

Se trata a menudo de decisiones difíciles, intentando sopesar tanto el interés por la expresión libre con el respeto a la ley o a las reglas de convivencia en la interacción entre usuarios en la plataforma. En una escala planetaria, con cientos o miles de millones de personas haciendo lo mismo a la vez, la tarea de moderación es de una magnitud difícil de medir. A ello se agrega la complejidad de responder a distintas normas legales y sociales existentes entre distintos países y comunidades.

De allí nace el anuncio de un Consejo Asesor de contenido de Facebook, con la misión de actuar como árbitro último en la decisión de cuándo corresponde un retiro de contenido o no. Hace pocos días -y tras un intenso período de consultas en persona y por escrito- se incluyó la respuesta de la coalición Al Sur (p. 126), de la cual Derechos Digitales forma parte, y se realizó el anuncio oficial del Acta constitutiva que despeja varias de incertidumbres; dejando abiertas algunas interrogantes levantadas por diversas organizaciones de la sociedad civil durante el periodo de consultas. 

Un órgano diverso e independiente

Uno de los aspectos clave de la implementación de un Consejo como el planteado es la independencia funcional, esto es, que no se trate de un órgano que responda a Facebook. Por ello, el más reciente anuncio se anota un punto favorable al incluir la formación de un fideicomiso, que recibirá fondos de la compañía pero estará independientemente encargado de financiar la operación del Consejo, incluyendo la compensación por servir en el mismo. La forma de interacción entre los tres órganos está también contemplada en el Acta (art. 5).

El Consejo contará también con capacidad independiente para seleccionar los casos a los que se dedicará. Aunque resta conformar los estatutos para el funcionamiento del Consejo, será este mismo el que podrá modificarlos a futuro, idealmente asegurando así que la primera versión de ellos que producirá Facebook no afectará la forma en que se diseñe su proceso de toma de decisiones.

Por otra parte, la composición del Consejo (art. 1 del Acta) debe ser “diversa”, con entre 11 y 40 personas con un amplia gama de conocimientos, competencias, diversidad y pericia; evitando los conflictos de interés. Puesto que no hay un Consejo conformado todavía, aún no sabemos si en la práctica se cumplirán las aspiraciones de diversidad de voces y perspectivas anunciada, sin embargo ya está en marcha el proceso de selección de miembros iniciales. Aún no queda claro si los criterios para la remoción de miembros del Consejo (art. 1 s. 8), una vez establecidos, serán suficientes para garantizar que la permanencia sirva como modo de presión para la toma de decisiones en uno u otro sentido. Tampoco hay mecanismos establecidos para enfrentar las inevitables acusaciones de sesgo de quienes compongan el Consejo o alguno de sus paneles. Todos estos detalles pendientes resultan esenciales para una evaluación final de los requisitos que miran a la diversidad, independencia y legitimidad de la acción del Consejo Asesor.

La toma de decisiones sobre la expresión global

En principio, el Consejo estará llamado a responder a los casos que Facebook directamente someta a su decisión por su “importancia” y “dificultad”, para posteriormente recibir también solicitudes de las usuarias (art. 2). El Consejo, como hemos dicho, podrá decidir sobre la selección de casos. Las decisiones que se adopten por el Consejo en tales casos serán vinculantes y las medidas adoptadas en su cumplimiento deben ser informadas transparentemente por Facebook (art. 4).

Pero de manera mucho más crucial, las facultades del Consejo no estarán limitadas a lo que Facebook o sus usuarias indiquen sobre retiro de contenidos o comentarios, sino para interpretar las políticas de contenidos en general (art. 1 s. 2). Esto incluye no solo a las Normas Comunitarias, sino también otras cuestiones como el uso de herramientas automatizadas de moderación, o las políticas sobre avisos. Queda por ver si el Consejo extenderá su ámbito de acción, y si Facebook reconocerá esa ampliación. 

El Acta admite que el Consejo entregue “guía” a Facebook para la modificación de sus políticas (art. 1 s. 4), sin hacer obligatorio un cambio de esas políticas para la compañía. Si bien es comprensible que un órgano externo como el Consejo no tenga influencia directa en las reglas de la plataforma, la decisión de formulación de esas reglas continuará exclusivamente en manos de la compañía. Llama la atención a este respecto el lenguaje ambiguo utilizado respecto del carácter vinculante -o no- de las recomendaciones en materia de modificación de políticas, versus el reconocimiento explícito del carácter vinculante de las decisiones referidas a casos específicos que les sean sometidos. Dicha ambigüedad atenta contra las recomendaciones formuladas por Derechos Digitales y otras organizaciones durante el periodo de consultas. El mínimo esperable en este caso, si no existe un efecto vinculante de las recomendaciones del Consejo, es que Facebook se comprometa a proveer explicaciones suficientes y razonadas al Consejo que justifiquen su negativa.

El Consejo podrá también recabar información adicional (art. 3 s. 3), incluyendo opiniones expertas, peticiones de investigación, o traducciones. Es de esperar que no haya una limitación de recursos que haga inviables esas expectativas de información que puede ser crucial para comprender el contexto en que una expresión cuestionada se produce. Además, el Consejo podrá recibir opiniones no solicitadas de personas o grupos afectados o representados en el contenido respectivo, a modo de amici curiae. Por otro lado, se mantiene la posibilidad de someter al Consejo una decisión expedita en casos especiales, con hasta dos semanas para responder, un plazo menos que ideal por ser muy extenso para responder a una situación urgente y muy breve para una decisión razonada. Por ello, esperamos que el Consejo desarrolle mecanismos propios para enfrentar casos urgentes.

El proceso para llegar a una decisión y a su implementación por Facebook está centrado en la determinación sobre si una decisión de retirar contenido es consistente con las políticas de contenido y los “valores” de la compañía. Es decir, se trata de vigilar la observancia de reglas de una empresa privada, y no de reglas legales nacionales o internacionales, en situaciones de expresión que alcanzan a todo el planeta. Aunque se incluyen por primera vez menciones explícitas a la atención necesaria a las “normas de derechos humanos que protegen la libertad de expresión” en el Acta (art. 5 s. 2) y al derecho internacional de los derechos humanos entre los valores que inspiran las Normas Comunitarias (al menos, desde hace unas semanas), es necesario que un compromiso real a futuro con los derechos fundamentales sea más explícito y más amplio; así como que se reconozca de una jerarquía superior a los valores internamente establecidos por la compañía. Tan solo relevar valores de libertad de expresión y no otros derechos humanos implicados en la moderación de contenidos -muy en línea con la perspectiva estadounidense- es insuficiente para reconocer los entramados de derecho internacional de los derechos humanos y las complejidades normativas que pueden variar alrededor del mundo.

También aparece en el Acta la función de marcar “precedentes” de las decisiones (art. 2 s. 2) intentando proveer al mecanismo consistencia en sus decisiones. Sin embargo, se compromete su implementación limitada a lo técnicamente posible y a lo que no esté legalmente prohibido (art. 4), planteando nuevas dudas sobre el real apego a reglas tales como las propias del derecho internacional de los derechos humanos. 

El beneficio de la duda

Desde un inicio el anuncio del Consejo Asesor de contenido fue recibido ampliamente con un sano escepticismo, pero como una buena medida inicial para incrementar la transparencia, el debido proceso, la diversidad y la rendición de cuentas en la moderación de contenidos. Parece un piloto interesante para evaluar soluciones que abarquen más de una compañía o nuevos esfuerzos individuales, aún cuando falta una mayor recuperación del amplio legado del sistema internacional de derechos humanos. Es una preocupación que las decisiones difíciles y con impactos continúen siendo dejadas de este modo en manos privadas, sin primacía de procesos para ponderar la proporcionalidad de afectación a derechos propia del sistema internacional de derechos humanos; a pesar de contar con una larga historia de toma decisiones en casos complejos. 

El escepticismo en torno a la intención de proteger usuarias en lugar de proteger su éxito económico es comprensible, ya que el historial de la compañía hace difícil entregar el beneficio de la duda en un ámbito con consecuencias sensibles. Pero a la vez, podría significar un paso inicial para el reconocimiento de la responsabilidad que -en el marco internacional de los derechos humanos- recae en quien aloja buena parte de la expresión a nivel mundial.

Dada la alta complejidad en torno a mantener espacios a la vez libres de acoso y de contenido dañino, propicios para la expresión libre y ausentes de censura ilegítima, es difícil entregar confianza sobre el control de la misma a un sistema diseñado por una empresa privada por genuino que resulte el esfuerzo. La solución ofrecida por este Consejo Asesor está lejos, por tanto, de ser la -ansiada por muchos- bala de plata de la moderación de contenido.

Contra las nuevas formas de violencia antidemocrática

Un día como hoy, hace 46 años, las Fuerzas Armadas chilenas derrocaron al gobierno democrático de Salvador Allende. El golpe de estado – producto de una confabulación entre militares y civiles, con apoyo de la CIA – dio inicio a 17 años de dictadura sangrienta y voraz, cuya violencia se expresó como asesinato y tortura, pero también como política económica y en la creación de una Constitución todavía hoy vigente. 

Ese 11 de septiembre de 1973, mi madre tenía 14 años; 13 mi padre. El retorno de la democracia los encontró comenzando los 30, con un hijo pequeño y una hija recién nacida. Además de infundir miedo y hambre, la dictadura les arrebató su juventud. Valientemente asumieron la responsabilidad de luchar contra la represión, de todas las maneras que encontraron: marchando, haciendo barricadas, tirando panfletos, organizando actos culturales, haciendo títeres, cantando, tomando vino navegado en las peñas folklóricas, mirando películas censuradas, yendo al teatro. Fue así como se conocieron y quizás su amor haya sido también una manera de resistir, un pequeño gesto de esperanza frente a la monotonía de la desolación. 

Como mis padres, miles de personas lucharon todos los días durante 17 años contra la dictadura, desde distintos frentes, de diferentes maneras. La recuperación de la democracia es su legado, su regalo para quienes les seguimos. Pero la democracia es siempre una promesa, un proyecto inconcluso, susceptible también al retroceso. Y esa es algo de lo que tenemos que ser conscientes, especialmente cuando hemos visto un alza de las voces negacionistas del horror, no solamente en Chile, sino también -por ejemplo- en Brasil, que al igual que otros países Latinoamericanos vivió también una historia de represión, violencia y terrorismo estatal.

Las nuevas tecnologías de la comunicación -desde las redes sociales a las aplicaciones de mensajería- han sido una de las principales armas que han encontrado los grupos negacionistas, que han sabido explotar hábilmente el desinterés de las compañías por generar espacios seguros para quienes las usan y las sociedades en que habitan. Alguna vez celebradas como la vanguardia de la democracia, las redes sociales se han convertido en la mayor caja de resonancia que han encontrado los proyectos filofascistas en el siglo XXI. 

La explotación del miedo con fines políticos -a través del perfilamiento de la población- gracias a la acumulación masiva de datos personales, es también una expresión  que remite al arsenal de herramientas utilizado por las dictaduras latinoamericanas; que además reconocieron el potencial de las campañas de desinformación muchísimo antes de la masificación de los celulares y los grupos de WhatsApp. 

Por su parte, las tecnologías de vigilancia, que de forma cada vez más común se despliegan en los espacios públicos y semi-públicos, tienen el potencial de volver literal la advertencia macabra emitida por el dictador cuando se ufanaba de que en Chile no se movía una hoja sin que él lo supiera ¿Cuánto más efectiva habría sido la CNI si hubiese tenido acceso a la tecnología de reconocimiento facial que hoy se instala de manera casi anecdótica en nuestras ciudades? Y aunque en Chile la CNI ya no existe, periodistas y activistas siguen siendo vigilados y perseguidos por medio de las mismas tecnologías que se suponía venían a liberarnos. 

La relación entre tecnología y violencia no debería extrañarnos, ¿no fue acaso IBM proveedor de la Alemania Nazi? Lo que debería parecernos raro es la ingenuidad con la que se suele abordar esta relación, como si viviéramos constantemente obnubilados por el brillo de las pantallas que hemos decidido anexarnos. 

Frente a estas nuevas formas de violencia que atentan contra nuestras frágiles democracias y los derechos fundamentales de quienes las conforman, nuestro deber es resistir y luchar de todas las formas que encontremos: por quienes lo hicieron antes que nosotros y para quienes nos van a suceder.

¿Qué oculta la nueva consulta pública sobre derechos de autor en Brasil?

Brasil tiene una de las leyes de derechos de autor más estrictas de América Latina, con escasas flexibilidades para las usuarias manifestadas en excepciones y limitaciones a los derechos exclusivos. Aunque hubo algunos avances jurisprudenciales en los últimos años, la Ley Nº 9.610 de 1998 mantiene una serie de restricciones al uso privado de obras protegidas y no incluye autorizaciones que favorezcan el uso de obras intelectuales en escuelas, bibliotecas o museos.

Una historia complicada

La ley fue por años clasificada como una de las peores del mundo por Consumers International y en menos de diez años de vigencia fue considerada obsoleta, ya que su carácter restrictivo frenaba muchas de las posibilidades de acceso a la información, conocimiento y cultura potenciadas por las tecnologías digitales. No obstante, este análisis crítico sirvió como una de las bases para iniciar un primer proceso de debates públicos para hacer una revisión de la ley. Ese proceso fue iniciado en 2007 por el Ministerio de Cultura (hoy integrado al Ministerio de Ciudadanía), encabezado por el popular artista Gilberto Gil. 

Los debates incluyeron un ciclo de encuentros en distintas regiones del país, reuniendo a expertos, artistas y sociedad civil entre otros interesados. Las discusiones tenían un fuerte énfasis en la ampliación de las limitaciones y excepciones favorables al uso de las obras intelectuales. A partir de estos debates, fue presentado un texto inicial de reforma para consulta pública virtual en 2010 y en 2011 un nuevo texto estuvo abierto para comentarios. En un proceso que ya era novedoso por el carácter inclusivo y abierto de la discusión, las consultas virtuales surgían como una expresión pionera de participación: la ciudadanía podía no solamente revisar las propuestas, sino también comentarlas y revisar los comentarios de otros interesados.

Sin embargo, el proceso no prosperó. Con los cambios políticos vividos en el país desde entonces y la ascensión de liderazgos menos comprometidos con la promoción de la cultura libre, el texto jamás fue presentado al Congreso Nacional. Reformas menores fueron aprobadas, pero la esperanza inicial por una ley equilibrada se diluyó.

Mientras ese proceso de modernización se detuvo, la marcha de la tecnología continuó, incluyendo una masificación de las redes sociales y de formas cada vez más complejas de producción y recreación artística y cultural. Los cambios en el ecosistema digital, a nivel nacional y global, trajeron nuevos desafíos a una regulación cada día más atrasada.

La ley vuelve a la discusión pública

De manera sorpresiva, el gobierno de Bolsonaro abrió una nueva consulta pública sobre la ley actual -recibiendo comentarios sobre el texto completo hoy vigente- y sobre los temas que podrían integrarse a la ley. La consulta fue lanzada sin ningún debate o documento preparatorio, sin un texto base (salvo la ley vigente) y sin referencia alguna a los desarrollos del proceso iniciado en la década pasada. Tampoco hay ningún compromiso con la publicación de las contribuciones recibidas, ni sobre la información de la participación; lo que consiste en un gran retroceso en transparencia en relación a los procesos anteriores.

Aunque sea loable la iniciativa de abrir al público la discusión de una ley tan criticada, surge la pregunta: ¿qué motiva la apertura de una consulta sobre la ley de derechos de autor en este momento? 

Dos elementos apuntan a una intención de establecer nuevas reglas para la difusión de contenidos protegidos en línea. El primero de ellos, es la mención expresa a la Directiva Europea de Derechos de Autor en el texto que presenta la consulta. Como se sabe, la Directiva incluye un controvertido artículo que responsabiliza los intermediarios en línea por infracciones de derechos de autor, incluso de parte de terceros, obligando a una censura proactiva por las empresas de internet. Cabe preguntarse si el gobierno brasileño pretende hacer propio un modelo que, a pesar de haber sido aprobado, ha presentado grandes polémicas y sigue planteando serios desafíos para su implementación.

El segundo elemento, es la pregunta en el formulario de consulta sobre la necesidad de una “reforma integral” a la ley, o solamente una reforma en lo relativo a los nuevos modelos de negocios de internet. La segunda opción trae como ejemplo la regulación del artículo 19 del Marco Civil de Internet, que precisamente trata de la responsabilidad de intermediarios de internet. 

Aunque políticamente se optó por dejar a una regulación específica el tratamiento de la responsabilidad en caso de violaciones a los derechos de autor, cabe recordar que la sociedad brasileña hizo una opción en el Marco Civil (que también pasó por un proceso de construcción ciudadana reconocido en todo el mundo) por no responsabilizar a las plataformas por infracciones cometidas por terceros y con eso priorizar la libre expresión en línea. Un cambio en ese sistema, alineado con los desarrollos de la Directiva Europea que parece inspirar al gobierno brasileño, representaría la victoria de intereses comerciales de la industria por sobre la ciudadanía y el interés público.

La voz de la ciudadanía para un sistema equilibrado

Es difícil otorgar el beneficio de la duda a gobiernos autoritarios a propósito de iniciativas revestidas de democracia y participación. En una materia como la legislación de los derechos de autor, tan relevante para el interés público y el avance de derechos humanos, pero tan susceptible a la presión por parte de las industrias de contenidos y las entidades de cobro, esa suspicacia es aún mayor. A ello se suma la falta de documentación informativa y la ausencia de compromisos de transparencia, que podrían invitar a un involucramiento más activo de la ciudadanía.

Pero esas mismas razones son las que invitan a aprovechar esta apertura. Dado que los espacios de participación en políticas públicas son hoy limitados, una consulta pública resulta un espacio propicio que ocupar. Dado que las voces siempre presentes en estos debates son las de quienes utilizan a la propiedad intelectual como caja pagadora (y a menudo, no los artistas mismos), una consulta pública es una oportunidad para expresar los intereses de quienes usan obras a diario para crear, para expresarse, para enseñar. Y dado que no hay certeza sobre cómo serán consideradas las respuestas a la consulta, es una oportunidad para presentar y difundir públicamente con fuerza las ideas de la sociedad civil para una regulación equilibrada y respetuosa de derechos fundamentales. 

El futuro de internet, la creación y la difusión del conocimiento libre y abierto, están hoy en consulta pública en Brasil. Esta es una oportunidad para hacer que la ley recoja las necesidades de las personas que usan internet para educar, crear, compartir, documentar -incorporando a los acervos e instituciones que preservan la memoria y el conocimiento- para alzar la voz en defensa de los humanos, contra la vigilancia y censura en la red.


Vea también:

La Directiva Europea de Derecho de Autor y su impacto en los usuarios de América Latina y el Caribe: una perspectiva desde las organizaciones de la sociedad civil

Reforma da LDA: o que você precisa saber

Represión contra mujeres periodistas y activistas en México

El viernes 16 de agosto en la Ciudad de México se convocó a una protesta ante las omisiones de justicia en casos de violación donde los culpables son elementos de las fuerzas policiacas. Estos casos, que no han sido pocos ni recientes, llevaron a que cientos de mujeres se encontraran en las inmediaciones de la Glorieta de Insurgentes para dar lugar a lo que se denominó “Diamantada”: donde la diamantina fue retomada como símbolo de protesta durante la manifestación convocada tras los eventos del 12 de agosto.

Cabe recalcar que el tema de la violencia contra mujeres en México es un problema histórico que hoy en día se mantiene al alza, simplemente en este año hemos pasado de tener un promedio de 8 a 10 asesinatos de mujeres al día. Aunado a esto, la violencia también se ha ejercido a través de otros mecanismos y estructuras de poder. No hay que olvidar que hace unos meses atrás aún nos encontrábamos analizando la luz que arrojó la segunda ola del #MeToo sobre casos de acoso y otros tipos de violencia en diferentes gremios: incluso el periodístico.

Desde hace varios años, diversas instancias se han encargado de documentar las implicaciones que -en el contexto de violencia contra periodistas, donde México está consolidado como uno de los peores en América Latina para ejercer esta profesión- recaen en asumir el compromiso con documentar y comunicar la realidad como mujer periodista. No es gratuito que la renombrada periodista Lydia Cacho recientemente haya huido del país.

Por otro lado, existe una dimensión política que también aporta un matiz distinto a la polarización de la información que tanto medios de comunicación como algunos comunicadores han difundido, pues es claro que el feminismo -como la verdad- incomoda a quienes han consolidado su poder en los privilegios que existen para quienes se alinean con estructuras sociales profundamente patriarcales, machistas y misóginas como las que existen en México; estructuras que grupos de mujeres organizadas a través de distintas acciones claramente políticas han estado visibilizando, buscando derribar. Y no pasa por alto que vivimos en una época donde la participación de las mujeres en distintos espacios se ha potenciado y amplificado, evidenciando el recelo (manifestado, algunas veces, a través de agresiones) ante los cambios propios de una sociedad que se está transformando.

Sin embargo, algunos de los principales medios de comunicación han optado por abordar el tema con una mirada sesgada que promueve la polarización y desdibuja el descontento que ha movido a cientos de mujeres en todo el país. Este problema no solamente pasa por evidenciar una falta de perspectiva de género y mirada crítica en estos conglomerados comunicacionales, sino que también alimenta las posturas que suelen tomarse por quienes propagan discursos de odio e incluso dirigen agresiones a activistas y medios de comunicación feminista en redes sociales.

Imponer el silencio

Tras las denuncias públicas de medios independientes con perspectiva feminista como Luchadoras, otras iniciativas de derechos humanos y afines a las causas feministas se sumaron para denunciar la violencia manifestada a través de redes sociales en días posteriores a la marcha.

Además de los casos violencia explícita que se documentaron y los reportes de acoso y violencia en línea, se hicieron visibles estrategias de amedrentamiento que hacían uso de grupos de Facebook para convocar a “golpear feministas hasta la muerte”. Esto hace evidente la instauración del miedo como una herramienta para reprimir la legítima protesta de las mujeres que se han manifestado a través de las movilizaciones en el espacio público y la potencia de las plataformas digitales.

Desde Internet Es Nuestra hicimos un llamado a Facebook y Twitter para agilizar los procesos de reporte, aplicar sus normas comunitarias y promover acciones ante la violencia que se ejerce contra las mujeres en sus plataformas. Al día de hoy nos hemos reunido con Twitter para abordar este tema y pensar medidas conjuntas para hacer frente a los casos reportados, mientras que no hemos recibido respuesta por parte de Facebook.

Estrategias y resistencias

La violencia en línea contra las mujeres en México, así como la violencia contra mujeres periodistas en el mundo no son temas sencillos; tienen una vasta multiplicidad de matices que se complejizan cuando se sitúan en los diferentes contextos en los que aún queda camino por recorrer para alcanzar un punto en el que podamos vivir libres de violencia.

El sumar la dimensión técnica/tecnológica a las propuestas políticas y las acciones feministas no sólo nos permite repensar nuestra relación con las tecnologías, sino cuestionarnos las dependencias hacia ciertas estructuras que menoscaban la autonomía; mientras propagan ideologías que actúan en detrimento de nuestras libertades y derechos.

En México, el año pasado, un grupo diverso de mujeres que se autodenominó Tormenta habilitó un diálogo sobre identidad y feminismo en internet. El resultado fue una reflexión que pasó por abordar las estrategias de aprendizaje y cuidado colectivo por medio de una mirada crítica sobre nuestro uso de las tecnologías: mirando hacia alternativas que permitieran fortalecer la seguridad y la autonomía sobre la información.

Además, no son pocas las iniciativas feministas que trabajan seguridad digital en América Latina. Como Ciberseguras, que también tiene presencia en México y ha sido parte de procesos de acompañamiento y fortalecimiento digital para mujeres, activistas, periodistas y defensoras de derechos humanos en diferentes estados del país. 

Ante la omisión de justicia, la desinformación y la violencia, pensar la seguridad digital como una parte fundamental de nuestras actividades como comunicadoras, periodistas o activistas es fundamental para prevenir ataques o desarrollar estrategias que nos permitan actuar a tiempo: para que nuestras voces se amplifiquen y no sea el miedo lo que defina nuestro futuro. 

¿Hacia dónde va el primer tratado sobe economía digital?

El pasado 17 de mayo, los representantes de Chile, Singapur y Nueva Zelanda anunciaron la negociación de un nuevo tratado de comercio internacional: el Acuerdo de Asociación sobre Economía Digital (Digital Economy Partnership Agreement, DEPA). La novedad es que este será el primer tratado comercial dedicado exclusivamente a abordar los desafíos de la economía digital, especialmente luego del estancamiento de las negociaciones en la materia a nivel de la Organización Mundial del Comercio (OMC).

La semana pasada, la Subsecretaría de Relaciones Económicas Internacionales de Chile (ex DIRECON) convocó la primera reunión oficial, permitiendo a los miembros de la industria, la academia y la sociedad civil chilenas conocer más detalles sobre la iniciativa. Los primeros acercamientos se produjeron en diciembre de 2018 y hasta el momento se han celebrado tres rondas de negociación. La negociación será cerrada entre los tres países hasta su conclusión, pero luego se permitirá la adhesión de cualquier país que pertenezca a la OMC. 

En cuanto a las materias que se van a incorporar en el tratado, estas van desde las más tradicionalmente vinculadas al comercio electrónico (pagos electrónicos, no aplicación de tarifas aduaneras a servicios digitales, firma electrónica, etcétera) a temas nunca incluidos en un tratado internacional, como la regulación de la inteligencia artificial y la tecnología de cadenas de bloques (blockchain). Vamos por partes.

Nobleza obliga

Entre los temas que se han propuesto en la negociación, hay dos que son particularmente positivos (ambos propuestos por Chile). El primero, es la inclusión explícita de normas que promueven la utilización del cifrado. Esto es relevante porque la tecnología de cifrado de comunicaciones (especialmente de punto a punto) se ha transformado en una herramienta indispensable para mejorar los estándares de ciberseguridad de las industrias y los distintos servicios digitales. En este sentido, el cifrado no solo asegura que las personas puedan ejercer su derecho a la inviolabilidad de las comunicaciones, sino que promueve la confianza de los usuarios en la seguridad de los servicios y plataformas que operan en el ciberespacio. Esto tiene un efecto económico tangible, ya que estudios indican que el 33 % de los consumidores expresa haberse abstenido de adquirir productos y servicios en línea debido a consideraciones de seguridad y privacidad.

Su inclusión también resulta positiva a la luz de la iniciativa de distintos países para debilitar el cifrado, exigiendo a los desarrolladores incorporar “puertas traseras” en sus servicios, para “descifrar” el contenido encriptado. Estas puertas traseras son verdaderas vulnerabilidades informáticas, que no solo pueden ser aprovechadas por los gobiernos que las exigen, sino que también por delincuentes informáticos, como ya ha sucedido. Si bien todavía no se han dado a conocer los textos para cada propuesta, la inclusión de una norma que impida a los países exigir la inclusión de puertas traseras en programas informáticos sería un gran paso en la promoción de la ciberseguridad y el comercio electrónico.

Entre los temas propuestos también se encuentra la inclusión de normas que consagren el principio de neutralidad de la red. Este principio busca asegurar que los operadores de internet traten todo el tráfico que pasa por sus redes de la misma forma, impidiendo que puedan bloquear, interferir o priorizar cierto tipo de tráfico por sobre otro. Este principio básico de internet no solo promueve la competencia y la innovación al impedir que los operadores de internet puedan llegar a acuerdos privados con proveedores de contenido, sino que también promueve la existencia de un internet libre y abierta, al impedir que los proveedores puedan decidir qué contenido debe obtener un trato preferencial. 

Lo que puede mejorar

Derechos Digitales ha sido crítico de las disposiciones sobre comercio electrónico que han sido incluidas en tratados internacionales anteriores, como CPTPP o TiSA. Una de nuestras críticas es que las normas sobre flujo transfronterizo de datos personales establecen un mismo criterio para los “datos” (así, en general) que para los datos personales. 

Internet funciona por capas. En un modelo simplificado, existe una capa de infraestructura (cables, servidores, etcétera), una capa de protocolo (estándares y código) y una capa de contenido (interacciones entre seres humanos). Nadie discute que la arquitectura de internet exige que exista un libre flujo de información. En otras palabras, en la capa de infraestructura no debe existir una discriminación de hacia dónde o cómo viaja la información (los unos y los ceros). Sin embargo, los datos personales no se regulan en la capa de infraestructura, sino que en la capa de contenido. Al ser datos que se vinculan a personas naturales, su recolección y procesamiento tiene que cumplir con la regulación de cada país y respetar los derechos fundamentales de las personas. Así, el Reglamento General de Protección de Datos Personales de la Unión Europea permite que los datos personales de sus ciudadanos solo puedan transmitirse a aquellos países que tengan un nivel “adecuado” de protección. 

La negociación de DEPA se presenta como una oportunidad para enmendar el camino y redactar una norma sobre flujo transfronterizo de datos personales que haga las distinciones que hacen falta. Consagrando el valor del libre flujo de datos en la capa de infraestructura, pero estableciendo que (en la capa de contenidos) los datos personales solo podrán ser transmitidos cuando cumplan con la respectiva legislación de datos personales, o a lo menos, con una protección normativa efectiva a favor de sus titulares.

Aspectos preocupantes

Lamentablemente, la negociación del DEPA también incluye materias que resultan sumamente problemáticas y que deberían ser abandonadas de plano. Así, la negociación incluye normas para promover la adopción de políticas públicas sobre “identidad digital” similares al sistema National Digital Identity de Singapur.

Estas políticas no solo son problemáticas en términos de ciberseguridad, ya que implican concentrar el manejo de todos los datos personales de los ciudadanos en una base de datos centralizada , sino que muchas veces van acompañadas de la utilización de tecnologías de control biométrico. Esto hace que cualquier tipo de filtración, vulneración o mal utilización de la información genere una afectación mucho más grave al derecho a la autodeterminación de las personas. 

Si nuestros datos se filtran, siempre podemos cambiar nuestro correo electrónico, teléfono, domicilio e incluso nuestros nombres, pero es imposible cambiar nuestra iris o huella digital. En este sentido, la biometría es como una caja de pandora: una vez abierta las personas se ven imposibilitadas de recuperar el control sobre sus datos. ¿Qué pasará el día que un gobierno sufra la filtración o robo de todos los datos biométricos de sus ciudadanos? Además, las políticas de identidad digital promueven el uso de un método único de identificación frente a organismos públicos, pero también ante el mundo privado como forma de facilitar las transacciones económicas. Esto implica aumentar la capacidad de perfilamiento y vigilancia sobre los ciudadanos, tanto de los gobiernos como de las empresas, con las consecuencias democráticas que ello conlleva. 

Por otro lado, DEPA propone incluir normas sobre regulación de plataformas que buscan combatir el terrorismo y el discurso de odio en línea. Si bien estos son objetivos completamente loables, la responsabilidad de los intermediarios y la regulación del contenido en las plataformas es hoy un tema sumamente polémico, por las profundas consecuencias que puede tener en materia de libertad de expresión. 

Hacer responsables directamente a los intermediarios del contenido que suben sus usuarios obliga a las plataformas a monitorear permanentemente lo que circula en sus servicios y bajar “preventivamente” y sin un debido proceso cualquier material que pueda ser infractor. A eso se suma el uso de algoritmos e inteligencia artificial pero, dado que ninguna máquina tiene la capacidad de comprender las complejidades del lenguaje humano, estos mecanismos han demostrado no ser confiables a la hora de moderar contenido.

Además, tales sistemas terminan bajando más contenido legítimo, mientras que el contenido que se busca combatir se mantiene disponible. También resulta problemático que sean empresas privadas las que terminan decidiendo sobre actos de expresión (muchas veces de forma muy deficiente) sin una ponderación entre derechos fundamentales. Por lo mismo, a pesar de las buenas intenciones, consagrar reglas sobre esta materia en un tratado internacional podría generar profundos efectos perjudiciales a futuro.

Por último, DEPA se propone reconocer la importancia y crear marcos para una implementación progresiva, confiable y segura de tecnologías emergentes como la inteligencia artificial y las cadenas de bloques. Más allá de los peligros que la implementación de la inteligencia artificial puede implicar en materia de sesgos algorítmicos, y que al parecer las cadenas de bloques no serán implementadas en la escala que alguna vez se especuló, no resulta recomendable que un tratado internacional se refiera a tecnologías particulares, que no necesariamente van a resistir el paso del tiempo. Una aproximación que involucre criterios de neutralidad tecnológica resultaría más aconsejable en esta materia.

En definitiva, la negociación de DEPA se presenta como una gran oportunidad para incluir temas que promuevan la ciberseguridad y la neutralidad de la red, al mismo tiempo que se mejora la forma en que se abordan materias que han sido tratadas de forma deficiente en el pasado. La promoción de la ciberseguridad, la certeza jurídica y una aproximación de derechos humanos en el tratamiento de datos personales es un elemento que sin duda favorecerá la confianza en el ciberespacio y el comercio electrónico. Sin embargo, esta oportunidad puede verse opacada por la inclusión de materias sensibles y que pueden ser incompatibles con el ejercicio de los derechos fundamentales de las personas. Por suerte la negociación todavía se encuentra en su etapa inicial y todavía hay tiempo para enmendar el rumbo en los temas problemáticos y profundizar en aquellos que son positivos.