Obras huérfanas: un limbo que no beneficia a nadie

En el pasado ya hemos mencionado cómo, al proteger desproporcionadamente los intereses de los titulares sobre los del público, el sistema de derechos de autor no cumple con su objetivo de entregar acceso al conocimiento y a la participación en la actividad cultural, o a promover la libertad de expresión. Bajo ciertas circunstancias, la institución de las “obras huérfanas” busca remediar este desbalance pero lamentablemente, ningún país de Latinoamérica ha legislado al respecto.

El sistema internacional de derechos de autor se basa en el principio de que cualquier uso que un tercero desee realizar sobre una obra requiere la autorización expresa del titular de los derechos sobre la mismo (quien puede o no ser su autor). Esto es lo que Lawrence Lessig denominó la “cultura del permiso”, en contraposición con una “cultura libre”. Sin duda que exigir autorización del titular para cada uso que se quiera hacer de una obra limita el acceso al conocimiento y la creatividad pero existen casos donde, sin justificación alguna, la impiden por completo.

Por ejemplo cuando, a pesar de que el tercero que desea utilizar la obra está dispuesto a conseguir la autorización del titular y pagar por dicha utilización, conseguirla no es posible, ya sea porque es imposible identificar al titular o porque es imposible ubicarlo.

Por tanto, las obras huérfanas son aquellas en que ninguno de los titulares de los derechos de autor sobre la obra está identificado o, de estarlo, no es posible localizarlo para obtener la autorización para utilizar la obra. Así, las obras huérfanas se encuentran en un limbo que no beneficia a nadie: no generan un beneficio económico para su titular, en tanto no es posible conseguir su autorización, pero no pueden ser utilizadas aunque exista la voluntad de pagar por su uso. Es un caso de total pérdida social a raíz de la irracionalidad del sistema de derecho de autor.

Esta situación es particularmente delicada para instituciones cuya misión es el rescate patrimonial, como son los museos, los archivos, las bibliotecas y las galerías, ya que la existencia de obras huérfanas genera un hoyo negro cuando se desea digitalizar obras del siglo XX. Ante la imposibilidad de hallar a los titulares de las obras que buscan rescatar y preservar, estas instituciones se ven obligadas a tomar una decisión injusta: o no exhibir la obra por ser imposible cumplir con la legislación o exhibirla de todas formas y exponerse a las sanciones establecidas en la ley. En otras palabras, la legislación de propiedad intelectual trata como delincuentes a instituciones como archivos, bibliotecas y museos, por cumplir con su mandato de rescate patrimonial

Ante esta situación, países como Australia, Inglaterra y la Unión Europea han legislado sobre la materia, a fin de permitir la utilización de obras huérfanas en aquellos casos en que es imposible ubicar al titular de la obra, y así permitir el florecimiento de iniciativas de digitalización y promoción cultural.

Hasta el momento, han sido dos los sistemas utilizados en legislaciones extranjeras para regular esta institución. Un sistema consiste en permitir la utilización de obras huérfanas a todo tipo de personas, naturales o jurídicas, tanto para fines comerciales como no comerciales, pero mediando una autorización administrativa previa. El segundo no requiere una autorización previa pero está reservado solo a cierto tipo de instituciones como galerías, museos, archivos y bibliotecas, o solo respecto de usos no comerciales.

La ausencia de legislación respecto de la institución de las obras huérfanas en Latinoamérica puede ser utilizado como una oportunidad. De esta forma, un esfuerzo conjunto por idear un sistema más flexible que el de la legislación comparada puede permitir dar pasos en la dirección correcta para recuperar un sistema de derechos de autor cuyo objetivo sea incentivar el acceso al conocimiento, a la participación en la actividad cultural y a la libertad de expresión.

 

La vulnerabilidad de Whatsapp está en sus políticas

Desde que Whatsapp fue comprado por Facebook hace tres años, han surgido muchas dudas respecto a cómo esto afecta la privacidad de sus usuarios. A comienzos de 2016 la empresa comenzó a cifrar por defecto todas las conversaciones, lo cual fue celebrado en todo el mundo; pero en agosto informó que compartiría los datos de sus usuarios con Facebook, decisión que tuvo una respuesta menos favorable, que incluso fue llevada a la corte y finalmente fue rechazada en territorio europeo.

La semana pasada el diario The Guardian declaró que Whatsapp tiene una vulnerabilidad que podría ser utilizada por gobiernos como puerta trasera para espiar los mensajes de sus usuarios, de acuerdo con la investigación realizada por el criptógrafo Tobías Boelter. Tal vulnerabilidad consiste en que la aplicación puede generar una nueva clave de encriptación mientras el usuario está desconectado, por ejemplo cuando se reinstala la aplicación en un dispositivo nuevo, sin necesidad de notificarlo pero guardando los mensajes que se hayan enviado, encriptándolos nuevamente y re enviándolos con la nueva llave.

Open Whisper Systems, empresa creadora de la aplicación de mensajería Signal y del protocolo de encriptación que es utilizado también en Whatsapp, respondió que no hay tal falla sino una limitación propia de los sistemas de encriptación, y que en ningún caso se trata de una puerta trasera. Por eso la app ofrece la opción de notificación cuando se haya cambiado la clave de encriptación, lo que fortalece la seguridad en las comunicaciones.

Pero, ¿por qué no notifica siempre a sus usuarios? Porque frente a la seguridad, para Whatsapp es más importante que la experiencia de usuario sea cómoda y sencilla. Por eso no tomó medidas luego de que, en abril de 2016, Boelter les notificara la falla. Y si bien se ha dicho que la solución es tan sencilla como activar manualmente las notificaciones o que esta vulnerabilidad es pequeña aún si la persona usuaria teme ser interceptada por agencias gubernamentales, es problemático que el código de Whatsapp no sea auditable, lo que hace más difícil saber si esta limitación puede o no ser utilizada para analizar y espiar las comunicaciones.

La falla encontrada en WhatsApp es un recordatorio crítico de que las comunicaciones seguras no dependen solo de un buen protocolo, sino de la confianza en las empresas y personas que diseñan y mantienen las herramientas que utilizamos. Y en el caso de Whatsapp y su propietaria Facebook, aunque han declarado su compromiso con la seguridad de las comunicaciones frente a la solicitud por parte de gobiernos, como pasó por ejemplo en Brasil, parece cada vez más difícil confiar.

Al respecto, es necesario recordar que hace poco, Facebook comenzó a estudiar detenidamente la manera de ingresar al mercado chino, aceptando las políticas de censura en ese país, y también que ha optado por colaborar con Israel en censurar contenidos a nombre de la lucha contra los mensajes de odio, pero a costas del derecho a la libertad de expresión, principalmente de los palestinos.

Si bien es cierto que la seguridad responde a un modelo de amenazas particular para cada usuario, y que Whatsapp es una herramienta que ofrece grandes facilidades y beneficios, hoy día hay otras aplicaciones que ofrecen servicios similares pero se preocupan más por proteger las comunicaciones y menos por capitalizar al máximo los datos de sus usuarios. Un ejemplo claro es Signal, que aunque se basa en el mismo protocolo no presenta la misma falla de Whatsapp, o Wire, cuyo «más grande defecto» es que casi nadie la tiene instalada.

Eliminar la violencia de género con un clic

La violencia contra las mujeres está clasificada como un problema global de salud pública: 35% de las mujeres en todo el mundo han experimentado violencia física o sexual a lo largo de su vida, según cifras de la Organización Mundial de la Salud. La ubicuidad de la tecnología con frecuencia hace aparecer intentos de solucionar problemas humanos y sociales a través de implementaciones de software, y es así como en años recientes se han desarrollado aplicaciones en diversas partes del mundo con miras a resolver este problema, a través de diferentes aproximaciones. Algunas intentan educar a las mujeres sobre las señales tempranas del abuso doméstico, otras ofrecen mecanismos para alertar a ciertos contactos en caso de emergencia. Pero ¿pueden ofrecer estas aplicaciones una solución real a un problema tan complejo? ¿Cuáles son las implicaciones de entregar nuestra información personal en este tipo de aplicaciones?

El mismo principio se repite a través de diferentes aproximaciones tecnológicas: aplicaciones como Circle of 6maria o EasyRescue permiten a la persona en riesgo enviar una alerta con su ubicación a un contacto de confianza.  En Chile hace poco se desarrolló la aplicación Caperuza, que accede a la información de contactos de Facebook de la usuaria así como a sus datos de GPS y le permite elegir a uno o varios contactos que pueden acceder a su información de ubicación. Además, la mitad de las aplicaciones existentes en el mercado y orientadas a mitigar la violencia de género ofrecen algún tipo de «botón de pánico», mientras que «Contactos de Confianza», aplicación nativa de Google, lleva a cabo una función similar al permitir a una persona solicitar la ubicación del GPS del dispositivo de otra, que previamente le ha designado como su contacto de confianza.

Sin embargo, la utilización de este tipo de aplicaciones plantea una serie de preocupaciones respecto a la privacidad de la usuaria. Iniciar sesión en una aplicación de este tipo a través de Facebook permite a esta red social acceder a nuestra ubicación; en el caso de “Contactos de Confianza”, la aplicación requiere acceso constante al GPS del dispositivo; esto sin contar con que los teléfonos móviles son los dispositivos más inseguros y los que poseen mayor información sobre nuestras actividades. Y no se trata solo de que una empresa tenga acceso a los datos de sus usuarios; monitorizar la actividad del teléfono o la computadora de una víctima es una práctica común por parte de personas abusivas, y dependiendo de la situación, muchas de estas aplicaciones podrían facilitar, en vez de dificultar, la vigilancia de la víctima por parte de su abusador. Según el grado de capacidad técnica del agresor, la cantidad de información a la que sea capaz de acceder a través del dispositivo de la víctima o de sus redes sociales puede incluso comprometer a sus contactos de confianza.

Dependiendo del contexto, una aplicación puede resultar útil o agravar un riesgo. Si quien agrede forma parte del entorno cercano a la víctima, y por ende está en capacidad de revisar sus dispositivos, podría encontrar la aplicación y reconocerla. Por esta razón, muchas de ellas utilizan un icono que disimule su verdadera función u ofrecen protección bajo contraseña, aunque en ciertas ocasiones una aplicación protegida con contraseña puede llamar más la atención del agresor y aumentar así el riesgo. Por otra parte, el agresor podría ser un desconocido, y en este caso la posibilidad de indicar con rapidez a un contacto de confianza la ubicación específica de la víctima resulta más valioso.

Por eso es tan importante comprender el modelo de amenazas que cada persona enfrenta, antes de elegir una pieza de software que ofrezca mayor seguridad. Una aplicación que requiera acceso físico al teléfono para enviar una alerta puede no resultar útil si el modelo de amenazas considera la posibilidad de que el agresor restrinja el acceso de la víctima al dispositivo.

Lo que es más grave, un estudio del Centro de Investigación sobre Violencia y Abuso (CRiVA) que examinó el uso de estas aplicaciones, llegó a la conclusión de que su eficacia no está clara y, en muchos casos, un SMS podía producir el mismo efecto. Según la investigación, este tipo de aplicaciones podrían incrementar la tendencia a culpar a las víctimas y así contribuir a la mercantilización de la seguridad de las mujeres. Al generar una expectativa de que las mujeres inviertan tiempo y energía en su propia seguridad, la atención sobre la responsabilidad de la violencia de género se transmite a la víctima.

Estas consideraciones nos llevan de vuelta a uno de los grandes problemas que plantea el uso de tecnología para la solución de problemas sociales complejos. Intentar resolver problemas a través de una aplicación con frecuencia no es más que aplicar compresas tibias a una enfermedad grave: sí, debemos ofrecer a las mujeres (y en general, a las víctimas de violencia) herramientas para protegerse de situaciones de riesgo, pero no debemos permitir que esto oculte el origen estructural, social y cultural de la violencia de género, cuya solución requiere de la implementación transversal de políticas públicas adecuadas. Mientras las raíces profundas del problema no sean resueltas, fomentar el uso de aplicaciones para minimizar las consecuencias de la violencia de género podría estar contribuyendo a perpetuar la peligrosa creencia de que la seguridad de las mujeres es su propia responsabilidad.

Las ciudades inteligentes y el problema de la vigilancia

Las ciudades inteligentes, o smart cities, han sido promovidas como uno de los últimos grandes logros provenientes de la reunión entre tecnología y prácticas sociales. Grandes empresas globales -entre las que se cuentan Siemens, Cisco y Telefónica- han comenzado a desarrollar e implementar proyectos que buscan cambiar la forma en que habitamos la ciudad, de manera que una serie de cuestiones relativas a la vida urbana se hallan ahora adosadas al adjetivo smart: transporte inteligente, manejo de residuos inteligente, energía inteligente, salud inteligente y seguridad inteligente. Estas etiquetas buscan alinear los desarrollos de las tecnologías digitales, generar espacio para la innovación y gestionar de mejor forma los entornos urbanos. El argumento subyacente es que las tecnologías ofrecen una oportunidad para el desarrollo y resultaría contraintuitivo oponerse.

Sin embargo, sí resulta adecuado poner en entredicho los eventuales avances que promueven las tecnologías smart. Principalmente, porque sitúan a las tecnologías en una dimensión que naturaliza su aporte al desarrollo: con más tecnología, se nos dice, estaremos siempre mejor. Pero existen ámbitos en los cuales la tecnología no es siempre una respuesta o, al menos, donde la inclusión de tecnología puede generar riesgos mayores a sus eventuales beneficios. Un aspecto donde esto resulta especialmente importante es el de la privacidad.

Varios autores han dado cuenta de las implicancias de las tecnologías de la vigilancia en las ciudades contemporáneas, destacando cómo estas tecnologías se vinculan con proyectos smart. Fernanda Bruno, por ejemplo, ha señalado que vivimos en un contexto de vigilancia distribuida, juicio que se torna razonable al observar cómo los circuitos de vigilancia -pública y privada- han plagado ciudades como Londres.

La contracara evidente del problema de la vigilancia es el valor que asignamos a nuestra privacidad, sobre todo en espacios públicos. Una cuestión que se mostró abiertamente en tensión en el caso de los globos de vigilancia en Santiago. Esta problemática no ha sido ajena a otras latitudes, donde las políticas smart ya cuentan con más años de despliegue. Es el caso de Holanda, donde un grupo de investigadores ha dado cuenta cómo las nociones en torno a la privacidad se ven afectadas por estos procesos. Luego su investigación en Amsterdam concluyen que un componente central de la población es la de ambivalencia ante la inclusión de estas tecnologías: si bien por un lado se reconoce el eventual valor de ellas, la recolección automática de datos en el espacio público eleva grandes dudas, especialmente en lo referente al gobierno de tales datos, los permisos asociados a estos y sus posibles usos.

El uso generalizado de tecnologías de vigilancia en centros urbanos, el discurso smart asociado a tales desarrollos y las adecuadas consideraciones de la población en torno al uso de datos recabados en el espacio público, sitúan la pregunta por las tecnologías smart en una dimensión que va más allá del mero -y supuesto- desarrollo. En el caso latinoamericano esto queda en evidencia: Santiago de Chile ya firmó un convenio con CISCO, mientras que en Río ya se ha denunciado las implicancias de las tecnologías smart para el transporte público.

Es en esta línea que, recientemente, un núcleo de investigadores planteó la pregunta por la ética de los datos. Esto resulta de vital interés, pues permite cuestionar los valía de la aplicación de nuevas tecnologías más allá del argumento de la eficiencia. En buena hora, se vuelve a plantear la pregunta por la tecnología y sus implicancias, atendiendo a para qué las necesitamos y cuáles son los costos asociados a su implementación. Lo anterior permite plantear la pregunta por el adecuado uso de los datos en el contexto de las smart cities, tal como lo ha postulado Kitchin.

El creciente interés que despiertan estas temáticas en la comunidad académica dista, con mucho, de lo que se puede observar en la realidad chilena. Mientras la discusión legislativa se dilata de formas inexplicables, en el contexto de una ley que ya en 1999 se encontraba desactualizada respecto a las tecnologías existentes, las prácticas tecnológicas que posibilitan sistemas como Transantiago ponen en entredicho nuestros derechos cotidianamente.

En esta línea, a nivel latinoamericano la cuestión no es mejor. Tal como fue presentado en Latin America in a Glimpse (pág. 11), la inversión en software de vigilancia como la realizada en México, así como el bloqueo de WhatsApp acontecido en Brasil, son antecedentes que debieran elevar alertas. Particularmente, apuntando a identificar que hoy, más que nunca, la privacidad es un concepto en disputa.

Un sistema que no mejora la democracia

En países con baja legitimación de sus sistemas políticos es frecuente oír, luego de cada elección de cargos públicos, propuestas tendientes a mejorar aspectos como la participación, la transparencia o la representatividad. En dicho escenario, el voto electrónico se alza por sus promotores como una alternativa viable y segura, en sintonía con la modernización de nuestras instituciones.

Sin embargo, la tecnología no es neutra y su relación con los diversos aspectos de nuestra vida social debe ser analizada bajo el lente de los derechos fundamentales. Cabe preguntarnos entonces si el sistema de votación electrónica es un mecanismo que refuerce las garantías democráticas al interior de las elecciones.

Y al respecto, hay que ser enfáticos: el voto electrónico no es seguro ni refuerza los valores democráticos que pretende, en el discurso, reforzar. Más aún, un sistema de votación que incorpore una máquina o programa ajeno al votante, difícilmente puede considerarse un mecanismo democrático.

En toda elección, la participación de los ciudadanos no se agota en la emisión del sufragio, sino en el derecho a supervisar y auditar el acto electoral, que se supone público y transparente. Así, los sistemas de votación de boleta de papel se han caracterizado por su horizontalidad en cuanto a participación se refiere: con una simple instrucción previa y uso de aritmética básica, gran parte de la población puede hacerse parte en el proceso de contar y supervisar una elección.

El voto electrónico implica necesariamente incluir software y hardware en alguna etapa de la votación. Esto hace que el sistema se vuelva opaco para el votante, cuya complejidad técnica impide la capacidad de control ciudadano durante el proceso, quedando relegado a un sector reducido de la sociedad civil: los expertos. En dicha línea falló el Tribunal Constitucional Federal de Alemania al declarar inconstitucional su sistema de votación electrónica, pues la elección en tanto acto público requiere ser entendida por cualquier ciudadano, sin necesidad de conocimientos técnicos específicos.

Por otra parte, la posibilidad de afirmar que un sistema informático es plenamente seguro, o libre de intervenciones, es casi imposible dadas las características propias de la infraestructura involucrada. Y, además, para que técnicos informáticos puedan llegar a esa conclusión es necesario recopilar gran cantidad de información, lo que pone en riesgo el secreto del voto que, como mencionamos anteriormente, es otro aspecto vital en una democracia sana.

La experiencia en la región en los últimos años ha sido concordante con esta postura. Observando al sistema vot.ar de la Ciudad Autónoma de Buenos Aires, expertos identificaron que las boletas podían ser individualizadas; hallaron la posibilidad de que una boleta tuviera más de un voto, e incluso que el voto fuera leído por un teléfono celular tan solo acercándolo a la boleta.

Alimenta la gravedad de los hechos el constatar que dos días antes de esas elecciones, un informe de la Policía Metropolitana anunciaba un grave ataque informático a los servidores de la empresa MSA, a cargo de todo el proceso electoral..

En Chile, tanto en las elecciones de la Agrupación Nacional de Empleados Fiscales (ANEF) como en la del partido Unión Demócrata Independiente UDI se experimentaron fallas en la seguridad y estabilidad, quedando abierta la discusión sobre la factibilidad técnica de la iniciativa.

No es desconocido para nadie que las tecnologías han contribuido considerablemente en el desarrollo de nuestra sociedad. Sin embargo, si algunos de sus avances resultan perjudiciales para aquellos principios democráticos que inspiran un sistema electoral, su aplicación debe ser descartada. El voto electrónico provoca un quiebre en la horizontalidad de una elección, al dejar solo a manos de unos pocos el poder de asegurar que un proceso es seguro, si es que asumimos que esa labor sea posible.

Facebook no es gratis y nunca lo será

En los últimos meses, y especialmente luego de las elecciones en Estados Unidos donde Donald Trump fue electo presidente, mucho se ha discutido sobre la incapacidad de Facebook para responder al enorme poder que tiene. Aunque se niegue a asumirlo, esta red social se ha convertido en la puerta de entrada a los medios y la opinión pública. Y la verdad es que en estos tiempos, sus políticas internas determinan nuestra relación con el mundo.

¿Te has preguntado qué pasa con los datos que subes a Facebook? Fotos, textos, videos, ubicación, toda nuestra información queda alojada en sus servidores. Esto no es un secreto en sentido estricto, está explícito en sus Términos y Condiciones, así que lo sabemos o deberíamos saberlo si nos proponemos leer todo el documento antes de aceptarlo. En cualquier caso, Facebook está actualizando sus Términos permanentemente.

Pero de manera implícita, casi todo lo que hacemos mientras navegamos en internet puede ser rastreado por esta compañía. Hoy día, muchos sitios tienen plug-ins de Facebook, que le permiten tener acceso a nuestro identificador de usuario y así conocer los sitios web que estamos visitando, la fecha y hora en que lo hacemos, y otra información relacionada con el navegador. Según Facebook eso es necesario para mejorar sus productos y servicios y para mostrarnos anuncios más interesantes y útiles.

En otras palabras, para Facebook, sus casi 2.000 millones de usuarios no somos más que consumidores y por eso, nuestros datos son utilizados para capitalizar su negocio, sin importar si estamos o no de acuerdo. Facebook tiene acceso a nuestros hábitos e ideas: a dónde vamos, dónde almorzamos, con quién tenemos relaciones amorosas o relaciones cercanas, por cuánto tiempo, qué compramos, dónde compramos, qué opinión tenemos sobre religión, política y muchos más; incluso puede predecir el futuro, ¿quieres intentarlo?

Pero no vayamos tan adentro de la red. Al fin y al cabo, sobre nuestros datos en Facebook la información a la que tenemos acceso es, por lo menos, vaga. Mejor tengamos en cuenta que la empresa almacenará nuestros datos durante el tiempo que lo requiera y en la medida que los pueda necesitar para ofrecernos servicios a sus usuarios o “a otras personas”. ¿Qué significa esto? Que como usuario o usuaria, pierdes el control sobre la información tuya alojada en la plataforma, sin importar si cancelas tu cuenta. Puede ser que tus datos nunca sean eliminados de los servidores de Facebook.

¿Y qué pasa, por ejemplo, con las imágenes que cargamos en la plataforma? Puedes hacer un sencillo experimento. Carga una fotografía cualquiera; anota la URL de la imagen en un editor de texto; elimina el post; dirígete a la URL de la imagen. La imagen no estará disponible en ese momento. Posiblemente sirva para ofrecer servicios a “otras personas”, nunca lo sabremos, pero es claro que la imagen no será eliminada.

¿Y qué implicaciones puede tener eso en nuestras vidas? Probablemente ninguna, eso tiene que ver con lo que cada quien hace en su vida y lo que quiere que Facebook sepa o no sepa. Cada persona en Facebook puede enfrentar riesgos distintos: el acoso, la censura, la persecución, el robo de información, entre muchos otros. Pero veamos algunos ejemplos:

Digamos que eres padre de un hijo muy lindo y en la fecha de su cumpleaños hiciste una fiesta de disfraces. A él le gusta el terror, así que se disfraza de monstruo. Sacaste muchas fotos y las subiste a Facebook. ¿Qué puede pasar en el futuro con estas? ¿O en el presente? Indudablemente las fotos están allí con tu consentimiento, pero algo que parece inocente en el presente, en otros contextos podría servir para cosas que no pensábamos, por ejemplo construir el perfil de un criminal.

Ahora imaginemos que eres una activista que trabaja el tema del Aborto (que está criminalizado en algunos países en América Latina). Tienes una foto en Facebook donde aparecen más integrantes de un colectivo que trabaja por la misma causa. La posibilidad de identificarles visualmente, así como los lugares donde se encuentran o se ponen cita, o los atuendos que utilizan, facilita a posibles agresores identificarles físicamente, en la calle, en los espacios de trabajo o incluso en su casa. Es cuestión de investigar un poco.

En este último caso, el gobierno podría además empezar a perseguir y acusar penalmente  activistas (no solo que defienden el aborto sino también causas ecologistas, ocupaciones, etc.) y pedir oficialmente información a Facebook. Y es sabido que Facebook entrega esta información.

Finalmente, piensa cuánta información compartes en Facebook cuando instalas sus aplicaciones en tu teléfono: contactos, calendario, su ubicación; identidad y estado del teléfono; SMS; contenido de la tarjeta SD; descargar archivos sin notificación; saber el estado de la red y su servicio de internet. Además, estás de “acuerdo” que todas las informaciones que colecta Facebook puedan ser compartidas con sus socios. Por suerte, la aplicación de Messenger ahora tiene chat cifrado, pero… Ya hablamos de lo que hacen con nuestros datos.

Sin embargo, creemos que la solución no es perder la calma ni salir corriendo a cerrar nuestra cuenta. Si quieres seguir usando Facebook, preparamos una lista de enlaces donde puedes leer más sobre cómo protegerte en las redes sociales:

El Foro de Gobernanza de Internet en un país autoritario

México atraviesa una grave crisis de derechos humanos. Sin embargo, es la sede del Foro de Gobernanza de Internet (IGF) —un evento de Naciones Unidas que cada año reúne a gente de academia, gobiernos, activistas y empresarios para discutir los temas más controversiales en la red. Entre desapariciones forzadas, torturas, asesinatos de periodistas, corrupción e impunidad, cientos de personas de todo el mundo debaten algo crucial: cómo hacer de internet un espacio más democrático.

La paradoja es evidente. Los derechos humanos online y offline no pueden disgregarse. En la ceremonia de bienvenida, el gobierno mexicano se encargó de recordar la prohibición de protestar, repartir panfletos o hacer críticas dirigidas, y además organizó una cena de gala privada, rompiendo con la tradición del evento que busca reunir a los diferentes sectores. ¿Cuál es la razón de la exclusión? ¿Tanto temen a la crítica?

Hay que decirlo con todas sus letras: México no es ningún ejemplo de democracia digital. El espionaje ilegal es más que común y se usa para intimidar a periodistas y opositores políticos. Además, la violencia en línea es un método predominante de intimidación y las autoridades mexicanas hacen poco para contrarrestarla.

En cuanto a la vigilancia, sabemos que el gobierno interviene comunicaciones privadas y obtienen metadatos de usuarios y su geolocalización en tiempo real a través de medios ilegales. Según un reciente informe de la Red en Defensa de los Derechos Digitales, el 99% de estos actos se hacen sin orden judicial.

Red en defensa de los derechos digitales

El organismo de inteligencia nacional (CISEN) dice haber obtenido 2002 autorizaciones judiciales para intervenir comunicaciones privadas, pero los jueces aseguran que fueron únicamente 654. Además, la Policía Federal vigiló 1781 dispositivos, aun cuando solo tenía autorización sobre 205. Intervenir comunicaciones sin orden judicial va en contra de lo que dice la propia Constitución. Y dicha ilegalidad es muy preocupante en un país corrupto donde periodistas han denunciado los nexos del gobierno con el crimen organizado y donde desaparecen estudiantes y se reprimen protestas, entre otros crímenes: la vigilancia, lejos de ayudar a combatir el crimen, se usa para perseguir la disidencia.

Red en defensa de los derechos digitales

Pero resulta más grave el hecho de que el estado mexicano use malware de vigilancia para silenciar a periodistas y opositores políticos. El gobierno mexicano es el cliente más importante de Hacking Team –la empresa italiana que vende uno de los software más intrusivos en el mercado-, pero además ha comprado estos programas a otras empresas como NSO Group, usándolo para espiar a periodistas disidentes que han descubierto escándalos de corrupción del presidente Enrique Peña Nieto. Por si fuera poco, durante la campaña presidencial de 2012, quienes ahora ejercen el poder contrataron a un hacker para espiar a sus opositores políticos durante la campaña.

En este contexto, la libertad de expresión está bajo fuego constante. Según la organización Artículo 19, desde que empezó la llamada “guerra contra el narco” en el año 2000, 99 periodistas han sido asesinados. Además, el 46.7% de las agresiones contra la prensa vienen de los gobiernos. Estos actos tienen un potente efecto silenciador, tanto en el mundo offline como en internet. Por otra parte el acoso, especialmente mediante amenazas en plataformas de redes sociales, se ha consolidado como una forma para intimidar, infundir miedo y silenciar: tanto activistas feministas como periodistas y caricaturistas críticos han sido amedrentados por esta vía y las autoridades no han sabido responder frente a estos hechos.

Artículo 19

En México, como en el resto de América Latina, la realidad en línea es un reflejo del autoritarismo y la violencia que se vive día a día. No puede existir una seria discusión sobre la apertura y democracia en internet, con graves violaciones a derechos humanos de por medio. El gobierno mexicano tiene mucho por hacer.

Filtración de TiSA. Los temores se confirman

Hace unos meses reportamos sobre los avances en la negociación del “Trade in Services Agreement” (TiSA), con la información a la que tuvimos acceso a través del “cuarto adjunto” en Chile. Se trata de otro tratado negociado de espaldas a la ciudadanía. Siendo TiSA un tratado dedicado exclusivamente a servicios, en principio no ha parecido tener capítulos con el mismo nivel de controversia sobre TPP, como propiedad intelectual, inversiones y solución de controversias inversionista-Estado; por esta razón, ha pasado mucho más desapercibido para la sociedad civil y la opinión pública, escandalizada con el TPP.

Por lo mismo, podría suponerse que el contenido de TiSA no sería tan problemático como el del TPP,  que hace tan poco dimos por muerto. Sin embargo, el pasado 25 de noviembre, netzpolitik.org en conjunto con Greenpeace, filtraron una serie de borradores de algunos anexos del tratado, que sigue en negociación. Se trata de los anexos sobre Telecomunicaciones y sobre Comercio Electrónico, cuestiones clave para el desarrollo de internet. El contenido de estos documentos es sumamente preocupante y merece un análisis en profundidad, pues varios países latinoamericanos están participando de esta negociación, que amenaza aspectos claves de los derechos humanos en internet.

Una mala fórmula para la protección de intermediarios

En una disposición recientemente propuesta por Estados Unidos, se consagra un que puede resultar sumamente perjudicial para la libertad de expresión. El artículo X.X (entre los artículos 11 y 12) del anexo sobre Comercio Electrónico establece que ningún país miembro podrá considerar a un servicio de plataforma interactiva como “proveedor de contenido” al momento de determinar la responsabilidad en daños ocasionados por la información contenida, procesada o distribuida a través de sus servicios. Esto es, que servicios como YouTube, Facebook y otros no serán responsables por el contenido que sea subido a sus plataformas por los usuarios (excluyendo las infracciones a la propiedad intelectual, sujetas a otras reglas).

Al permitir que las plataformas no se transformen en guardianes del contenido que sus usuarios suben, esta cláusula es un importante resguardo para la libertad de expresión en Estados Unidos. La redacción de la propuesta parece estar inspirada en la sección 230 de la Communication Decency Act estadounidense. Sin embargo, la misma propuesta establece que estos mismos intermediarios no serán responsables cuando supriman, de forma proactiva, el acceso o disponibilidad de material “objetable o dañino”, cuando esta acción sea realizada de buena fe. Es decir, se establece la posibilidad de que las plataformas no sean responsables cuando retiren contenidos arbitrariamente, aun cuando este contenido no sea ilegal.

En casos en que el retiro de contenido afecte derechos como la libertad de expresión, corresponde que sean entes imparciales quienes decidan, por ejemplo tribunales de justicia, y no las empresas privadas, cuyas decisiones pueden constituir censura. En estas condiciones, la propuesta permite la censura sin atender a los Principios de Manila. Y la misma irresponsabilidad existiría cuando el retiro o bloqueo se produzca por medios técnicos, como ContentID. Teniendo en cuenta que cada día más servicios acuden a algoritmos para bajar contenido, esta presunción puede proteger a los intermediarios en casos graves de censura automatizada y arbitraria.

Neutralidad de la red, aún más descafeinada

La neutralidad de la red es uno de los principios básicos de internet como lo conocemos, y consiste en que los proveedores de internet deben tratar todos los bits de información del mismo modo, sin bloquear o privilegiar conexiones mientras no haya fundamento legal.

En el anexo de Comercio Electrónico (artículo 7.1 a), se reconocen los beneficios del acceso y uso de servicios y aplicaciones en internet, sujeto a la gestión razonable de redes. A esa “gestión razonable”, la Unión Europea propone agregar “no discriminatoria”, como permiten varias reglas de neutralidad de la red hoy vigentes para la gestión del tráfico de datos. No obstante, Estados Unidos y Colombia se oponen a la incorporación de dicha expresión, mutilando así un aspecto clave del principio de neutralidad de la red. También resulta desconcertante que el resto de los países de América Latina, muchos de los cuales ya cuentan con legislación que consagra la neutralidad de la red, no estén apoyando la incorporación de este concepto clave.

Desprotección de datos personales

Uno de los puntos más sensibles sobre TPP y TiSA ha sido el estado de la protección de datos personales frente al defendido principio de la libertad en el flujo de datos. En un contexto de continuo desencuentro entre la Unión Europea y Estados Unidos por la protección de datos tras las revelaciones de Snowden, TiSA aparece como una oportunidad clave para que la libre circulación de la información, a favor del comercio, eluda las trabas que le significan los derechos de las personas sobre sus datos.

Al igual que TPP, TiSA (artículo 4.3 del anexo de Comercio Electrónico) contiene disposiciones que obligan a sus países miembro a permitir el tráfico transfronterizo de datos personales, pero sin la obligación de certificar que el país receptor mantiene un nivel adecuado de resguardo de la privacidad o de protección de datos personales, sino proponiendo flexibilidades y exigencias blandas de protección similar. El borrador filtrado también prohíbe que los países condicionen la entrega de un servicio al hecho de que el servidor se encuentre ubicado dentro del territorio nacional del país miembro. Aunque en este último caso las leyes de datos personales suelen ser una limitación válida, no todos los países cuentan con tales reglas.

¿Entorpeciendo la difusión del software libre?

Al igual que TPP, el anexo de Comercio Electrónico de TiSA prohíbe a sus países miembro condicionar la comercialización de un software cuyo código sea abierto o revelado (Artículo 6.1). Si bien el artículo 6.3 a) aclara que nada impide a las partes negociar privada o contractualmente, a través de términos y condiciones, que el software sea de código abierto (por ejemplo, mediante una licencia de uso), la prohibición general significa que, de aplicarse estas reglas a la adquisición de software por un Estado (como parece buscar la Unión Europea en el artículo 5 a), el Estado puede encontrarse atado de manos para implementar políticas públicas que impliquen el uso de software libre.

La redacción de esta disposición es peor que la contenida en el TPP, el cual (Artículo 14.17.2) restringe la aplicación de esta prohibición a productos de mercados masivos que contengan tal programa informático, y no incluye los programas informáticos utilizados para la infraestructura crítica de un país. La redacción contenida en TiSA, por tanto, resta soberanía a los estados para implementar políticas públicas relacionadas con el software libre.

Pasos a seguir

Contrario a la creencia de que, por tratarse de un tratado dedicado a la regulación de servicios, TiSA sería poco polémico, la filtración de estos borradores ha confirmado que el secretismo en la negociación supone un riesgo para la garantía de los derechos fundamentales. Debemos exigir a los gobiernos de América Latina que levanten la voz, que negocien de manera transparente, que abran la discusión a la ciudadanía, la academia y la sociedad civil. En lo inmediato, deben también oponerse tenazmente a las disposiciones que vulneran los derechos fundamentales de sus habitantes, y a aquellas disposiciones que comprometen el ejercicio de derechos humanos en internet.

Por la eliminación de las violencias contra las mujeres

Luego de su denuncia, en el grupo donde inicialmente se la había comparado con un trozo de comida, apareció una nueva imagen de ella con un ojo morado, bajo el título “cuando el heteropatriarcado te pone en tu lugar”. Ante este hecho, que fue comentado por la columnista feminista Catalina Ruiz Navarro, se generó un debate público alrededor de la función social del humor y el ejercicio del derecho a la libertad de expresión en internet, frente al derecho de las mujeres a vivir libres de violencias.

En la Universidad de Los Andes, por ejemplo, algunas estudiantes se manifestaron pintándose un ojo morado, a lo cual los administradores del grupo (en su mayoría hombres) respondieron armándose de bates y pistolas de papel para reivindicar su derecho al humor y reafirmar el carácter inofensivo de sus acciones. Y todo el debate se trasladó nuevamente a las redes sociales.

Ante este tipo de hechos, socialmente se suele cuestionar la relación –directa o indirecta- entre una agresión en línea y la violencia física contra las mujeres, así como contra grupos LGBTI. Sin embargo, desde hace varios años se han venido documentando y caracterizado patrones de agresión, y a nivel internacional se ha avanzado en el reconocimiento jurídico de dicha violencia, sobre todo a través de mecanismos de protección para niños, niñas y adolescentes.

Las principales víctimas de la violencia en línea son las mujeres con perfiles públicos y que participan en espacios de comunicación (como periodistas, investigadoras, activistas y artistas), junto con aquellas que sostienen una relación de pareja violenta y quienes han sobrevivido a la violencia física o sexual. Esto evidencia que la violencia en línea es una extensión de las formas tradicionales de violencia contra las mujeres y en esa medida debe ser combatida, lo cual supone por lo menos dos problemas: la asignación de responsabilidad a proveedores de servicios de internet y las posibles limitaciones al ejercicio de la libertad de expresión, como resultado de acciones de protección que puedan tender a la censura arbitraria de contenidos.

En Colombia, ante un precario desarrollo legal en la materia, para el reconocimiento de este tipo de violencia es necesario apelar a los delitos de injuria y calumnia, a delitos informáticos o eventualmente a la ley antidiscriminación. Aun así, es difícil garantizar que se adelantará una investigación y que llegará a término, y es aún más difícil garantizar la protección efectiva de la víctima. Este panorama es alarmante si se tiene en cuenta que durante 2015, en el país se denunciaron 16 mil casos de violencia sexual y 1.007 mujeres fueron asesinadas. Y el caso colombiano no se destaca frente a las cifras de feminicidio en otros países de la región y el mundo.

Por eso, en el día por la eliminación de la violencia contra las mujeres #25N es necesario, una vez más, reconocer la importancia de trabajar conjuntamente por construir espacios físicos y virtuales libres de violencias contra las mujeres, las comunidades LGBTI y las disidencias sexuales.

El rostro oculto del reconocimiento facial

Según declaró Claudio Orrego, intendente de la ciudad de Santiago, en diciembre de este año el Estado chileno adquirirá un software de reconocimiento facial para ser utilizado en el control de la violencia en los estadios y “con motivo de otros temas de seguridad del Estado”, por ejemplo el control de marchas y manifestaciones. Este sistema contará con los datos del Servicio de Registro Civil e Identificación, una base de datos que cuenta con las fotografías y la información personal de 17 millones de ciudadanos, y será manejado por una oficina central de la policía, quienes estarán a cargo de contrastar las imágenes tomadas por las cámaras de vigilancia contra la inmensa base de datos, a través del software especializado.

Por supuesto, Chile no es el primer país en implementar tecnologías de reconocimiento facial con finalidades de preservación del orden público. Sin ir muy lejos, el gobierno de los Estados Unidos utiliza estas tecnologías desde hace varios años, y se estima que uno de cada cuatro de sus departamentos policiales en al menos 26 estados tienen acceso a una base de datos que, a la fecha, contendría los rostros y datos personales de al menos la mitad de los ciudadanos. En Colombia, las autoridades comenzaron a implementar el año pasado el uso del software Face First en el sistema de transporte público urbano, con la finalidad de enviar alertas a través de las diferentes estaciones, así como a otros sitios, como estadios de fútbol.

Investigadores especializados han señalado que, a pesar de que esta tecnología pueda ser útil para ayudar a localizar a criminales violentos, existen riesgos implícitos en los posibles usos que pueda dársele. Por ejemplo, su utilización en protestas y manifestaciones (como ha ocurrido en Brasil y como ocurriría en Chile) podría comprometer las libertades básicas, incluyendo la libertad de expresión y manifestación, que incluye el derecho a expresarse anónimamente.

La tecnología de reconocimiento facial funciona a través de un análisis de diversos rasgos físicos, incluyendo factores como las dimensiones del rostro, la forma de los pómulos, el ancho de la nariz y la longitud de la frente. Con esta información, busca coincidencias en la base de datos hasta encontrar una o más personas cuyo perfil corresponda a los rasgos identificados. Sin embargo, un estudio reciente de la Universidad de Georgetown encontró evidencia de que el software de reconocimiento facial presenta fallas cuando la iluminación varía, y no funciona de manera precisa con personas de piel oscura, lo que resultaría en un mayor número de personas inocentes siendo indebida e innecesariamente detenidas.

Del mismo modo, con bases de datos de poblaciones amplias, es inevitable el surgimiento de falsas coincidencias. En casos como el de Steve Talley, quien ha sido reiteradamente apresado por errores en el sistema de reconocimiento facial, las implicaciones para los derechos humanos más básicos son obvias, y ponen en evidencia el principal problema de todas las tecnologías de autenticación biométrica: la dificultad de cambiar un rostro o una huella digital, una vez que este ha sido comprometido como mecanismo de reconocimiento.  Por otra parte, para una persona consciente de que está siendo vigilada, es relativamente fácil engañar a una cámara, y esto ha dado lugar al surgimiento de una serie de acciones, algunas más cercanas a la protesta y otras al performance artístico, que buscan mecanismos para escapar a la vigilancia; en ocasiones, basta con utilizar los anteojos adecuados.

Si bien algunos alegan que los problemas inherentes al reconocimiento facial pueden ser minimizados a través de un grado mínimo de intervención humana, el cual evitaría que el reconocimiento automatizado produjera falsos positivos, en otros casos el sesgo humano podría profundizar las fallas de la tecnología. Los falsos positivos terminan por forzar a los ciudadanos a probar que no son culpables, invirtiendo la carga de la prueba incluso antes de que comience el proceso y subvirtiendo así el principio básico de la presunción de inocencia. Cualquier implementación de un sistema biométrico de vigilancia debe, pues, partir de la presunción de que todo software puede fallar, y del establecimiento de estándares básicos de protección de los derechos humanos para evitar que estas fallas afecten negativamente las libertades y garantías ciudadanas.