¿Quién está utilizando malware en México?

Lo que pasa en México nos comprueba que a pesar de esta retórica, los invasivos programas de vigilancia se usan contra periodistas, opositores políticos y activistas. A la fecha, no hemos sabido de un solo caso en el que dichas herramientas hayan ayudado a la captura de algún miembro de los carteles de droga. Y en cambio, los ejemplos contrarios abundan.

Hae pocos días, el New York Times y Citizen Lab publicaron una investigación, que revela cómo un investigador del Instituto Nacional de Salud Pública y dos directores de organizaciones no gubernamentales recibieron mensajes SMS con hipervínculos a un malware específico: Pegasus, de la empresa israelí NSO Group. Estas tres personas tienen en común su oposición pública a las compañías de refresco y desde 2014 han promovido grandes campañas para subir el impuesto a las bebidas azucaradas, por los problemas de salud y obesidad que estas generan.

Los mensajes utilizados para infectar los dispositivos de ellos tenían un alto grado de ingeniería social: sabían cómo hablarles y de qué forma llegar a ellos para hacerlos dar click a los hipervínculos maliciosos. Desde notas periodísticas con sus nombres hasta falsas infidelidades de sus parejas y supuestos accidentes de hijos.

Según Citizen Lab, aunque no es seguro que el gobierno mexicano esté involucrado en esta labor de espionaje, sí hay una alta probabilidad. Primero, porque según NSO Group solo venden este tipo de tecnología a gobiernos; segundo, porque ya en 2012 se confirmó que el estado mexicano le había pagado a la empresa 20 millones de dólares por sus productos; y tercero, porque no es la primera vez que pasa.

En este nuevo caso, llama la atención que el programa de vigilancia se haya querido utilizar para vigilar, o simplemente para amedrentar, a activistas cuya labor podría afectar intereses comerciales de las compañías refresqueras. Sin embargo, ya en agosto de 2016 supimos que el mismo malware había sido enviado a Rafael Cabrera, un periodista líder en la investigación sobre la Casa Blanca: uno de los más grandes casos de corrupción que se han denunciado en el periodo de presidencia de Enrique Peña Nieto, actual presidente de México.

Para R3D y Social TIC, las dos organizaciones mexicanas que alertaron sobre los casos de los activistas anti-refrescos e iniciaron la documentación de los mismos, esto demuestra que el espionaje en México “está fuera de control”.

Desde de 2015 supimos que el gobierno mexicano era el cliente más importante de Hacking Team, la empresa italiana que vende Galileo, otro invasivo programa que tiene la capacidad de activar micrófonos y cámaras de forma remota, acceder a correos electrónicos, historiales de navegación y otra información sensible. Además, es sabido que en este país el malware fue utilizado en contra de opositores políticos durante las campañas electorales.

Igual de grave resulta el hecho de que, según un reciente informe de R3D, el 99% de actos de vigilancia a las comunicaciones se realizan de forma ilegal, ya sea porque no cuentan con el respaldo de una orden judicial o porque las autoridades que compran este tipo de programas no tienen la autorización para usarlos.

No es una cosa de ciencia ficción: el espionaje es algo real, utilizado de forma desproporcionada en un país que atraviesa una grave crisis de derechos humanos. Sin controles democráticos adecuados, estas prácticas violan no solo el derecho a la privacidad, sino también a la libertad de expresión de la ciudadanía.

Privacidad al estilo Trump

El celular se ha convertido en una extensión de nuestro cuerpo y nuestras ideas. Dormimos y vamos al baño con él, lo revisamos permanentemente. Las diferentes apps y redes sociales encierran nuestros pensamientos, dudas e intereses. Rara vez lo soltamos. Siempre está a nuestro lado. Por eso, no sorprende que los gobiernos –además de las empresas- quieran todos esos datos. Son una mina de oro para conocer las “verdades” de una persona. O mejor, de un grupo de personas.

En Estados Unidos, la era Trump recién comienza y ya vaticina una lógica perversa: acciones gubernamentales para apoderarse de los datos personales y privados de las personas, que aunque entren en el campo de la legalidad no dejan de ser contrarias a los derechos humanos. Para comenzar, la prohibición, durante 90 días, de la entrada a personas de países mayoritariamente musulmanes, y durante 120 días, a refugiados. En la sección 14 de dicha acción –que en teoría fortalecería las leyes migratorias de Estados Unidos- el presidente ordenó que las autoridades “excluyeran a personas que no fueran ciudadanas del país o residentes legales de las protecciones de la Privacy Act, al tratarse de información personal identificable”. Y así, de un plumazo, despojó a los extranjeros en ese país, de su derecho a la privacidad.

Días después de la acción ejecutiva, una mujer mexicana iba de compras a ese país, pero al cruzar la frontera le quitaron su celular, lo revisaron y encontraron memes y mensajes de burla a Trump. Eso fue suficiente para quitarle la visa y confiscarle el teléfono. Nunca le dijeron por qué no la estaban dejando pasar, ni qué “falta” había cometido. Poco importó el paraguas protector de la Primera Enmienda, uno de los estándares más amplios para la libertad de expresión en el mundo.

Pero burlarse de Trump con memes es un ejercicio expresivo válido, legal y además merece extra protección por ser parte del discurso político. Además, los memes que una persona tenga guardados en su celular hacen parte de su información privada y por tanto, deben estar sujetos al derecho a la privacidad. Sin embargo, la acción ya se ha ejecutado.

Por otra parte, algunos medios estadounidenses han dicho que el Departamento de Seguridad Nacional “podría” pedir contraseñas a quien ingrese en su territorio, algo que ya está pasando y es una realidad. En febrero, un periodista tuiteó que a un compañero suyo le pidieron entregar la llave maestra de su administrador de contraseñas para revisar sus redes sociales, correos y mensajes. Los peligros que esto implica en términos de confidencialidad y protección de fuentes, no tienen comparación.

Sobre la legalidad, o no, de revisar los celulares en la frontera no hay claridad, pues la técnica hasta ahora ha sido pedir las contraseñas “de forma voluntaria” cuando exista “sospecha razonable” de una persona (lo que sea que signifique eso). Bajo este supuesto, la entrega de dichos datos podría interpretarse como consentimiento por parte de quien los posea. Pero al no entregarlos, ea persona se somete a no poder ingresar, lo cual supone claramente un acto arbitrario.

Ya desde 2014 el gobierno de Obama permitía la búsqueda de información en celulares de personas en “listas negras” de terrorismo. Ahora, la retórica de un gobierno de derecha que considera como enemigos a prácticamente todos los extranjeros, lleva esta práctica mucho más allá.

Pero no solo los extranjeros son blanco de violaciones a su derecho a la privacidad. En estos días, el departamento de policía de Washington D.C. ordenó judicialmente a Facebook que entregara información de quienes protestaron y fueron arrestados durante la toma de posesión del presidente Trump. Entre ellos estaban dos periodistas que cubrían las marchas ese día. El mensaje que se manda es aterrador: si protestas, no solo podrían arrestarte, sino que además habría bases para revisar tus redes sociales, ¿acaso para vincularte con un comportamiento específico, con alguien más, con un lugar?

En este caso, Facebook entrega información sin rechistar (según sus propios términos y condiciones): se requiere una orden legal, vinculada a una investigación criminal para obligarlos a entregar información básica de sus usuarios como nombre, duración de la cuenta, tarjeta de crédito, correo electrónico, último login e inclusive direcciones IP. Quizás nadie previó que inclusive esto podría ser usado de forma arbitraria cuando las instituciones democráticas están en aprietos.

En ambos casos estamos hablando de un esquema de censura indirecta: sin importar de donde seamos, el miedo a que nos revisen hace que borremos cosas y nos de pavor expresarnos con libertad en nuestros celulares. Y así, el disenso y la crítica están en peligro. Por eso es que ahora más que nunca, debemos ingeniar nuevas y creativas formas de aplicar los estándares universales de derechos humanos, que están por encima de cualquier legislación nacional: no importa lo que diga Trump, tenemos derecho a expresarnos y a que nuestra privacidad se respete.

La vulnerabilidad de Whatsapp está en sus políticas

Desde que Whatsapp fue comprado por Facebook hace tres años, han surgido muchas dudas respecto a cómo esto afecta la privacidad de sus usuarios. A comienzos de 2016 la empresa comenzó a cifrar por defecto todas las conversaciones, lo cual fue celebrado en todo el mundo; pero en agosto informó que compartiría los datos de sus usuarios con Facebook, decisión que tuvo una respuesta menos favorable, que incluso fue llevada a la corte y finalmente fue rechazada en territorio europeo.

La semana pasada el diario The Guardian declaró que Whatsapp tiene una vulnerabilidad que podría ser utilizada por gobiernos como puerta trasera para espiar los mensajes de sus usuarios, de acuerdo con la investigación realizada por el criptógrafo Tobías Boelter. Tal vulnerabilidad consiste en que la aplicación puede generar una nueva clave de encriptación mientras el usuario está desconectado, por ejemplo cuando se reinstala la aplicación en un dispositivo nuevo, sin necesidad de notificarlo pero guardando los mensajes que se hayan enviado, encriptándolos nuevamente y re enviándolos con la nueva llave.

Open Whisper Systems, empresa creadora de la aplicación de mensajería Signal y del protocolo de encriptación que es utilizado también en Whatsapp, respondió que no hay tal falla sino una limitación propia de los sistemas de encriptación, y que en ningún caso se trata de una puerta trasera. Por eso la app ofrece la opción de notificación cuando se haya cambiado la clave de encriptación, lo que fortalece la seguridad en las comunicaciones.

Pero, ¿por qué no notifica siempre a sus usuarios? Porque frente a la seguridad, para Whatsapp es más importante que la experiencia de usuario sea cómoda y sencilla. Por eso no tomó medidas luego de que, en abril de 2016, Boelter les notificara la falla. Y si bien se ha dicho que la solución es tan sencilla como activar manualmente las notificaciones o que esta vulnerabilidad es pequeña aún si la persona usuaria teme ser interceptada por agencias gubernamentales, es problemático que el código de Whatsapp no sea auditable, lo que hace más difícil saber si esta limitación puede o no ser utilizada para analizar y espiar las comunicaciones.

La falla encontrada en WhatsApp es un recordatorio crítico de que las comunicaciones seguras no dependen solo de un buen protocolo, sino de la confianza en las empresas y personas que diseñan y mantienen las herramientas que utilizamos. Y en el caso de Whatsapp y su propietaria Facebook, aunque han declarado su compromiso con la seguridad de las comunicaciones frente a la solicitud por parte de gobiernos, como pasó por ejemplo en Brasil, parece cada vez más difícil confiar.

Al respecto, es necesario recordar que hace poco, Facebook comenzó a estudiar detenidamente la manera de ingresar al mercado chino, aceptando las políticas de censura en ese país, y también que ha optado por colaborar con Israel en censurar contenidos a nombre de la lucha contra los mensajes de odio, pero a costas del derecho a la libertad de expresión, principalmente de los palestinos.

Si bien es cierto que la seguridad responde a un modelo de amenazas particular para cada usuario, y que Whatsapp es una herramienta que ofrece grandes facilidades y beneficios, hoy día hay otras aplicaciones que ofrecen servicios similares pero se preocupan más por proteger las comunicaciones y menos por capitalizar al máximo los datos de sus usuarios. Un ejemplo claro es Signal, que aunque se basa en el mismo protocolo no presenta la misma falla de Whatsapp, o Wire, cuyo «más grande defecto» es que casi nadie la tiene instalada.

Eliminar la violencia de género con un clic

La violencia contra las mujeres está clasificada como un problema global de salud pública: 35% de las mujeres en todo el mundo han experimentado violencia física o sexual a lo largo de su vida, según cifras de la Organización Mundial de la Salud. La ubicuidad de la tecnología con frecuencia hace aparecer intentos de solucionar problemas humanos y sociales a través de implementaciones de software, y es así como en años recientes se han desarrollado aplicaciones en diversas partes del mundo con miras a resolver este problema, a través de diferentes aproximaciones. Algunas intentan educar a las mujeres sobre las señales tempranas del abuso doméstico, otras ofrecen mecanismos para alertar a ciertos contactos en caso de emergencia. Pero ¿pueden ofrecer estas aplicaciones una solución real a un problema tan complejo? ¿Cuáles son las implicaciones de entregar nuestra información personal en este tipo de aplicaciones?

El mismo principio se repite a través de diferentes aproximaciones tecnológicas: aplicaciones como Circle of 6maria o EasyRescue permiten a la persona en riesgo enviar una alerta con su ubicación a un contacto de confianza.  En Chile hace poco se desarrolló la aplicación Caperuza, que accede a la información de contactos de Facebook de la usuaria así como a sus datos de GPS y le permite elegir a uno o varios contactos que pueden acceder a su información de ubicación. Además, la mitad de las aplicaciones existentes en el mercado y orientadas a mitigar la violencia de género ofrecen algún tipo de «botón de pánico», mientras que «Contactos de Confianza», aplicación nativa de Google, lleva a cabo una función similar al permitir a una persona solicitar la ubicación del GPS del dispositivo de otra, que previamente le ha designado como su contacto de confianza.

Sin embargo, la utilización de este tipo de aplicaciones plantea una serie de preocupaciones respecto a la privacidad de la usuaria. Iniciar sesión en una aplicación de este tipo a través de Facebook permite a esta red social acceder a nuestra ubicación; en el caso de “Contactos de Confianza”, la aplicación requiere acceso constante al GPS del dispositivo; esto sin contar con que los teléfonos móviles son los dispositivos más inseguros y los que poseen mayor información sobre nuestras actividades. Y no se trata solo de que una empresa tenga acceso a los datos de sus usuarios; monitorizar la actividad del teléfono o la computadora de una víctima es una práctica común por parte de personas abusivas, y dependiendo de la situación, muchas de estas aplicaciones podrían facilitar, en vez de dificultar, la vigilancia de la víctima por parte de su abusador. Según el grado de capacidad técnica del agresor, la cantidad de información a la que sea capaz de acceder a través del dispositivo de la víctima o de sus redes sociales puede incluso comprometer a sus contactos de confianza.

Dependiendo del contexto, una aplicación puede resultar útil o agravar un riesgo. Si quien agrede forma parte del entorno cercano a la víctima, y por ende está en capacidad de revisar sus dispositivos, podría encontrar la aplicación y reconocerla. Por esta razón, muchas de ellas utilizan un icono que disimule su verdadera función u ofrecen protección bajo contraseña, aunque en ciertas ocasiones una aplicación protegida con contraseña puede llamar más la atención del agresor y aumentar así el riesgo. Por otra parte, el agresor podría ser un desconocido, y en este caso la posibilidad de indicar con rapidez a un contacto de confianza la ubicación específica de la víctima resulta más valioso.

Por eso es tan importante comprender el modelo de amenazas que cada persona enfrenta, antes de elegir una pieza de software que ofrezca mayor seguridad. Una aplicación que requiera acceso físico al teléfono para enviar una alerta puede no resultar útil si el modelo de amenazas considera la posibilidad de que el agresor restrinja el acceso de la víctima al dispositivo.

Lo que es más grave, un estudio del Centro de Investigación sobre Violencia y Abuso (CRiVA) que examinó el uso de estas aplicaciones, llegó a la conclusión de que su eficacia no está clara y, en muchos casos, un SMS podía producir el mismo efecto. Según la investigación, este tipo de aplicaciones podrían incrementar la tendencia a culpar a las víctimas y así contribuir a la mercantilización de la seguridad de las mujeres. Al generar una expectativa de que las mujeres inviertan tiempo y energía en su propia seguridad, la atención sobre la responsabilidad de la violencia de género se transmite a la víctima.

Estas consideraciones nos llevan de vuelta a uno de los grandes problemas que plantea el uso de tecnología para la solución de problemas sociales complejos. Intentar resolver problemas a través de una aplicación con frecuencia no es más que aplicar compresas tibias a una enfermedad grave: sí, debemos ofrecer a las mujeres (y en general, a las víctimas de violencia) herramientas para protegerse de situaciones de riesgo, pero no debemos permitir que esto oculte el origen estructural, social y cultural de la violencia de género, cuya solución requiere de la implementación transversal de políticas públicas adecuadas. Mientras las raíces profundas del problema no sean resueltas, fomentar el uso de aplicaciones para minimizar las consecuencias de la violencia de género podría estar contribuyendo a perpetuar la peligrosa creencia de que la seguridad de las mujeres es su propia responsabilidad.

Las ciudades inteligentes y el problema de la vigilancia

Las ciudades inteligentes, o smart cities, han sido promovidas como uno de los últimos grandes logros provenientes de la reunión entre tecnología y prácticas sociales. Grandes empresas globales -entre las que se cuentan Siemens, Cisco y Telefónica- han comenzado a desarrollar e implementar proyectos que buscan cambiar la forma en que habitamos la ciudad, de manera que una serie de cuestiones relativas a la vida urbana se hallan ahora adosadas al adjetivo smart: transporte inteligente, manejo de residuos inteligente, energía inteligente, salud inteligente y seguridad inteligente. Estas etiquetas buscan alinear los desarrollos de las tecnologías digitales, generar espacio para la innovación y gestionar de mejor forma los entornos urbanos. El argumento subyacente es que las tecnologías ofrecen una oportunidad para el desarrollo y resultaría contraintuitivo oponerse.

Sin embargo, sí resulta adecuado poner en entredicho los eventuales avances que promueven las tecnologías smart. Principalmente, porque sitúan a las tecnologías en una dimensión que naturaliza su aporte al desarrollo: con más tecnología, se nos dice, estaremos siempre mejor. Pero existen ámbitos en los cuales la tecnología no es siempre una respuesta o, al menos, donde la inclusión de tecnología puede generar riesgos mayores a sus eventuales beneficios. Un aspecto donde esto resulta especialmente importante es el de la privacidad.

Varios autores han dado cuenta de las implicancias de las tecnologías de la vigilancia en las ciudades contemporáneas, destacando cómo estas tecnologías se vinculan con proyectos smart. Fernanda Bruno, por ejemplo, ha señalado que vivimos en un contexto de vigilancia distribuida, juicio que se torna razonable al observar cómo los circuitos de vigilancia -pública y privada- han plagado ciudades como Londres.

La contracara evidente del problema de la vigilancia es el valor que asignamos a nuestra privacidad, sobre todo en espacios públicos. Una cuestión que se mostró abiertamente en tensión en el caso de los globos de vigilancia en Santiago. Esta problemática no ha sido ajena a otras latitudes, donde las políticas smart ya cuentan con más años de despliegue. Es el caso de Holanda, donde un grupo de investigadores ha dado cuenta cómo las nociones en torno a la privacidad se ven afectadas por estos procesos. Luego su investigación en Amsterdam concluyen que un componente central de la población es la de ambivalencia ante la inclusión de estas tecnologías: si bien por un lado se reconoce el eventual valor de ellas, la recolección automática de datos en el espacio público eleva grandes dudas, especialmente en lo referente al gobierno de tales datos, los permisos asociados a estos y sus posibles usos.

El uso generalizado de tecnologías de vigilancia en centros urbanos, el discurso smart asociado a tales desarrollos y las adecuadas consideraciones de la población en torno al uso de datos recabados en el espacio público, sitúan la pregunta por las tecnologías smart en una dimensión que va más allá del mero -y supuesto- desarrollo. En el caso latinoamericano esto queda en evidencia: Santiago de Chile ya firmó un convenio con CISCO, mientras que en Río ya se ha denunciado las implicancias de las tecnologías smart para el transporte público.

Es en esta línea que, recientemente, un núcleo de investigadores planteó la pregunta por la ética de los datos. Esto resulta de vital interés, pues permite cuestionar los valía de la aplicación de nuevas tecnologías más allá del argumento de la eficiencia. En buena hora, se vuelve a plantear la pregunta por la tecnología y sus implicancias, atendiendo a para qué las necesitamos y cuáles son los costos asociados a su implementación. Lo anterior permite plantear la pregunta por el adecuado uso de los datos en el contexto de las smart cities, tal como lo ha postulado Kitchin.

El creciente interés que despiertan estas temáticas en la comunidad académica dista, con mucho, de lo que se puede observar en la realidad chilena. Mientras la discusión legislativa se dilata de formas inexplicables, en el contexto de una ley que ya en 1999 se encontraba desactualizada respecto a las tecnologías existentes, las prácticas tecnológicas que posibilitan sistemas como Transantiago ponen en entredicho nuestros derechos cotidianamente.

En esta línea, a nivel latinoamericano la cuestión no es mejor. Tal como fue presentado en Latin America in a Glimpse (pág. 11), la inversión en software de vigilancia como la realizada en México, así como el bloqueo de WhatsApp acontecido en Brasil, son antecedentes que debieran elevar alertas. Particularmente, apuntando a identificar que hoy, más que nunca, la privacidad es un concepto en disputa.

El rostro oculto del reconocimiento facial

Según declaró Claudio Orrego, intendente de la ciudad de Santiago, en diciembre de este año el Estado chileno adquirirá un software de reconocimiento facial para ser utilizado en el control de la violencia en los estadios y “con motivo de otros temas de seguridad del Estado”, por ejemplo el control de marchas y manifestaciones. Este sistema contará con los datos del Servicio de Registro Civil e Identificación, una base de datos que cuenta con las fotografías y la información personal de 17 millones de ciudadanos, y será manejado por una oficina central de la policía, quienes estarán a cargo de contrastar las imágenes tomadas por las cámaras de vigilancia contra la inmensa base de datos, a través del software especializado.

Por supuesto, Chile no es el primer país en implementar tecnologías de reconocimiento facial con finalidades de preservación del orden público. Sin ir muy lejos, el gobierno de los Estados Unidos utiliza estas tecnologías desde hace varios años, y se estima que uno de cada cuatro de sus departamentos policiales en al menos 26 estados tienen acceso a una base de datos que, a la fecha, contendría los rostros y datos personales de al menos la mitad de los ciudadanos. En Colombia, las autoridades comenzaron a implementar el año pasado el uso del software Face First en el sistema de transporte público urbano, con la finalidad de enviar alertas a través de las diferentes estaciones, así como a otros sitios, como estadios de fútbol.

Investigadores especializados han señalado que, a pesar de que esta tecnología pueda ser útil para ayudar a localizar a criminales violentos, existen riesgos implícitos en los posibles usos que pueda dársele. Por ejemplo, su utilización en protestas y manifestaciones (como ha ocurrido en Brasil y como ocurriría en Chile) podría comprometer las libertades básicas, incluyendo la libertad de expresión y manifestación, que incluye el derecho a expresarse anónimamente.

La tecnología de reconocimiento facial funciona a través de un análisis de diversos rasgos físicos, incluyendo factores como las dimensiones del rostro, la forma de los pómulos, el ancho de la nariz y la longitud de la frente. Con esta información, busca coincidencias en la base de datos hasta encontrar una o más personas cuyo perfil corresponda a los rasgos identificados. Sin embargo, un estudio reciente de la Universidad de Georgetown encontró evidencia de que el software de reconocimiento facial presenta fallas cuando la iluminación varía, y no funciona de manera precisa con personas de piel oscura, lo que resultaría en un mayor número de personas inocentes siendo indebida e innecesariamente detenidas.

Del mismo modo, con bases de datos de poblaciones amplias, es inevitable el surgimiento de falsas coincidencias. En casos como el de Steve Talley, quien ha sido reiteradamente apresado por errores en el sistema de reconocimiento facial, las implicaciones para los derechos humanos más básicos son obvias, y ponen en evidencia el principal problema de todas las tecnologías de autenticación biométrica: la dificultad de cambiar un rostro o una huella digital, una vez que este ha sido comprometido como mecanismo de reconocimiento.  Por otra parte, para una persona consciente de que está siendo vigilada, es relativamente fácil engañar a una cámara, y esto ha dado lugar al surgimiento de una serie de acciones, algunas más cercanas a la protesta y otras al performance artístico, que buscan mecanismos para escapar a la vigilancia; en ocasiones, basta con utilizar los anteojos adecuados.

Si bien algunos alegan que los problemas inherentes al reconocimiento facial pueden ser minimizados a través de un grado mínimo de intervención humana, el cual evitaría que el reconocimiento automatizado produjera falsos positivos, en otros casos el sesgo humano podría profundizar las fallas de la tecnología. Los falsos positivos terminan por forzar a los ciudadanos a probar que no son culpables, invirtiendo la carga de la prueba incluso antes de que comience el proceso y subvirtiendo así el principio básico de la presunción de inocencia. Cualquier implementación de un sistema biométrico de vigilancia debe, pues, partir de la presunción de que todo software puede fallar, y del establecimiento de estándares básicos de protección de los derechos humanos para evitar que estas fallas afecten negativamente las libertades y garantías ciudadanas.

Los peligros del voto electrónico

Sin votos, un sistema carece de legitimidad. El voto es una parte muy importante de la democracia como se entiende hoy, al permitir a la población de un país elegir a sus representantes de manera libre y secreta. Pero además, recoge varios derechos como a la libertad de expresión y a la participación política.

En la actualidad, el voto electrónico surge como una alternativa viable y cómoda en los procesos electorales, tanto para el registro como para el conteo. De acuerdo con quienes han lo han impulsado, este sistema reduciría las posibilidades de fraude electoral y así, contribuiría a restaurar la confianza de la población votante. Los gobiernos que lo han implementado afirman que a través de este se garantiza la seguridad de los votantes, asegurando que el voto será secreto y el proceso electoral será transparente y enfocado a cumplir con una elección democrática de los representantes.

Sin embargo, estos sistemas no han considerado todas las implicaciones existentes en términos de derechos humanos. Por ejemplo, los derechos a la privacidad, a la seguridad o a la protección de los datos personales pueden verse fácilmente vulnerados, pues además de la cantidad de datos que puede recoger el software utilizado, acerca de los y las votantes, los sistemas de votación electrónica pueden ser fácilmente intervenidos o hackeados para afectar los resultados de la votación y cometer fraudes electorales.

¿Qué pasaría en un sistema político si el voto no fuera secreto? Podríamos imaginar persecuciones políticas a quienes votaron por el candidato perdedor, o a personas que se abstuvieron y decidieron no votar. La implementación de sistemas de voto electrónico no asegura que algo así no sucederá, sino que podría propiciar un abuso en el ejercicio del poder en la esfera política.

El desarrollo de la tecnología y el uso del internet permiten la creación de una vida en el entorno digital, con grandes beneficios para las personas y grupos sociales, pero por lo mismo modo ha facilitado el almacenamiento digital de innumerables datos personales, muchos de los cuales atentan contra la privacidad de los usuarios. Esto supone un riesgo en tanto el acceso a los datos personales no solo está habilitado para las personas titulares de dichos datos, sino para cualquiera que tenga interés en ellos.

Los sistemas digitales no son necesariamente seguros. O quizás deberíamos decir que en distintos grados, siempre son susceptibles de ser intervenidos. Así, en relación con el voto electrónico, derechos fundamentales, políticos y electorales se encuentran en riesgo si no se establecen medidas adecuadas para implementar métodos digitales de votación que garanticen procesos democráticos y transparentes de participación.

En el contexto latinoamericano, Argentina y Chile ya están considerando sistemas de voto electrónico. En el caso de Argentina, se han llevado a cabo diversas pruebas piloto para elecciones en sus diferentes provincias. Buenos Aires fue la primera provincia en legislar e implementar dicho sistema. Aunque el establecimiento del voto electrónico se ha dado de manera gradual, durante este proceso se ha ido manifestando la preocupación por parte de ciertos miembros de la sociedad civil sobre algunas vulnerabilidades que podría tener el sistema y las máquinas de votación electrónica.

Además, durante este año se aprobó en la Cámara de Diputados la reforma electoral que incluye la implementación del voto electrónico a nivel nacional. De ser aprobado en el Senado, este sistema, que ha sido fuertemente cuestionado tanto por la comunidad técnica como por activistas de derechos humanos y por la academia, sería utilizado en las elecciones de 2017, por lo que además implicaría un apresurado proceso de implementación. Por eso, instituciones, organizaciones y personas han manifestado su rechazo enfático frente a la adopción de este sistema.

En Chile se está considerando la implementación del voto electrónico debido a la constante abstención de la sociedad durante los procesos electorales. Los criterios que se están tomando en cuenta para el establecimiento del sistema electrónico de votación es la utilización de sistemas de medición biométricos para la identificación de las y los votantes, como por ejemplo, el registro de la huella dactilar.

Brasil, por otro lado, ha automatizado por completo su sistema electoral. Implementó el voto electrónico desde 1996 y, a pesar de que el sistema es considerado “exitoso”, se han encontrado numerosas fallas. Estudios han demostrado que es posible comprometer el encriptado del software y violar la secrecía del voto.

En el contexto latinoaméricano es necesario considerar si el voto electrónico, fácilmente manipulable y que puede impedir de la capacidad de emitir un voto libre y secreto, sea el mecanismo más apto para legitimar la democracia y la protección de los derechos políticos de las personas.

¿Son seguras las contraseñas que estás usando?

Las contraseñas protegen tus información más valiosas: el contenido de tus comunicaciones, el acceso a tus dispositivos e incluso el saldo de tu cuenta bancaria. A pesar de ello, usualmente somos negligentes a la hora de crearlas. Es cierto, crear contraseñas es dífícil y todavía más tener que recordarlas. ¿Qué hacer? ¿Cómo sé si las contraseñas que estoy usando son realmente seguras? Steffania Paola, miembro del equipo técnico de Derechos Digitales y Mozilla Fellow 2016-2017, nos da algunos consejos y herramientas.

¿Cuáles son los riesgos asociados al uso de una contraseña insegura?

Cuando usas una contraseña insegura o demasiado sencilla de adivinar, te vuelves vulnerable. Existen programas que pueden ser usados por cibercriminales para intentar descubrir tus contraseñas o puedes ser víctima de la llamada “ingeniería social”, la práctica de obtener información confidencial a través de la manipulación de usuarios.

Cuanto más sencilla es una contraseña, más rápidamente puede ser adivinada.

[left]Cuando usas una contraseña insegura o demasiado sencilla de adivinar, te vuelves vulnerable.[/left]

¿Cuándo podemos considerar que una contraseña es segura?

Una contraseña se considera segura cuando cumple los siguientes requisitos:

  • Es larga: Cuanto más larga es la contraseña, es menos probable que un computador sea capaz de descifrarla en un lapso de tiempo razonable. En rigor, es posible descifrar cualquier contraseña si se tiene suficiente tiempo, por lo que debemos aspirar a que sea muy trabajoso descifrar las nuestras.
  • Es compleja: Si es posible, siempre incluye en tu contraseña letras mayúsculas, minúsculas, números y símbolos, como signos de puntuación.
  • Es impersonal: Tu contraseña no debe estar relacionada a ti de manera personal: evita usar fechas importantes como tu cumpleaños, el nombre de un pariente o de tu mascota, ni de cualquier información que sea fácilmente asociada a ti.
  • Es secreta: No compartas tu contraseña con nadie a menos que sea absolutamente necesario.

Además, una contraseña debe ser escogida de modo que si alguien la descubre, el daño sea mínimo. Para ello, hazla única: Evita usar la misma contraseña para más de una cuenta.

¿Es necesario cambiar tus contraseña de forma regular?

Si bien es una recomendación recurrente, lo cierto es que si cumplimos las recomendaciones anteriores no es necesario actualizar nuestras contraseñas de forma regular. De cualquier forma, no hace daño, en la medida en que seamos capaces de recordar nuevas contraseñas largas, complejas y únicas. Para ello, la ayuda de un gestor de contraseñas es clave.

Al crear nuevas contraseñas, muchas veces se nos recomienda (y a veces se nos impone) usar caracteres poco usuales, números y combinar letras mayúsculas y minúsculas. ¿Es esto efectivo realmente?

Es efectivo, pero no garantiza la inviolabilidad. Cuanto más compleja es la contraseña, más difícil es descubrirla. Si usamos una mayor cantidad de elementos distintos en una contraseña (como letras mayúsculas, minúsculas, símbolos, etc.) se agrega una capa de seguridad contra los programas que intentan adivinarlas.

Estos programas funcionan por ensayo y error, y pueden estar diseñados para aprender palabras y nuevas combinaciones. Entonces, no garantiza que tu contraseña nunca será adivinada, pero puede costar más trabajo.

Ahora que tengo mi contraseña segura, ¿qué otras medidas complementarias puedo aplicar para resguardar mi información personal?

-Usar un gestor de contraseña, como KeePassX, es una buena idea. Se trata de una aplicación capaz de generar claves aleatorias y seguras.

Como sabemos, memorizar una contraseña bien pensada para cada cuenta en la práctica es inviable, Keepass puede ayudarte a crear una contraseña aleatoria, sin patrón o estructura, una contraseña difícil de adivinar. El programa es capaz de elegir contraseñas como «mRyKEQ3p$KdkpCRJxjl0v». Pero no te preocupes: el administrador de contraseñas las recuerda por ti, así que solo debes aprenderte una contraseña maestra y nada más. Es muy fácil de usar y además es gratis.

-Activa la autentificación de dos pasos (2FA). De esta manera, cada vez que se abre sesión en un nuevo dispositivo, te envían un mensaje a tu teléfono con una segunda contraseña. Esto significa que aunque alguien obtenga acceso a tu contraseña primaria, no podrá acceder a tu cuenta, a no ser que también esté en posesión de tu teléfono móvil. De esta forma, 2FA ofrece mayor protección al comprobar tu identidad por más de un método. Servicios como Facebook, Twitter y Gmail poseen esta característica.

Encuentra más consejos de seguridad digital acá.