Las puertas traseras no protegen la privacidad

Para frenar la difusión de material de abuso sexual infantil (CSAM), Apple ha anunciado importantes cambios y nuevas funcionalidades en sus sistemas, incluyendo el análisis de las imágenes enviadas y recibidas por parte del software instalado en los dispositivos, un mecanismo de clasificación de imágenes con contenido sexual para el control parental en cuentas familiares y cambios en algunas funciones de Siri y Search para bloquear términos de búsqueda que tengan relación con el abuso sexual infantil. Estas funciones, que inicialmente regirán para usuarios en Estados Unidos de las versiones más recientes de iOS, iPadOS, watchOS y macOS, sientan un peligroso precedente para la privacidad y la seguridad de las personas en todo el mundo.

El uso de sistemas de identificación de contenidos por medio de inteligencia artificial para levantar alertas supone un tratamiento por lo menos opaco del problema. Por último, aunque sea legítima la búsqueda de soluciones frente a crímenes como el abuso sexual infantil, cualquier funcionalidad técnica que permita que terceros accedan a contenidos privados pone en riesgo a todas las personas que utilizan dichos sistemas. En este caso, a quienes utilizan cualquier dispositivo conectado a internet.  

Escaneo de imágenes en el dispositivo

Una de las funcionalidades presentadas consiste en la detección de imágenes que se capturan y comparten entre dispositivos Apple mediante un algoritmo hash, es decir, una cadena fija de caracteres que identifica de manera única cada imagen.

A partir de ahora los dispositivos analizarán todas las imágenes que pasen por ellos, generarán un hash para cada una y lo contrastarán con una base de datos dispuesta por el National Center for Missing and Exploited Children(NCMEC), organización estadounidense que colabora con la justicia en la persecución de delitos de abuso sexual infantil. Así, dentro de cada dispositivo el sistema se encargará de escanear y contrastar todas las imágenes con esa base de datos, para identificar cualquier coincidencia. Una vez las imágenes se suben a iCloud, se agregan los resultados del cotejo a través del hash. Si se supera un umbral predefinido en la cantidad de coincidencias, un humano dentro de la compañía revisará manualmente el caso, luego de descifrar el contenido. Vale decir que, hasta hoy, Apple ofrece cifrado e2e en todos los contenidos que se comparten en sus sistemas.

Esta implementación es problemática porque la base de datos de hash de imágenes preparada por el NCMEC no es auditable, y si es manipulada arbitrariamente no hay manera de detectar dicho cambio, por lo que podría utilizarse, por ejemplo, para fines de persecución política, cultural o de género. Una vez el sistema está diseñado para cumplir una función, los fines y medios para ejecutarla pueden fácilmente salirse de las manos de quienes la diseñaron.

Por otra parte, existe la probabilidad matemática de que dos imágenes totalmente distintas o lejanamente similares coincidan en el hash generado, provocando falsos positivos, que solamente serán verificados luego de la intervención humana de alguien afiliado a la compañía, y habiendo roto la promesa de cifrado e2e, esto es, la promesa de privacidad sobre la que sustenta su oferta de valor.

Aprendizaje automático para clasificación de imágenes

Otra funcionalidad es la implementación de un algoritmo de aprendizaje automático que se aplicará a las cuentas de iMessage para menores de 18 años y sus tutores, en el marco de una cuenta “Familiar”. El algoritmo clasificará las imágenes, enviadas o recibidas, en cuanto al contenido sexual explícito que puedan contener. El sistema enviará una alerta a las personas usuarias menores de 18 años sobre el tipo de contenido que están compartiendo. Si la persona es menor de 13 años, el sistema alertará también a sus tutores y la imagen quedará almacenada en el dispositivo del menor, sin posibilidad de remoción.

Como se ha demostrado muchas veces en el pasado, los algoritmos de aprendizaje automático, sin supervisión humana, presentan muchos problemas de funcionamiento en la clasificación de contenidos. Así, los tutores de niños, niñas y adolescentes que no estén compartiendo contenidos sexuales explícitos pueden recibir alertas y los menores pueden ser sujetos de vigilancia e intromisión a su privacidad. Además, frente a una definición vaga de “infancia” —como menores de 18 y 13 años—existe el riesgo de atentar contra la normal expresión sexual y corporal, así como al acceso a la información, por ejemplo, en el caso de personas LGBTQ+.

Además, tal como está planteado el funcionamiento del sistema podría ocurrir la siguiente paradoja: en caso de que un menor que no tiene una cuenta Familiar enviare una fotografía calificada por el sistema como “sexualmente explícita” a un menor de 13 años que sí es parte de un plan Familiar,  la fotografía del primer menor quedaría indeleblemente almacenada en el dispositivo del segundo menor y podría ser revisada por sus tutores, sin que el emisor original lo supiera. ¿En manos de quién queda definir la legitimidad de las imágenes compartidas en el marco de una comunicación que se garantiza como privada?

Finalmente, como hemos mencionado, el desarrollo de una tecnología con fines legítimos puede ser perfectamente aplicable a otros fines. Así, la modificación mínima de parámetros en el algoritmo de aprendizaje automático permitiría identificar, bloquear y perseguir, contenidos no solamente ilegales, sino que necesarios, con fines represivos.  

Algunas conclusiones

Bajo la premisa de su compromiso en la lucha contra la explotación sexual infantil, y aunque defiendan la idea de que sus soluciones técnicas respetan la privacidad y el principio de cifrado extremo a extremo, la verdad es que Apple está abriendo una brecha de seguridad importante, con el potencial de atentar contra el derecho a la intimidad de niños, niñas y adolescentes, así como generando un precedente que podría facilitar la persecución política y la vigilancia a todo tipo de grupos vulnerables y emisores de discursos incómodos.

Cabe recordar que uno de los principales ganchos publicitarios de Apple ha sido precisamente ofrecer los más altos estándares de privacidad y seguridad en las comunicaciones, lo que sin duda ha llevado a muchas personas a preferirles. Un ecosistema cerrado, no interoperable era lo que había que transar en favor de dicha protección. Sin embargo, hoy, cuando la continuidad de esa promesa está en entredicho, a aquellas personas que confiaron en la marca les será muy difíciles migrar a alternativas más respetuosas de su privacidad. Así, el monopolio de los sistemas operativos (OS, iOS, iPadOS) genera una dependencia directa que ata a las personas a las arbitrariedades del fabricante.

La protección social debe incluir a los datos personales

El pasado 22 de abril, se publicó en el Diario Oficial de Chile la Ley Nº 21.322, que crea un Sistema denominado “Red Integral de Protección Social”, el cual consiste en un modelo de gestión intersectorial, dependiente del Ministerio de Desarrollo Social y Familia, cuyo propósito es coordinar intersectorialmente la oferta programática relacionada a eventos adversos que podrían conducir a personas, grupos y/o familias a una situación de vulnerabilidad, entregar información clara, oportuna y personalizada para así simplificar su acceso.

Pero dentro de ese objetivo, la reforma entrega un poder muy peligroso: crea una habilitación legal muy amplia al Ministerio de Desarrollo Social y Familia para recolectar información en general, de fuentes públicas y privadas. Naturalmente, esto incluiría datos personales, posiblemente datos sensibles, sin requerir de la manifestación expresa de voluntad de sus titulares, sin expresar con precisión el tipo de datos ni su finalidad, y sin el resguardo de una nueva legislación de protección de datos robusta y rigurosa.

En medio de las consecuencias económicas y sociales que ha ocasionado la pandemia COVID-19, surge la necesidad de un Estado capaz de asignar eficientemente los recursos para la entrega de beneficios y ayudas directas a las familias. En este sentido, el objetivo del proyecto, tal como señala el mensaje de la iniciativa, es asegurar una orientación eficaz, una derivación oportuna hacia otros servicios especializados del Estado y un seguimiento de casos complejos, cuando sea necesario, con foco en las familias de clase media.

Sin embargo, pareciera ser que esta nueva normativa –en particular, el Título IV de la “Solicitud de Datos y su Uso y Tratamiento”– entrega al Ministerio de Desarrollo Social y Familia, facultades muy amplias y poco definidas para solicitar información a organismos privados y públicos y tratar los datos. Por ejemplo, puede requerir antecedentes contenidos en el Registro de Información Social (RIS), así como en la caracterización socioeconómica, sin mediar un consentimiento previo, expreso e informado, y sin mediar una habilitación legal de los titulares de dichos datos personales. En un momento en que el gobierno insiste en las ayudas focalizadas, esto significa concentrar mucha información sobre personas y familias, incluso sin que ellas se enteren.

Como si lo anterior no fuera grave, la publicación de esta ley es especialmente riesgosa, al menos, en los siguientes dos sentidos: primero, se realiza mientras se encuentra pendiente en el Senado la discusión de una nueva ley de datos personales. Existe la necesidad imperiosa que nuestro país fortalezca su nivel de protección y resguardo de la autonomía informativa de las personas, pues la actual Ley Nº 19.628 es insuficiente para hacer valer obligaciones de transparencia, seguridad, custodia y eliminación de datos personales. Por otra parte, no basta con reglas sustantivas: se requiere la creación de un organismo público especializado, una autoridad pública de control capaz de fiscalizar su cumplimiento. En consecuencia, no se explica la amplitud de las facultades otorgadas al ministerio, sin un marco normativo que resguarde una serie de aspectos que hoy se encuentran en una nebulosa, y que ordene la actuación de los servicios públicos en materia de intercambio de datos personales.

Mediante la administración del RIS, el Ministerio de Desarrollo Social consigna, almacena y procesa información de los atributos sociales, civiles y socioeconómicos de la población del país, susceptible de participar de la red de servicios y beneficios de la protección social. Con esto, el RIS contiene información de potenciales beneficiarios que quizás no han solicitado o no han declarado su intención de integrarlo, por ejemplo, pero que igualmente tendrían acceso a beneficios.  Así se plantean diversos conflictos que van más allá de la eficiencia del sistema. Por un lado, se diluyen los límites y los alcances que puedan tener el tratamiento de dichos datos personales, así como la proporcionalidad y legitimidad social del sistema. Sin ir más lejos, en el ámbito de las ayudas sociales, se vislumbran los mismos riesgos que los casos de Alerta Niñez en Chile y de Auxilio al Empleo en Brasil. Especialmente, con las problemáticas asociadas al uso de datos y algoritmos para perpetuar políticas publicas potencialmente discriminatorias o “focalizadas”.

Según el Ministerio de Desarrollo Social y Familia, Alerta Niñez es un instrumento preventivo que “identifica el conjunto de condiciones individuales, familiares, del entorno y de los pares de los niños y niñas y adolescentes, que tienden a presentarse cuando existe un riesgo de vulneración de derechos”. El sistema se basa en el procesamiento estadístico de grandes cantidades de datos provenientes de organismos públicos para calificar a la población menor de 18 años, ordenando a las personas según su probabilidad de sufrir vulneraciones. Nuevamente se trata de una iniciativa invasiva de recolección de datos sensibles, que conlleva el gran riesgo de profundizar situaciones de prejuicio e implican la transferencia de datos personales a terceros y la posibilidad de que esos datos sean usados para fines distintos a los que permitieron su recolección. Estos mismos peligros se profundizan mediante las facultades otorgadas al Ministerio de Desarrollo Social y Familia mediante la Ley Nº 21.322.

Cabe hacer presente que el Estado es el mayor recolector, almacenador y procesador de datos personales, no solo en términos de cantidad; también es el que maneja más datos de carácter sensible. Esto crea importantes desafíos de seguridad de la información. Aumenta así la posibilidad que por fallas de seguridad se vulneren los derechos de los titulares de los datos, o incluso que sean objetos de filtraciones o fugas. Son amenazas reales, ya que muchas veces el Estado ha sido muy negligente en el resguardo y manejo de esos datos.

En definitiva, una vez más estamos frente a un diseño de política pública que facilita la acción del Estado vigilante, comprometiendo el respeto de los derechos de las personas que se verán afectadas por la recolección y uso de su información personal, sin las suficientes garantías. Sí: necesitamos un Estado capaz de asignar bien las ayudas sociales, de manera rápida y oportuna. El problema que esta ley no incluye condiciones explícitas que restrinjan el acceso y la transferencia de datos a terceros, exponiendo a la población a nuevas formas de discriminación, en favor de un supuesto bien mayor. 

Los peligros de los certificados de vacunación digital, pases de movilidad y pasaportes de inmunidad

Si bien las devastadoras consecuencias económicas y sociales que ha traído para la población el extendido período de pandemia son el aliciente para que los gobiernos busquen en este tipo de instrumentos una herramienta para “premiar” el comportamiento de la ciudanía responsable que ha cumplido con su deber de inmunización, hay un problema severo en esta estrategia desde la perspectiva de la comunicación del riesgo primero, y luego respecto del ejercicio de derechos fundamentales.

A inicios de mayo, la prensa anunciaba que seis países de América Latina y el Caribe, entre ellos Chile, estaban desarrollando una iniciativa para impulsar proyectos que incentiven la transformación digital de la salud en la región y cuya primera iniciativa sería el desarrollo de un certificado de vacunación digital e interoperable para Covid-19. Se trataría de una iniciativa patrocinada por el Banco Interamericano de Desarrollo (BID), alineados con la Organización Mundial de la Salud (OMS) y la Organización Panamericana de la Salud (OPS)

La digitalización del expediente médico es un proceso en curso en muchos países de la región, entre ellos Chile. En los últimos años ha sido conducido de la mano de evaluaciones de cómo implementarse en una forma que proteja la seguridad y la privacidad de los datos de salud, y que no impacte negativamente el ejercicio de otros derechos fundamentales. La pregunta aún sin respuesta es si el anuncio sobre certificaciones digitales interoperables de vacunación en la región va a satisfacer tales estándares y cómo. Los riesgos de avanzar en certificaciones de vacunación e inmunidad digital o pases de movilidad se extienden a la inadecuada comunicación de riesgo y al impacto en el ejercicio de derechos.

Los certificados de vacunación tienen dos propósitos principales: generar un registro que facilite la continuación de las prestaciones de salud para la persona que ha recibido un tratamiento de inmunización, y entregar información acerca del tipo de inmunización recibida para hacer seguimiento a sus resultados o validez. A nivel mundial existe una larga historia de programas de inmunización que en el último siglo se han desarrollado sin problemas, entregando la información a sus beneficiarios en papel.

Todo evento de prestación de salud requiere del acceso a datos personales y datos sensibles que se configuran a partir de la prestación de salud recibida. Tales datos normalmente residen en la ficha médica, a la cual solo la paciente y sus prestadores de salud tienen acceso, y no son consignados en forma detallada en las certificaciones recibidas, que solo contemplan la información mínima para identificar a la paciente y su evento de inmunización. La digitalización de los certificados de vacunación va acompañada de un aumento de la cantidad de datos recogidos e incrementa la posibilidad de generar eventos de acceso no autorizado a esa información para propósitos que pueden ser completamente distintos a los originales, es decir, información de continuación de prestaciones de salud y prueba de inmunización. Creado el antecedente digital, y al forzar a la población a circular con esta información en sus dispositivos digitales, el riesgo de pérdida de control, derivado de usos no relacionados al tratamiento de salud, se extiende exponencialmente.

Los pases de movilidad proponen un caso de uso tanto más problemático, ya que intentan asociar a un episodio (o varios) de inmunización a un diferencial en cuanto a las posibilidad de ejercer la libertad de movimiento sin restricciones, en comparación de aquella limitada para las personas no inmunizadas. Los pases de movilidad se basan en una inferencia de riesgo menor de infección y contagio basado en el episodio de inmunización. Para que esa inferencia sea sólida, debe sostenerse en evidencia científica de cuál es el nivel de disminución de riesgo de contagio y de propagación del virus que la inmunización genera. En Chile, la Universidad de Chile ha indicado que ese riesgo se sitúa en el 56,5% como promedio para las vacunas en actual utilización en Chile. Mientras, el Ministerio de Salud declara que la vacuna SINOVAC (con la que mayoritariamente ha sido inmunizada la población nacional) tiene 67% de efectividad para prevenir Covid-19 sintomático. Es decir, incluso en la cifra más optimista, 3 de cada 10 personas vacunadas aún se encuentran en riesgo de contraer y transmitir COVID-19.

Avanzando en la trilogía, los pasaportes de inmunidad buscan generar un grado de certeza que permita la circulación de la población y la reactivación de las actividades económicas y sociales, incluso en el tránsito internacional. Su emisión depende de la existencia de métodos de medición de los grados de inmunidad desarrollada por la población frente a una enfermedad infectocontagiosa. Su objetivo es precisamente discriminar entre aquellos que cuentan con inmunidad y quienes carecen de ella, asignando consecuencias de movilidad y oportunidades de empleo a esa clasificación. Así, buscan imponer una restricción artificial sobre quién puede participar en actividades sociales y económicas, y quién no. Es por ello que las expertas llaman la atención acerca del riesgo de que los pasaportes de inmunidad creen un incentivo perverso para que las personas busquen infectarse, especialmente las más vulnerables, que no pueden permitirse un período de exclusión de la fuerza laboral, agravando las desigualdades sociales preexistentes. La OMS expresó en 2020 su preocupación por el desarrollo de pasaportes de inmunidad, advirtiendo la información insuficiente acerca del desarrollo de anticuerpos para el SARS-CoV-2, con los riesgos de errónea clasificación de los niveles de inmunidad de la población que ello podría implicar. En la actualización provista en mayo de 2021, la OMS vuelve a repetir que la evidencia sobre la respuesta inmune y su duración respecto de la infección de Covid-19 o su inmunización no se encuentra suficientemente comprendida a la fecha, con lo cual la correlación de su efecto de protección no puede ser aún establecida.

Para evitar las críticas internacionales a que han sido sujetos los pasaportes de inmunización, como el renombrado pase verde de la Unión Europea, en Chile las autoridades han optado por la nomenclatura de “pase de movilidad” que como vimos más arriba se encuentra sujeto a las mismas incertidumbres en la comunicación de riesgo que los pasaportes de inmunidad: ambos hacen inferencia hasta ahora no asentadas en evidencia científica de nivel de riesgo de contraer y contagiar el SARS-CoV-2.

Problema con la comunicación de riesgo

Tal como lo ha destacado el European Data Protection Board (EDPB) al emitir su opinión sobre la propuesta de certificado verde para la Unión Europea, “parece haber poca evidencia científica que respalde el hecho de que haber recibido una vacuna COVID-19 (o haberse recuperado de COVID-19) otorga inmunidad y por cuánto tiempo dura. Por lo tanto, el Certificado Verde Digital debe entenderse simplemente como una prueba verificable de una solicitud o historial médico fáctico con sello de tiempo que facilitará la libre circulación de los ciudadanos de la UE debido a su formato común en todos los Estados miembros. Sin embargo, advertimos derivar conclusiones sobre inmunidad o contagio, ya que una opinión científica consolidada aún está pendiente”.

Por su parte, el Ada Lovelace Institut ha advertido que los pasaportes digitales no deben implementarse mientras se desconoce tanto sobre COVID-19, particularmente el efecto de diferentes vacunas (y regímenes de vacunación) sobre la transmisión, la duración de la protección y la generalización de esos efectos. En otras palabras, el pasaporte de vacunación se basa en la premisa de que el estado de “vacunada” dice algo sobre el riesgo que una persona representa para otros, no simplemente el riesgo que cada persona enfrenta de contagiarse. “En la actualidad, el estado de vacunación no ofrece evidencia clara o concluyente sobre el riesgo de un individuo para otros a través de la transmisión. El estado de vacunación nunca puede ofrecer evidencia absolutamente concluyente del riesgo de un individuo para otros (o su propio riesgo), ya que ninguna vacuna será 100% efectiva para el 100% de los receptores”.

La consecuencia más grave sobre este error en la comunicación de riesgo, el incremento en la circulación del virus y el aumento en el nivel de contagios consecuente, fue denunciada en Chile por el Colegio Médico y un número relevante de Asociaciones Médicas al realizarse el anuncio de despliegue del pase de movilidad por el gobierno de Chile. Dos semanas luego de su implementación, la evidencia del aumento de casos a nivel nacional, con alrededor de 50 mil casos activos, parece respaldar que un relajamiento de la movilidad no se justifica ni siquiera con un programa de vacunación exitoso.

No se trata de poner en cuestión la utilidad de las vacunas que indudablemente reducen el riesgo de contraer la enfermedad o de presentar sus síntomas más severos. El cuestionamiento a los pases de movilidad o certificaciones de inmunidad no tiene nada que ver con la defensa al “derecho a no vacunarse” que algunos individuos han intentado enarbolar, de lo que se trata es de entregar información adecuada a la población que evite el relajamiento de las medidas sanitarias de distanciamiento social, uso de mascarillas e higiene de manos que siguen siendo esenciales para contener la pandemia.

Tristemente, aquí nos encontramos no solo frente a un problema de oportunidad que ha sido el ángulo enfatizado desde la comunidad científica, sino que, junto a la falta de certeza científica acerca de la predicción de riesgo que acompaña a la inmunización, se sitúa un problema social relacionado con cómo los pases de movilidad, los certificados de vacunación digital o los certificados de inmunidad pueden terminar transformándose en instrumentos de discriminación en el ejercicio de derechos, cuyos impactos negativos se extiendan a los ya dolorosos efectos económicos y sociales que afectan a sectores más vulnerables.

Discriminación en el ejercicio de derechos

No es casualidad que al inicio de la pandemia la Comisión Interamericana de Derechos Humanos (CIDH), a través de su Resolución 1/20 “Pandemia y Derechos Humanos en las Américas”, recomendó a los Estados de la región “adoptar de manera inmediata e interseccional el enfoque de derechos humanos en toda estrategia, política o medida estatal dirigida a enfrentar la pandemia del COVID-19 y susconsecuencias, incluyendo los planes para la recuperación social y económica que se formulen. Estas deben estar apegadas al respeto irrestricto de los estándares interamericanos e internacionales en materia de derechos humanos, en el marco de su universalidad, interdependencia, indivisibilidad y transversalidad, particularmente de los DESCA”.

Desde un punto de vista individual, un pase de movilidad registra datos de salud privados, ¿cómo se protege esta información? ¿Cómo se previene el riesgo de fraude o falsificación? ¿Cómo se previenen violaciones de la privacidad? Desde un punto de vista social, la adopción de pases de movilidad tiene impactos concretos en el ejercicio de la libre circulación, el derecho a reunión e incluso sus impactos pueden extenderse al acceso a las oportunidades de empleo.  Estos pasaportes no deberían resultar en una herramienta de control social que restrinja la movilidad de la población en contextos de disidencia política o en una herramienta adicional para imponer restricciones abusivas a la migración, por nombrar solo algunos de los potenciales impactos negativos de estas implementaciones.

La creación de un pase de movilidad genera una indudable tentación para las empresas de condicionar el acceso a oportunidades de empleo a la titularidad de estos, en el marco de una campaña de vacunación que aún no alcanza la universalidad y, repetimos, cuyas condiciones de duración de inmunidad no se encuentra científicamente determinada aún. Un uso de este tipo tendrá consecuencias indudables de discriminación, pero también desafíos logísticos en torno a cómo se realizan las verificaciones de los pases y cómo se vigila que continúe la adopción de otras prevenciones sanitarias como el distanciamiento social y uso de mascarillas. El pase de movilidad puede fomentar una falsa sensación de seguridad, ya sea en su titular o en otras personas (como su empleador) y aumentar, en lugar de disminuir, los comportamientos de riesgo. Existe vasta experiencia previa desde la normativa de protección de los derechos de los trabajadores acerca de los riesgos de permitir decisiones de empleo atendidas a condiciones de salud, o de riesgos de salud derivados de condiciones de trabajo inadecuadas. Y esa experiencia será útil para calibrar los derechos en juego.

Otra forma palpable de discriminación que presentan las certificaciones de vacunación e inmunidad o los pases de movilidad digital está precisamente asociada a su carácter digital. Nuevamente, sin condiciones de conectividad universal a internet aseguradas para la población general, habilidades digitales limitadas en algunos segmentos o baja disponibilidad de dispositivos inteligentes, grupos de la población con acceso limitado a la tecnología por cualquiera de estos factores quedarán excluidas de su uso.

Estos riesgos fueron claramente anotados además en una recomendación específica emitida el año pasado por la CIDH en su Resolución 4/20 sobre los “derechos humanos de las personas con Covid-19”: “los Estados deben abstenerse de utilizar los datos sobre el estado de salud de las personas con COVID-19 para expedir certificaciones de inmunización que generen una diferencia de trato injustificada en el disfrute y ejercicio de otros derechos”.

Entonces avanzando un paso más en el análisis de necesidad, proporcionalidad y legalidad que exigen los estándares interamericanos de derechos humanos, ¿cuál es el marco de legalidad que acompaña al pase de movilidad en Chile? Sin una ley de protección de datos personales actualizada, con pocas certezas de como se manejan los datos de comisaría virtual y la opaca implementación de CoronApp previamente criticada por Derechos Digitales, la política pública desplegada tampoco ha sido acompañada de ningún tipo de certeza acerca de cómo los datos que son recogidos para generar el certificado digital serán procesados, accedidos (y por quién) o cómo será limitado su uso para otros fines.

Por último, las certificaciones de vacunación e inmunidad digital o los pases de movilidad pueden ser una distracción tentadora. Su desarrollo implica costos de oportunidad importantes desde una perspectiva de recursos públicos, lo que implica dejar de usar esos mismos recursos en otras intervenciones. Sin embargo, su utilidad específica para la pandemia se encuentra temporalmente limitada, ya que es esperable que con los programas de vacunación y la circulación del virus se alcance más temprano que tarde la inmunidad de grupo. ¿Vale la pena sacrificar derechos y libertades si una vez que haya inmunidad colectiva estos instrumentos de discriminación no tendrán sentido sanitario? ¿Qué haremos entonces con estas infraestructuras de control puestas en marcha? ¿Serán ellas desmanteladas? ¿Cómo aseguramos que los datos por ellas recogidas no sean extendidos a otros usos secundarios de control social? 

¿Se han violado los derechos humanos en internet en Colombia? Necesitamos explorar esa posibilidad

Desde el pasado 14 de mayo, y a partir de las denuncias sobre presuntas violaciones a los derechos humanos en el marco de las protestas que se desarrollan a nivel nacional desde el 28 de abril, la CIDH solicitó al gobierno colombiano una visita urgente de verificación, la cual fue reiterada el 25 de mayo luego de que el gobierno propusiera hacerla después de la audiencia programada para el 29 de junio.

La visita será la próxima semana y no incluye en su agenda la revisión de afectaciones a los derechos humanos utilizando herramientas tecnológicas y en el ámbito digital. Por eso, la Fundación Karisma con apoyo de otras organizaciones locales ha enviado una carta a la CIDH, pidiendo que se incluyan estos temas durante las jornadas de verificación.

Incidentes en la red

El 28 de abril estallaron en Colombia una serie de protestas, primero contra el proyecto de reforma tributaria propuesto por el gobierno, pero también contra el proyecto de reforma a la salud y la crisis generalizada de derechos humanos, que durante la pandemia se ha intensificado. Las protestas se han mantenido por más de un mes y han convocado a los más diversos sectores sociales. 

Desde el primer día de protestas las redes sociales se llenaron de denuncias sobre abuso de la fuerza, uso de armas no convencionales y de fuego por parte del Escuadrón Móvil Antidisturbios (ESMAD) de la Policía Nacional, y también sobre bloqueos de contenido y de cuentas que estaban haciendo estas denuncias en plataformas como Instagram, Facebook y Twitter. En aquel entonces, por unas horas, el sistema de tendencias en Twitter dejó de funcionar, lo que fue percibido como un acto de censura, aunque luego se reportó una falla técnica en varios países.

Además, el 6 de mayo muchas personas empezaron a reportar que las historias en Instagram relacionadas con #ParoNacional desaparecían. A las pocas horas, la plataforma informó que se trataba de una situación global y generalizada, no relacionado con algún tema en particular.

Una vez solucionado el problema, que afectó los destacados, historias y archivos de la plataforma, especialmente los contenidos compartidos, Instagram nuevamente comunicó que los reportes provenían principalmente de Colombia, comunidades indígenas en Estados Unidos y Canadá, y Palestina. Sin embargo, los lugares con mayor afectación fueron Estados Unidos y Brasil. Como manifestó Carolina Botero, directora de Karisma, la explicación de Instagram requiere mayor análisis dada la afectación particular sobre poblaciones que se encontraban en crisis sociopolítica por esos días.

Por otra parte, el 3 de mayo en la ciudad de Cali se transmitió en vivo el asesinato de un manifestante; esa misma noche, se denunció la muerte de al menos tres personas en el sector de Siloé, al occidente de la ciudad. En medio de la tensión, la noche del 4 de mayo muchas organizaciones de derechos humanos y medios alternativos denunciaron en redes que en los puntos de concentración en Cali (especialmente en Siloé) se estaba bloqueando completamente la conexión a internet, mientras la policía atacaba a les manifestantes. 

En la mañana del 5 de mayo, Netblocks publicó un reporte que confirmaba la interrupción parcial del servicio en Cali. En respuesta a las denuncias, tanto el Ministerio TIC, como la Comisión de Regulación de Comunicaciones (CRC) y las empresas EMCALI y Movistar, emitieron comunicados donde se concluyó que sí hubo fallas técnicas en el servicio de internet fijo debidas al robo de un cable, y que por la situación de orden público no fue posible repararlas de inmediato; pero definitivamente “no hubo una interrupción deliberada del servicio”.

Esta conclusión, que corresponde con el reporte técnico, abrió otras interrogantes, dado que las denuncias de desconexión se estaban haciendo desde un sector al occidente de Cali y principalmente en internet móvil, mientras que el daño técnico se reportó al oriente de la misma ciudad, afectando principalmente conexiones fijas.

De acuerdo con Carolina Botero, si bien es posible que la red se haya saturado esa noche, también se podrían estar utilizando inhibidores de señal, los cuales están prohibidos en todo el territorio nacional, excepto para organismos de seguridad del Estado, quienes podrían utilizarlos sin autorización del Ministerio TIC, en casos relacionados con la seguridad pública. Además, también se denunció el uso de estos inhibidores el 12 de mayo, en los alrededores del Estadio Romelio Martínez de la ciudad de Barranquilla, donde se jugaba un partido de fútbol en medio de las protestas.

Teniendo en cuenta los cuestionamientos sobre la autonomía de la CRC y su falta de incidencia sobre la gestión del espectro, desde hace tiempo Karisma ha insistido en la necesidad de que existan mecanismos transparentes para regular y escrutar, no solo al sector privado, sino también al sector público. Esto se evidencia en la denuncia sobre el bloqueo de los dominios archive.org y ghostbin.co por parte de las empresas EMCALI y Avantel, en respuesta a una resolución expedida por la Superintendencia de Industria y Comercio, y vigilada por el Ministerio TIC.

Como también señaló Karisma, esta resolución podría ser legítima, pero desconoce el funcionamiento de internet y la imposibilidad de bloquear solamente una URL, lo que la hace completamente desproporcionada. Vale decir que la resolución surge en respuesta al filtrado de datos personales  de altos mandos militares, realizado por Anonymous como forma de protesta el 4 de mayo. 

Estas acciones, cuya legitimidad no es tema de discusión aquí, junto a otras como el saboteo a ciertos hashtag por parte de K-poppers, han servido al gobierno para alimentar una campaña de estigmatización a la protesta digital que, a través de lo que el Ministerio de Defensa ha denominado “ciberpatrullajes”, amenaza a libertad de expresión, según ha señalado la Fundación para la Libertad de Prensa (FLIP).

Este panorama es especialmente preocupante si recordamos las “medidas preventivas” desplegadas en Colombia previo a las manifestaciones del 21N de 2019, que supuestamente incluían la adecuación de aeronaves con sofisticados sistemas de reconocimiento facial, sobre los cuales no hemos tenido noticias durante estas jornadas de protesta.

Preocupante además, porque luego del escándalo sobre perfilamiento a periodistas, activistas y opositores al gobierno por parte del Ejército Nacional a principios de 2020, se denunció que la Policía planeaba comprar un sistema completo de “ciberinteligencia” por alrededor de un millón de dólares. Si bien esta compra fue cancelada, Karisma analizó sus características técnicas, que incluían no solo la capacidad de analizar información sino de infiltrarse en actividades a través de medios digitales. 

Esperamos que la CIDH atienda al llamado que hacen las organizaciones locales en Colombia y que apoyamos en América Latina, para reconocer las graves afectaciones a los derechos humanos en el entorno digital durante las protestas en Colombia, que hoy cumplen 38 días consecutivos.

Los impactos de la vigilancia más allá de la privacidad

Mientras a nivel internacional avanza la demanda por prohibir el uso de las tecnologías de vigilancia hasta alcanzar estándares rigurosos en materia de derechos humanos, en América Latina observamos una nueva y silenciosa tendencia a adquirir y usar dichos sistemas para controlar el acceso a la protección social, es decir, a las políticas desarrolladas para disminuir la pobreza, la vulnerabilidad social y la exclusión.

Nuestra región —la más desigual del mundo— durante las últimas décadas se ha convertido en ejemplo internacional en la puesta en marcha de programas de protección social. Sin embargo, el aumento de las condiciones impuestas para acceder efectivamente a los beneficios, tanto explícitas como implícitas, atenta contra la finalidad de proteger y garantizar derechos básicos. Si sumamos la mediación tecnológica a través de sistemas biométricos, como el reconocimiento facial, la recolección de huella dactilar, aplicaciones web o registros digitales unificados, se corre el riesgo de profundizar las desigualdades que se intentan erradicar.

El relator especial de Naciones Unidas sobre la extrema pobreza y los derechos humanos ha identificado algunos usos de tecnologías en los sistemas de bienestar alrededor del mundo. El listado incluye la verificación de identidad, la evaluación de criterios para recibir ayudas, el cálculo y pago de prestaciones sociales, la prevención y detección del fraude, la clasificación de riesgo y necesidades, así como la comunicación entre autoridades y las personas destinatarias de las políticas de protección social.

Varios de los usos señalados ya existen en América Latina. En Venezuela, se han implementado sistemas biométricos para controlar la adquisición de productos de primera necesidad, lo que resultó en varias denuncias de discriminación hacia personas extranjeras y, especialmente, personas transgénero. Sumado a las discriminaciones prexistentes contra poblaciones históricamente vulneradas, este tipo de iniciativa implica el ejercicio de una vigilancia diferenciada, que agrava la desprotección de las personas en situación de mayor vulnerabilidad y que, por lo tanto, más dependen del apoyo del estado.

Medidas similares se han implementado en otros países de la región e incluyen el uso de reconocimiento facial para controlar el acceso de beneficios especiales en los sistemas de transporte de distintas ciudades de Brasil o, incluso, el ingreso a instituciones educativas; propuestas similares han sido presentadas en el marco del retorno a clases presenciales en Chile. En el contexto de la pandemia mundial por COVID-19, en El Salvador y Perú se han utilizado sistemas de reconocimiento facial para controlar potenciales fraudes en exámenes educativos realizados de manera remota, situación particularmente delicada al tratarse de personas menores de edad. 

En el caso de Bolivia, observamos como la digitalización, presentada muchas veces bajo la promesa de mayor eficiencia en la gestión pública, no solo es insuficiente para solucionar problemas estructurales de acceso a servicios básicos del Estado, si no que además abre espacios para nuevas formas de discriminación. Un análisis exploratorio sobre el rol de las tecnologías en la entrega de ayudas económicas a la población en el marco de la pandemia de COVID-19 evidencia las diversas capas de complejidad que implica tal uso.

Brasil y su programa de auxilio de emergencia es otro claro ejemplo. La decisión de utilizar aplicaciones móviles para que las personas puedan solicitar la ayuda tuvo como consecuencia un incremento en las dificultades de acceso a los beneficios. Quienes más necesitan apoyo no siempre disponen de un dispositivo con conexión a internet, un número de teléfono o incluso (y más grave aún) un documento de identificación. El sistema propuesto no consideró las necesidades de las destinatarias. En este sentido, organizaciones brasileñas presentaron preocupaciones en relación a la transparencia y garantías de seguridad ofrecidas por la aplicación respecto a los datos recolectados.

Además, la implementación de tecnologías agrega nuevas capas y agentes al procesamiento de datos personales, e implica un aumento de vulnerabilidades en términos de seguridad y protección contra usos abusivos. Lo mismo es válido para las propuestas de integración e interoperabilidad de bases de datos, identidad única, automatización y predicción. En nuestra región estas prácticas abundan, sea en formato piloto o en propuestas de acción, impulsadas muchas veces por entidades financieras internacionales.

La publicación “Sistemas de identificación y protección social en Venezuela y Bolivia. Impactos de género y otros tipos de discriminación” aborda algunos de estos temas a partir de análisis de casos en ambos países, donde se alerta sobre las implicancias de la mediación tecnológica en relaciones entre estado y ciudadanía. Además, propone una reflexión sobre los impactos que las tecnologías de vigilancia pueden tener en el acceso a derechos sociales y económicos, y en cómo la digitalización puede profundizar la desigualdad, en especial, cuando implica el acceso a datos por parte de agentes privados o la mediación algorítmica por medio de sistemas de clasificación.

Consideramos que estos son puntos centrales que deben ser discutidos. Más todavía cuando la pandemia no muestra señales de detenerse en la región, y la pobreza y extrema pobreza alcanzan niveles inéditos.


“Sistemas de identificación y protección social en Venezuela y Bolivia. Impactos de género y otros tipos de discriminación” será lanzada el próximo miércoles 14 de abril, junto a un grupo muy especial de expertas y expertos que comentarán los  casos presentados y aportarán sus propias perspectivas a la discusión. El evento se transmitirá en vivo. Si te interesa participar, toda la información la encuentras aquí.

La persecución de Ola Bini: ¿el inicio del fin?

Hace casi dos años, cuando no había ni pandemia ni contagios por un nuevo y letal coronavirus, cuando varios países de la región parecían no ver venir protestas masivas en las calles, Ola Bini fue arrestado en Ecuador. Fue puesto en prisión por diez semanas y sus equipos tecnológicos fueron incautados, en busca de evidencia de los delitos que supuestamente justificaban el arresto. Casi dos años después, sin todavía lograr la libertad.

Recapitulando: el activista y desarrollador de origen sueco Ola Bini fue detenido en abril de 2019 en Ecuador, por su supuesta participación en una red de espionaje digital para desestabilizar al gobierno ecuatoriano. El arresto ocurrió muy poco después de la expulsión de Julian Assange de la embajada ecuatoriana en Londres, y después de que la ministra del interior alertara sobre intentos de «desestabilización del gobierno» por «hackers rusos» y gente afiliada a Wikileaks. Ataque del que aún no se conocen más antecedentes más allá de ese mismo anuncio.

Los (entonces) relatores especiales para la libertad de expresión de la ONU y de la CIDH solicitaron información desde el gobierno ecuatoriano, pero la persecución no cesó. Como hemos denunciado junto a otras organizaciones desde 2019, existe una serie de situaciones alarmantes en torno al arresto y la detención de Bini, siendo la más relevante la insistencia en la persecución penal en su contra, a pesar de la notoria falta de justificación suficiente. Es decir, no existen antecedentes suficientes ni para la inicial acusación de ser parte de una red de espionaje digital, ni de otras de “defraudación fiscal” o “tráfico de influencias”, manteniéndose hasta hoy una investigación con características de persecución política.

Una oportunidad de poner fin a las alegaciones surgió en diciembre de 2020, en una audiencia preparatoria al juicio por «acceso no consentido» a un sistema informático, con una única captura de pantalla. Sin embargo, tampoco ahí terminó la persecución. Es más, organizaciones como la Electronic Frontier Foundation y Amnistía Internacional fueron impedidas de participar como observadoras en la audiencia. El esfuerzo de la defensa por demostrar la violación de los derechos de Bini durante la investigación, en una exposición de cuatro horas de su abogado, tampoco fue suficiente en esa ocasión. El proceso fue así validado para continuar y la audiencia fue suspendida otra vez antes de la decisión de comenzar el juicio propiamente tal.

A la espera de que la audiencia se retome, para continuar la preparación hacia un juicio y la evidencia admisible, nuestra preocupación por el caso sigue vigente. Porque no está en juego solamente la situación judicial de una persona, sino la noción misma de debido proceso. Está en juego la confianza en los procesos institucionalizados para determinar con imparcialidad. Y, mirando con cuidado a antecedentes con componentes técnicos complejos, si es que hay sustento para la persecución de una persona, por encima de cualquier presión política. Está en juego la superación de los discursos que asocian la seguridad digital a la sospecha y la criminalidad. Está en juego el ejercicio de los derechos fundamentales en línea, incluidos no solo la privacidad y la libertad de expresión, sino también la investigación de seguridad y la promoción de herramientas de protección de comunicaciones y dispositivos. Seguimos observando el caso, porque queremos que liberen a Ola Bini.

Fondo de Respuesta Rápida: Hitos 2019-2020

Información relevante sobre el Fondo de Respuesta Rápida para la protección de derechos digitales en América Latina y sus principales hitos durante los primeros 18 meses de funcionamiento, entre julio de 2019 y diciembre de 2020.

El interés superior (¿en los datos?) de los niños y niñas

El uso de algoritmos de reconocimiento facial puede tomar distintas formas técnicas. En términos muy generales, podemos distinguir el uso de esta tecnología para la verificación de un individuo y para la la identificación de la identidad de un individuo. Así, la verificación facial y la identificación mediante el reconocimiento facial son técnicas diferentes, que a su vez tienen formas distintas de ser utilizadas en la práctica.

En la primera, el usuario se somete voluntariamente a la comprobación de su identidad mediante la identificación de sus rasgos biométricos, para acceder u obtener algo a cambio, como el acceso a un servicio o el desbloqueo de su teléfono. La identificación mediante reconocimiento facial no siempre es voluntaria e implica el uso de inteligencia artificial y cámaras alimentadas de grandes bases de datos que rastrean los rasgos biométricos de las personas, como ocurre en las cámaras con reconocimiento facial en el espacio público. En todos estos casos se está tratando datos sensibles: aquella información personal referida a características físicas de las personas.

En El Salvador, el Ministerio de Educación ha propuesto que más de 75,000 estudiantes, de escuelas públicas y privadas, realicen a través de una plataforma digital la prueba AVANZO para evaluar su aprendizaje. Años atrás, la prueba –conocida como PAES- era presencial y sin el auxilio de tecnologías. Este año se usará verificación facial con la finalidad declarada de evitar fraudes. El gobierno anunció que comprará almacenamiento en la nube, sin especificar si se usará para la realizar la prueba o para resguardar los datos biométricos;  cada estudiante podrá acceder a una cuenta de Google for Education para ser evaluados a través de la plataforma ‘AVANZO’ – software desarrollado por la Secretaria de Innovación-.  

A través del Plan Cuscatlán: Innovación y Tecnología, el Presidente Nayib Bukele prometió en 2018  transformar tecnológicamente al país y entregar servicios públicos más eficaces. Las instituciones y mecanismos de control en El Salvador son muy débiles y no existen los marcos regulatorios que garanticen el ejercicio y protección de los derechos de los ciudadanos frente a la adopción de las tecnologías. La ausencia de regulación, supervisión y seguridad significa, en otras palabras, la ausencia de los controles y balances que ayudarán a proteger los derechos y las libertades civiles y, en general, hacer valer el Estado de Derecho.

Esa promesa ambiciosa choca de frente con recientes casos de exposición de datos confidenciales de miles de contribuyentes, estudiantes y ciudadanos,  evidenciando aún más la falta de regulación, estándares y protocolos básicos de protección de datos personales y seguridad de la información en el sector público, y aumentando el riesgo para cualquier persona que deba entregar su información personal. Preocupa aún más que gobiernos desarrollen y adopten tecnologías sin transparencia y regulación adecuada, como el caso de la prueba AVANZO. ¿Qué resguardos se han tomado en su formulación? ¿Cómo puede hoy la ciudadanía auditar o evaluar la creación y la adopción de esos sistemas?

De acuerdo con el Secretario General de la ONU, desde hace 30 años a través de la ratificación de la Convención de las Naciones Unidas sobre los Derechos del Niño, casi 200 países han reconocido que “los niños tienen los mismos derechos humanos que los adultos”. Las tecnologías pueden impactar de diversas maneras sus vidas y sus derechos, sea positiva o negativamente. La Ley de Protección Integral de la Niñez y Adolescencia (LEPINA) de El Salvador, basada en la Convención de los Derechos de los Niños, reconoce el derecho al honor, imagen, vida privada e intimidad, protección de datos y el interés superior de los niños y niñas. Y, en su articulado, prohíbe el uso de la imagen o en contra de la voluntad del niño o niña, o sin el consentimiento de sus padres. Imponer la verificación facial es grave, pues implica que miles de niños y niñas deberán entregar sus datos biométricos como la única alternativa para rendir la prueba.

En un contexto global de pandemia, que ha atacado fuertemente a países como El Salvador, parece ser que se acelera la marcha hacia “soluciones” tecnológicas que, entre otras cosas, asistan a los procesos educativos de los países. Pero frente a este apuro por digitalizar procesos, no hay una prisa similar por resguardar la información de las personas sujetas a esos procesos. Ni siquiera por el hecho de tratarse de personas menores de edad. A la fecha se desconoce el destino final y como serán almacenados esos datos. ¿Qué promovemos con este tipo de medidas? ¿El interés superior de los niños y niñas, o la colecta y uso de sus datos?

The Social Dilemma: una carta de amor a Silicon Valley

“¿Viste The Social Dilemma? ¿Qué te pareció el documental?”, son dos preguntas que extrañamente me ha tocado tener que responder de forma recurrente en las últimas semanas. Y en cada ocasión siento que no he sido capaz de hacerme entender tan claramente como quisiera; que el disgusto y las críticas al documental no tienen por objeto desmentir ni exculpar a las grandes compañías que manejan las distintas plataformas que usamos día a día, ni tampoco negar el hecho de que estas plataformas tienen problemas serios, que necesitan ser discutidos y enmendados. Mi problema es de enfoque. Así que decidí escribir esto, a ver si es que así es más fácil responder ambas preguntas.

Partamos por el principio: The Social Dilemma es un documental dirigido por Jeff Orlowski, distribuido por Netflix, y que desde septiembre está a disposición de las suscriptoras a la plataforma de streaming en América Latina. En poco más de hora y media de duración, el documental combina pequeños segmentos de ficción, intercalados con entrevistas a un variopinto grupo de personalidades de alto perfil en el ámbito de lo que podríamos denominar la “crítica a internet” —incluyendo a Shoshana Zuboff, Cathy O’Neil y Jaron Lanier—junto a varios arrepentidos ex empleados de Silicon Valley, explicando cómo las empresas para las que solían trabajar han arruinado el mundo. La mayor parte de los entrevistados son estadounidenses y no hay participación de ninguna de las organizaciones trabajando sobre estos temas en América Latina, África o Asia, en caso de que se lo preguntaran.

Y ese es el primer problema con The Social Dilemma: en el fondo, no es más que una declaración de amor a los genios de Silicon Valley y su capacidad para transformar, destruir y, en última instancia, salvar al mundo. Como si San Francisco, California fuese el lugar donde habita la única gente capaz de identificar, reflexionar y proponer soluciones a los problemas que genera la tecnología.

Junto con ello, el documental generaliza preocupaciones que parecieran ser muy estadounidenses —o si se quiere, muy propias de las personas que eligieron entrevistar— y las universalizan, con una mirada que no solamente es ombliguista, sino que además puede terminar siendo contraproducente para el trabajo que distintas personas realizan en otras latitudes, en la medida en que se convierte en el discurso hegemónico respecto al modo en que se debe pensar sobre estos asuntos, a pesar de que el enfoque no se traduzca de manera exacta a contextos diferentes, donde los problemas pueden ser diferentes y se pueden expresar de otros modos. No hay que olvidar que las tecnologías no funcionan en el vacío, sino que ocupan roles específicos de acuerdo al uso que personas reales les dan, en contextos particulares. De modo que no es tan sencillo asumir simplemente que el impacto de las redes sociales es el mismo en Otawa, Machala y Hanoi.

Luego están los problemas en los cuales el documental decide centrarse: adicción, manipulación del comportamiento, polarización política, depresión y suicidio adolescente. Presentados sin ningún tipo de contexto, el documental sugiere que son las redes sociales las responsables de producir estos males, como si la tecnología tuviese por si misma la capacidad de deprimir e incitar el suicidio, sin atender a las condiciones particulares y complejas —sociales, familiares, económicas, de salud, etc.— en que se desenvuelve una persona con depresión. Una suerte de tecnosolucionismo a la inversa, un «tecnoconflictivismo».  

En ningún momento el documental se detiene a reflexionar que es improbable que sociedades altamente polarizadas—donde abunda la desigualdad, la exclusión, el racismo, el odio, la misoginia y otras formas de violencia— generen usos de las tecnologías que no den cuenta de esta condición estructural. Más todavía: sorprende la falta de mención a cuestiones como el acoso y la violencia en redes sociales, particularmente respecto a personas pertenecientes a grupos no-hegemónicos, precisamente porque es donde las plataformas están más en deuda y donde más acciones concretas pueden tomar.

De la misma forma, el racismo se trata de manera somera, sin atender al hecho de que la gran mayoría de los ex empleados de Silicon Valley entrevistados son blancos.  En vez de eso, el documental prefiere hacer declaraciones hiperbólicas respecto a problemas cuya conexión a las redes sociales ha sido cuestionada, sin aportar mayor evidencia al respecto.

Igual que en The Great Hack, los documentalistas asumen que las tecnologías que están analizando funcionan a la perfección y están dotadas de todas las capacidades que sus creadores les asignan. El procesamiento de datos les darían no solamente la capacidad de conocer a alguien, sino de predecir y moldear su comportamiento, tres cuestiones altamente complejas, pero que aparentemente sería posible por medio de unos algoritmos todopoderosos. ¿Pero qué pasaría si el escenario fuese más complejo que ese? ¿Qué pasaría si el perfilamiento de datos aportara una imagen parcial de una persona, que se asume como totalidad? ¿Qué pasa cuando se confunde mapa y territorio, cuando no es posible separar la palabra de aquello que nombra? ¿Qué pasa si el perfilamiento es errado, cuando se están tomando decisiones reales que afectan a las personas? The Social Dilemma nunca se lo pregunta y presenta una imagen de tecnologías totalizantes, de las que no hay escapatoria.

Respecto a las soluciones, el documental parece proponer dos: eliminemos las redes sociales —como si eso fuese a resolver los problemas estructurales que se expresan en ellas— y agreguemos ética a la producción de tecnología, la solución favorita de Silicon Valley, porque les permite evitar un marco regulatorio que les haga responsables por sus errores y omisiones. En ese sentido, desde Derechos Digitales hemos sido claros y reiterativos respecto a la necesidad de contar con normativa basada en derechos humanos como guía para la regulación del diseño, desarrollo,  implementación y comercialización de tecnología.

Para finalizar, un recordatorio: El Mago de Oz no era más que un hombrecito detrás de una cortina, con una máquina de humo, hablando por un micrófono.