Fiebre de vigilancia en las gradas

En toda América Latina por décadas la afición al fútbol ha sido acompañada por la crónica roja, la presencia en los estadios de barristas a favor o en contra viene marcada por hechos de violencia, desde peleas entre barras bravas en las calles hasta invasiones de campo, en ocasiones con consecuencias fatales. Ejemplos, desafortunadamente, sobran. 

Pero tal como ocurre con la conmoción social asociada a la delincuencia en los espacios públicos, junto con cada reporte de violencia dentro o alrededor de los estadios de fútbol se alzan voces que exigen mayor seguridad. Más controles en la venta de entradas, más presencia de guardias armados, más presencia policial en los alrededores de los recintos deportivos y más represión.

Y tal como ocurre con los espacios públicos, con un oportunismo y entusiasmo por una transformación digital a través de sistemas biométricos para identificar a cada hincha, se ha incluido la implementación del reconocimiento facial en los estadios de fútbol. Si bien se presenta como una medida de seguridad y control de acceso eficiente, su adopción plantea desafíos éticos y legales significativos.

Marca personal

El funcionamiento del reconocimiento facial exige por una parte la digitalización del rostro de manera automatizada, y por otra un registro biométrico preexistente con el cual cotejar. Sea para verificar que se trata de una persona específica, o para identificarla entre un universo de posibles personas. Así, la identificación de personas impedidas de ingresar a estadios podría lograrse, en principio, con ayuda de tecnologías de reconocimiento facial. 

No obstante, lo que vemos avanzar desde hace varios años son sistemas de registro ex ante de las personas asistentes a estadios, mediante sistemas como el FAN ID que circula desde la Copa del Mundo de 2018 hasta el Registro nacional de hinchas que se exige en Chile desde 2024, como métodos de fría entrega de datos como condición previa para ser parte de una pasión de multitudes.

Con diferentes  tipos de despliegue en varios países de la región se han ido incorporando tecnologías de reconocimiento facial durante los últimos años. La industria se ufanaba en Uruguay de ser pioneros en la instalación de estas tecnologías en la década pasada. También entonces en Argentina se anunciaban avances tecnológicos y pasaportes digitales, que ya tenían el antecedente de una intensa videovigilancia. En Colombia la industria promueve su tecnología tanto para el fútbol como para otros espectáculos en estadios deportivos.

En Brasil, años después de exponer a la afición de toda la región en la Copa América de 2019 las noticias declaraban uso efectivo en un estadio y sucesivos anuncios de instalación en otros.  En México se aceleró la adopción tras una escandalosa batalla campal con decenas de heridos, y si bien la autoridad de control de datos personales intervino tras la creación de nuevas formas de identificación de hinchas, el uso de identificadores o “pasaportes” digitales como el FAN ID ha extendido su uso. 

En Chile, desde 2023 se prueban estos sistemas y cada vez más estadios en todo el país anuncian su instalación. La policía en Paraguay ha anunciado este año el uso de reconocimiento facial en estadios. Y así, nuevos anuncios de intenciones o de planes aparecen con frecuencia, azuzados por sus vendedores.

Peor que el VAR

Como hemos denunciado por años, la promoción de estas tecnologías está acompañada por discursos que le atribuyen efectividad para identificar individuos y así disuadir la violencia y garantizar un ambiente seguro para hinchas y sus familias. Es un elemento crucial la percepción de seguridad asociada a la presencia de elementos de vigilancia.

Sin embargo, esta aparente solución de seguridad plantea una serie de preocupaciones éticas y legales. En primer lugar, el uso generalizado del reconocimiento facial en los estadios de fútbol conduce casi necesariamente a una vigilancia masiva de los aficionados, erosionando su privacidad y sus libertades individuales. Además, existe el riesgo de errores y sesgos inherentes a los algoritmos de reconocimiento facial, lo que podría resultar en identificaciones erróneas y la exclusión injusta de espectadores inocentes. Esto plantea interrogantes sobre la equidad y la justicia en el acceso a los eventos deportivos, especialmente en una región tan diversa como América Latina. 

Por cierto, aún si los sistemas funcionan bien y sin errores, la intensa vigilancia que conlleva la captura y el uso de datos biométricos crea nuevas instancias de vulnerabilidad sobre las personas vigiladas.

La recopilación y el almacenamiento de datos biométricos, como las imágenes faciales, plantean riesgos significativos en términos de seguridad y potencial abuso por parte de las empresas, las autoridades o de terceros malintencionados: nuevas bases de datos que pueden ser explotadas por empresas sin criterios claros, o utilizadas sin autorización por bandidos cibernéticos, comercializadas inescrupulosa o ilegalmente, o entregadas sin resguardo alguno de debido proceso a la autoridad. Ninguno de esos riesgos debería ser aceptado como condición para ser parte de espectáculos deportivos o artísticos.

Goles y autogoles

Quizás uno de los aspectos más desmoralizantes de la insistencia por la securitización mediante tecnologías digitales, es la facilidad con que las autoridades políticas hacen propio el discurso de los mercaderes de la vigilancia.

A modo de ejemplo, mientras en Chile avanza discutiendo el detalle de los últimos artículos para renovar su Ley de Datos Personales, incluyendo mejor protección en el caso de datos biométricos, una comisión de la Cámara de Diputadas y Diputados aprobó de manera expresa la exigencia del uso de biometría en los estadios de fútbol profesional. 

Excelente momento para ser vendedor de tecnologías de vigilancia, pésimo momento para ser hincha. Como reconoce Aldo Rómulo Schiappacase, “para controlar a los más violentos se aplican medidas que afectan a todos los hinchas”, en otro esquema de recolección masiva de información y control sobre la totalidad de un grupo, en atención a la incapacidad de prevenir las incivilidades de algunos de sus miembros, o peor aún, de reconocer y prevenir las causas de la violencia en los estadios. En este caso, el grupo afectado es precisamente aquel que decide acudir presencialmente a atestiguar la gloria deportiva. Cada hincha, por ser hincha, pierde en parte su presunción de inocencia, su libertad de reunión pacífica, su autonomía individual.

Quién tiene la pelota

Todo lo dicho es más que sabido. Las preocupaciones han aparecido una y otra vez, e igualmente el discurso avanza en un único sentido: cada vez más vigilancia, sin resultar en mejoras sustantivas para la seguridad y hasta alejando a la afición de los estadios.

¿Hasta qué punto estamos dispuestos a sacrificar la privacidad y libertades individuales en aras de la seguridad y el orden público? Si bien es indudable que la seguridad en los eventos deportivos es prioridad, es crucial encontrar un equilibrio entre la protección de los aficionados y el respeto a sus derechos fundamentales. Y ese equilibrio no se alcanza con medidas tan intrusivas como lo es el reconocimiento facial.

Así, al menos lo consideró este año la autoridad de control de datos personales en España, al advertir a su poderosa Liga local frente a la licitación de sistemas de reconocimiento facial, un año después de haber ordenado el cese del funcionamiento de sistemas biométricos y la eliminación de la información recabada. Más importante; sugiere la búsqueda de alternativas menos intrusivas: que a un problema identificado se le busque la solución adecuada, en vez  de inventar ajustes para una solución ya elegida.

Podemos volver a repetir la importancia de enfoques que consideren la eficacia de la tecnología y sus implicaciones éticas, legales y sociales, como también la necesidad de salvaguardias adecuadas de transparencia, auditabilidad y rendición de cuentas. O reiterar que un enfoque equilibrado debe considerar a la vez medidas tecnológicas y políticas públicas sólidas, no centradas en vigilancia y represión como en prevención e inclusión, con participación significativa de la sociedad civil para garantizar que se aborden todas las preocupaciones pertinentes. Todo eso es valioso.

No obstante, un debate serio sobre la adopción de estas tecnologías debe enfrentar también la posibilidad real de no adoptarlas. El auténtico respeto por la afición exige no vulnerar sus derechos por una falsa expectativa de seguridad.

El riesgo constante de ser periodista en México: un caso de filtración de datos personales

A finales de enero de 2024, se dio a conocer que una base de datos personales de más de 300 periodistas estaba circulando en un foro de filtraciones. La base contenía informaciones como la Clave Única de Registro de Población (CURP), el Registro Federal de Contribuyentes (RFC), identificaciones oficiales, dirección, entre otras. Según se pudo comprobar, ésta pertenecía al Sistema de Acreditación de Prensa de Presidencia, utilizada para el registro de periodistas que desean acceder a las conferencias matutinas del presidente Andrés Manuel López Obrador.

La noticia genera alarma dados los altos registros de violencia contra periodistas en México. De acuerdo con el informe semestral de Artículo 19, entre enero y junio de 2023, la organización registró 272 agresiones en contra de periodistas y medios de comunicación, de las cuales poco más de la mitad (140) tuvieron a instituciones del Estado como perpetradoras, lo que siembra una desconfianza hacia el gobierno con énfasis en las fuerzas armadas. Mientras tanto en 2022, se registraron 696 ataques, siendo el año más violento que haya monitoreado la organización desde el 2007.

Asimismo, existe el riesgo de que la información, disponible libremente por el filtrado, sea utilizada para incrementar las amenazas y ataques sufridos por comunicadoras y comunicadores en el país. Esta situación puede exponer a periodistas que ya se encuentran bajo el Mecanismo de Protección para Personas Defensoras de Derechos Humanos y Periodistas, y que han asistido a la conferencia matutina. Es sabido que pese a formar parte de los mecanismos de protección, algunas personas no han encontrado la seguridad necesaria, como el caso de Lourdes Maldonado López, quien – incluso habiendo expresado su miedo ante el presidente en una de sus conferencias – fue asesinada en 2022.

El discurso oficial no pareció compartir las preocupaciones de gran parte de la sociedad con relación a la filtración y la situación de los y las periodistas. En un primer momento, López Obrador se refirió a la filtración como una forma de atacar a su gobierno por parte de sus adversarios, como consecuencia de una “guerra sucia”, desviando a sí mismo el centro de atención y minimizando los riesgos implicados a periodistas y sus familiares.

La explicación sobre los hechos tampoco ha sido consistente en el tiempo. Inicialmente el presidente declaró que se trataba de un hackeo para desprestigiar a su gobierno. Posteriormente, la versión oficial de la base de datos a partir de una cuenta y credenciales de un funcionario que dejó de trabajar en la Coordinación de Estrategia Digital Nacional hace dos años.

En este momento, el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI) declaró que iniciaría una investigación e incentivó a las personas afectadas a presentar las denuncias correspondientes. Fueron 23 periodistas que iniciaron una denuncia penal.

Cuando la irresponsabilidad encuentra la incompetencia

La incapacidad de respuesta y acción del Estado mexicano cuando se trata de las múltiples vulneraciones de derechos humanos sufridas por periodistas no es exclusividad de este caso. La filtración de datos personales de periodistas es un eslabón más en esta cadena.

No es una prioridad y no existe compromiso gubernamental para proteger  periodistas en el país, y este caso sirve para reafirmarlo.  Además, demuestra la poca capacidad del gobierno, especialmente de Presidencia, para implementar medidas de seguridad adecuadas para el manejo de datos personales en su poder, más allá de las obligaciones establecidas por las normativas de protección de datos nacionales. La investigación del INAI en este proceso será crucial para contar con sanciones que impulsen una mejora en la capacitación sobre protección de datos personales. Mientras tanto, la pregunta que queda abierta es la que se refiere a los protocolos de seguridad para inhabilitar cuentas de exfuncionarios públicos.

Esta no es la primera filtración que ha sufrido el Estado mexicano en tiempos recientes. De hecho, fue gracias al hackeo de un grupo autodenominado Guacamaya, en 2022, que se pudo conocer más sobre las prácticas de vigilancia contra civiles – incluso periodistas – implementadas por la Secretaría de la Defensa Nacional (Sedena). El episodio no sólo contribuye a entender la poca diligencia en materia de seguridad digital por parte del gobierno, sino que también evidencia que el Estado también es cómplice en la fragilización de la privacidad y seguridad de periodistas y sus familiares.

Mientras esto sucede, la vida de las comunicadoras y comunicadores está en riesgo todos los días. Esta filtración de información personal pone en una posición aún más vulnerable a periodistas que se encuentran en la base, en especial aquellos y aquellas que previamente han recibido algún tipo de amenaza, lo que les ha llevado a ser parte del Mecanismo de Protección a Periodistas.

Este caso pone sobre la mesa la relevancia de la protección de datos personales de periodistas, pues su difusión puede traer graves consecuencias. Es crucial realizar una investigación exhaustiva sobre lo sucedido y analizar las medidas de gestión de datos personales que están siendo realmente aplicadas por los sujetos obligados, así como los protocolos de seguridad digital existentes. Esto podría tener como consecuencia el impulso y promoción de mejores prácticas en los gobiernos. Existe también, una necesidad imperativa de reparación del daño a periodistas que vieron vulnerados sus derechos, así como la implementación de una estrategia que contribuya a disminuir los riesgos a los que se puedan enfrentar. 

Sin duda, ejercer la labor periodística en México seguirá trayendo riesgos inminentes hasta que exista un interés y una preocupación efectiva por proteger a periodistas, especialmente por parte del gobierno. Es necesario un compromiso por garantizar el ejercicio de derechos humanos como la libertad de expresión y el acceso a la información, ejes centrales del periodismo.

Decir que no al tratamiento de nuestros datos

El consentimiento no siempre es libre, y esto es una amenaza para el ejercicio del derecho a la protección de datos. Decir que al tratamiento de nuestros datos porque en realidad no hay otra opción es un evento que sucede a toda hora, en actividades sencillas como la descarga de una aplicación móvil, en la aplicación de un beneficio social o en la solicitud de regularización migratoria ante los Estados. En esos escenarios decir que no es una opción, sino más bien un acto reflejo. Esta situación recibe el nombre de ‘consentimiento forzado’.

Vale la pena decir, para quienes no son especialistas en el tema, que para el tratamiento de nuestros datos hay más de un mecanismo o base jurídica que sirve para autorizar dicho proceso –interés legítimo, un contrato, una base legal, etc.-, pero por ahora enfoquemos la atención en el consentimiento.

Las consecuencias de decir ‘no’ al tratamiento de datos

Decir o manifestar que no consentimos al tratamiento de nuestros datos puede traer consecuencias más o menos graves dependiendo del contexto. Negarse a aceptar la política de tratamiento de datos de la única aplicación de mensajería que usan la mayoría de nuestros contactos puede generar exclusión relacional, un asunto que se torna relevante en medio de la crisis de soledad que, según advirtió la OMS, se está instalando cada vez con más fuerza en nuestras sociedades de vínculos digitales.

Decir que no a la política de tratamiento de datos en el proceso de solicitud a un beneficio social que entrega el Estado, puede poner en riesgo la subsistencia familiar cuando el contexto económico apremia, tal y como sucedió en tiempos del covid-19. Y decir que no a la compartición de datos biométricos, sensibles, en los procesos de regularización migratoria, puede ser la única razón en que se justifique la negativa de entrega de las credenciales de residencia a las personas que los necesitan, aunque éstas cumplan con el resto de requisitos en la postulación.

No poder decir que no en materia de protección de datos tiene efectos negativos en relación con su ejercicio, sin importar si se trata de un responsable que pertenece al sector público o privado. Dicha imposibilidad resta capacidad decisional y libertad en la toma de decisiones sobre el destino de nuestros datos y, en consecuencia, convierte la pieza central de un derecho en un proceso artificioso.

Estos efectos deberíamos tomarlos en serio en sociedades como las nuestras que apuntan a la digitalización de la vida cotidiana, y en el que las tecnologías son cada vez más ambiciosas y dependientes de la explotación intensiva de nuestros datos.

Decir que ‘no’ a las empresas

Pero hagamos el ejercicio inverso, y pongámonos en los zapatos de las grandes empresas que recogen y amasan nuestros datos personales. Se podría pensar que, a quien no le gusten las condiciones de tratamiento de sus datos, siempre tiene la opción de irse a otra parte. Pero esta es una postura con varios matices de por medio.

Esta posición desprecia el hecho de que el ecosistema digital tiene muy pocos actores que ejercen una posición dominante en los mercados, y que éstos acostumbran en sus procesos expansivos a comprar los servicios de la competencia, la misma a la que uno termina migrando en búsqueda de mejores opciones. Esta posición dominante tiene como efecto, además, que haya incentivos para el surgimiento de servicios alternativos.

El caso más claro es el de WhatsApp, adquirido por Meta. Cuando cambió su política de tratamiento de datos en 2021 y no ofreció la posibilidad de decir que no a sus usuarios en Latinoamérica, tuvimos que consentir de manera forzosa pues no había de otra, en parte, por la ausencia de políticas regulatorias como las de Europa, en donde las personas usuarias del servicio tuvieron allí el respaldo del reglamento de protección de datos para decir que no y la garantía de se respetase su negativa.

Aquí, en cambio, migrar a otra aplicación de mensajería no fue ni es viable para muchas personas, especialmente para quienes habitan en contextos donde la brecha digital persiste y hace imposible el acceso a otros servicios de mensajería menos estables.

En el caso de varias aplicaciones dominantes, la negativa a aceptar sus políticas de tratamiento de datos  sin que eso signifique tener que renunciar a sus servicios también tendría un impacto económico en las personas, como fruto de las prácticas de tasa cero o zero rating. Es decir, prácticas en las que algunos operadores de telefonía móvil ofertan planes de navegación en línea y que prometen que al usar esas aplicaciones dominantes no se descontarán gigas del plan de navegación -un tema que en Colombia está siendo debatido por la Corte Constitucional-.

La negativa en la entrega de nuestros datos también se influencia por nuestras decisiones económicas, pero este es un vínculo que será mucho más claro o explícito cuando varios servicios digitales, que son en apariencia gratuitos, decidan empezar a cobrar a los usuarios que quieran mejores condiciones para la protección de sus datos. Algo que ya está sucediendo con algunas redes sociales.

Decir que ‘no’ al Estado

Cambiemos de actor, y vayamos ahora a los Estados. Decir que no al tratamiento de nuestros datos puede significar la negativa en el acceso a bienes o servicios esenciales. De igual manera, las entidades públicas podrían argumentar que precisan de la información personal básica que les permita prestar bienes y servicios que tienen a cargo, y esto en principio es cierto. Sin los nombres, edad o género de la persona que acude a un servicio médico, difícilmente sea posible garantizar el acceso a servicios personalizados de salud sexual y reproductiva, por ejemplo.

Pero también es cierto que, en los eventos en que la recolección de datos es necesaria para que los Estados funcionen con normalidad, se abre también paso a la recogida excesiva o innecesaria de datos, que nada tienen que ver con la prestación esencial del servicio que justifica su recolección. Entonces, no todo vale, y decir que no a esas condiciones de recogida excesiva, incluso decir que no al cambio de las condiciones iniciales que justificaron la recolección de datos inicial, debería ser factible y realizable.

¿Cómo potenciar el consentimiento libre e informado?

En el día internacional de la protección de datos, ¿qué podemos sugerir para potenciar el consentimiento libre e informado en los casos en decir que no al tratamiento de datos puede enfrentar tantos retos? En principio, reconocer que esta es una tarea que transita por varias vías.

La política regulatoria juega un papel clave para facilitar la investigación y sanción de los actores públicos y privados que hagan del consentimiento libre un proceso artificioso o inexistente u oneroso. También, tiene que ver con afianzar una cultura de la protección de datos que, en nuestra región, aún tiene un cariz profundamente individual que se enfoca en  la denuncia o la queja de la persona inconforme, sin que emerja una visión más sistemática sobre prácticas que trascienden e impactan a grandes grupos de personas en un mismo país o región.

Por último, el surgimiento de casos de protección colectiva del consentimiento libre puede contribuir a esta tarea –Brasil ya ha avanzado en esa línea-, pues tendría el potencial de impactar más profundamente en la cultura local y jurídica, así como de sensibilizar a más personas y responsables de datos sobre las consecuencias de hacer del consentimiento libre y de la facultad de decir que no, un saludo a la bandera.

Reconocimiento facial: tecnologías al servicio de la represión

Argentina, diciembre de 2023. Asunción del presidente electo Javier Milei. Recortes, ajustes, protestas. La Unidad Piquetera convocó una manifestación en respuesta a las primeras medidas del nuevo gobierno. El anuncio de la manifestación, planificada para el 20 del último mes del año, fue acompañado de nuevas medidas (y amenazas), que provocaron múltiples respuestas de la sociedad civil. 

Previo a la mencionada manifestación, la ministra de Seguridad nacional, Patricia Bullrich, presentó el llamado “Protocolo antipiquetes”, un documento para controlar la protesta y que menciona la utilización de distintas tecnologías de vigilancia con el objetivo de identificar manifestantes. Según el protocolo, que combina represión y persecución, los datos obtenidos por la policía “serán remitidos a la autoridad de aplicación correspondiente para la adopción de las medidas que correspondan”. Frente a la consulta sobre de dónde sacarían los datos, la respuesta fue determinante; “por las cámaras de reconocimiento facial”, dijo la ministra. “Vamos a identificar a las personas. Vamos a tener cámaras, vamos a tener drones y vamos a tener distintas formas de identificarlas”, afirmó durante  una entrevista en el canal LN+.

Del mismo modo, la ministra de Capital Humano, Sandra Pettovello, anunció que si quienes participaran de la protesta fueran beneficiarios de algún plan social, éste se les quitaría. Y volvió a mencionar en un video publicado en redes sociales del organismo, parafraseando al presidente, que “El que corta, no cobra”.

Argentina y el reconocimiento facial

Argentina ha sido pionera en la implementación de políticas de identificación con base en biometría, las que, de manera creciente, han incorporado elementos tecnológicos avanzados. La prensa local apunta a la existencia de al menos tres sistemas de reconocimiento facial automatizado en el país. 

Uno es el que se empezó a usar en 2018 en las canchas del fútbol argentino como parte del programa Tribuna Segura 2.0. El otro, llamado Sistema de Identificación Segura (SIS) es utilizado por las fuerzas de seguridad en ciudades como Rosario para la búsqueda de ”prófugos, personas con antecedentes penales” y con “pedido de captura en la vía pública”.

El tercero, es el sistema de reconocimiento de prófugos y personas desaparecidas que empezó a implementarse en las terminales de transporte público en la Ciudad Autónoma de Buenos Aires en 2019. Este sistema fue declarado inconstitucional en 2022 gracias a un recurso interpuesto por el Observatorio de Derecho Informático Argentino (O.D.I.A.).

Entre otros argumentos, la acción cuestionó la ausencia de estudios de impacto previos a la implementación y de mecanismos efectivos de supervisión y auditoría al Sistema de Reconocimiento Facial de Prófugos (SRFP). En su momento existieron acusaciones hacia el gobierno porteño por cargar en el sistema datos de más de 40 mil personas, entre ellas dirigentes sociales, políticos, jueces o fiscales entre otros. Se supo también que esos datos se enviaron al Registro Nacional de las Personas (Renaper) sin autorización.

Además de los mencionados, en 2021, el Consorcio Al Sur identificó sistemas de reconocimiento facial activos en la Provincia de Salta y en la localidad de Tigre (Provincia de Buenos Aires).

Tecnologías para la represión

Los impactos del reconocimiento facial automatizado, el uso indiscriminado de datos biométricos y la poca transparencia de las medidas de vigilancia, son temas que la sociedad civil argentina ha discutido largamente en los últimos años. Como era de esperar, los reclamos ante a la nueva Resolución no tardaron en aparecer.

El Centro de Estudios Legales y Sociales (CELS) denunció el protocolo y las acciones frente a la ONU y a la Comisión Interamericana de Derechos Humanos. La denuncia fue acompañada por 1700 firmas de centrales sindicales, movimientos sociales, organismos de derechos humanos, organizaciones sociales, gremiales, ambientales, de los pueblos indígenas, migrantes, transfeministas, religiosas, colectivos de infancias, estudiantiles y políticos. Además, más de 15 mil personas firmaron la denuncia a título personal. La carta, menciona que los nuevos procedimientos planteados son “incompatibles con los derechos a la libre reunión y asociación, a la libertad de expresión y a la protesta social, reconocidos tanto en normas locales, como en la Constitución Nacional y en los tratados y estándares internacionales de derechos humanos”.

La Fundación Vía Libre, reforzó en un comunicado que existen garantías previstas legalmente contra la recolección abusiva de datos personales: “la ley de protección de datos personales y el principio de hábeas data con rango constitucional te protege si tus datos de identidad, de salud o de crédito son usados sin tu consentimiento”. Según el texto, “Argentina está queriendo utilizar el sistema de reconocimiento facial para desincentivar las manifestaciones”. La organización recordó que no se trata del primer caso a nivel mundial, refiriéndose a denuncias de activistas frente al Tribunal Europeo de Derechos Humanos contra el uso de reconocimiento facial en manifestaciones en Rusia.

Luego de la enorme manifestación del 20 de diciembre, y tal como lo había adelantado la ministra Bullrich, se solicitó al actual gobierno porteño la información recolectada por las cámaras, a pesar de la inconstitucionalidad declarada en 2022. Sin embargo, las autoridades se negaron a aportar la información. Según explicaron, el sistema no está en condiciones técnicas ni judiciales para ser usado.

En la ocasión, agentes de la Policía de Seguridad Aeroportuaria (PSA) subieron a transportes que se dirigían a la movilización convocada por movimientos populares y organizaciones sociales, pidiendo documentación y filmando a los pasajeros con el propósito de identificar a manifestantes. Los hechos fueron registrados por una pasajera que subió a sus redes un video donde se observa el momento en que los agentes suben a un ómnibus y registran a los presentes con un celular.

Contra la represión automatizada

Los sistemas de recopilación de información personal ponen en riesgo un conjunto de derechos fundamentales como la privacidad y la protección de datos personales, la libertad de asociación y de expresión, el debido proceso y la presunción de inocencia, entre otros. Es inaceptable que la asistencia social esté condicionada a la abstención de ejercer el legítimo derecho a la protesta. Utilizar la vigilancia y la represión (policial, judicial o administrativa) como amenaza es una forma de censura y una violación de los compromisos asumidos por Argentina a nivel internacional.

El pedido es simple: que el nuevo gobierno argentino atienda a criterios de legalidad y a los procedimientos validados por la justicia y que cualquier acción de vigilancia sea necesaria y proporcionada. Que los órganos de persecución penal y de seguridad pública recuerden sus compromisos constitucionales como límites a sus acciones.

Que la población efectivamente sepa a dónde van sus datos, para qué se van a usar, y que puedan contar con auditorías regulares es una base mínima sobre la que actuar. La experiencia lo ha demostrado: sin transparencia, no hay garantía de derechos.

Y lo más importante: que termine la represión de la protesta legítima, con o sin herramientas automáticas y modernas.

Contribución conjunta sobre derechos humanos en el entorno digital en Chile

Este informe producido por Derechos Digitales y la Asociación para el Progreso de las Comunicaciones (APC) se enfoca en el ejercicio de los derechos humanos en la esfera digital en Chile, en el marco del 4° ciclo del Examen Periódico Universal (EPU) y analiza el cumplimiento de las siete recomendaciones en esta materia recibidas durante el ciclo anterior del EPU.

Migrantes sin papeles y su regularización

Quienes hemos migrado a otro país, o quienes han soñado en hacerlo, tenemos como una gran prioridad contar con “los papeles al día” lo que incluye, entre otros, portar un pasaporte y visado vigente, y obtener el documento de identidad o permiso temporal de estadía en nuestro lugar de destino.

No tener los papeles al día tiene consecuencias relevantes. Sin ellos es casi imposible matricularse en una universidad o colegio, reduce los chances de conseguir empleo formal, puede alejarnos del acceso a servicios de salud y ni hablar de abrir una cuenta bancaria para emprender o recibir un sueldo, o de la posibilidad de enviar o recibir mesadas. Todo esto sumado al miedo continuo de ser deportados o devueltos a nuestro lugar de origen por las autoridades migratorias.

La situación de migrantes indocumentados ha motivado al Relator Especial de los Derechos Humanos de los Migrantes de las Naciones Unidas a publicar un informe dedicado a llamar la atención de los Estados para que su situación se regularice. El informe, quizá por primera vez, advierte algunos aspectos sobre el rol que las tecnologías digitales juegan en ese tipo de políticas y que vale la pena explorar de cerca.

¿Qué es eso de la regularización?

Según el Relator Especial, la regularización es el proceso que emprenden los Estados para poner fin al limbo en que viven los migrantes indocumentados, a través de políticas diversas que buscan dotarlas de los permisos necesarios para normalizar su estadía o residencia en el país.

Estas políticas casi siempre tienen un período de duración limitado y operan bajo restricciones o requisitos exigentes, por lo que beneficiarse de estas no es fácil. El informe del Relator Especial menciona el caso de las políticas de regularización de migrantes indocumentados en Ginebra durante 2017 y 2018. Dicha política regularizó a indocumentados siempre que llevasen residiendo allí más de 10 años — 5 para personas con hijos—, tuviesen un empleo formal e independencia económica, un certificado A2 de francés y ningún antecedente penal.

Las políticas de regularización pueden llegar a ser tan exigentes, poco transparentes y discrecionales, que terminan excluyendo a los migrantes más vulnerables.

Regularización: entre la digitalización y la biometría

El informe menciona cómo, fruto de los procesos de transformación digital que están experimentando las políticas y proceso migratorios en distintos países, el trámite de las solicitudes de regularización depende cada vez más de los canales digitales. Para los migrantes sin papeles que no tienen acceso estable a internet o dispositivos para navegar en línea, o que no cuentan con las habilidades necesarias para navegar los sitios web o aplicaciones móviles a través de las cuales enviar y consultar el estado de su solicitud, la digitalización puede suponer un reto adicional. La brecha digital, recordemos, puede agravar desigualdades de base y el informe enfatiza que no tener papeles al día es un factor de vulnerabilidad muy serio.

Pero otro asunto que menciona el informe tiene que ver con la captura de datos biométricos de migrantes indocumentados como un obstáculo adicional en la postulación a los procesos de regularización. No obstante, no explora cuál es el impacto que podría tener la recogida de ese tipo de información en esos contextos. Una oportunidad perdida de cara a la progresiva masificación de ese tipo de prácticas en países como Colombia y, más recientemente, en Chile.

En ese contexto, distintas preocupaciones e intereses opuestos convergen. Por un lado, los migrantes indocumentados son titulares del derecho a la privacidad y protección de datos con la autonomía para decidir a quién entregan o no su información personal sensible. No obstante, el ejercicio del consentimiento en los contextos de regularización se ve en entredicho cuando la entrega de los datos biométricos supone una condición para acceder a los procesos de regularización migratoria. Ahora ¿qué finalidades cumple esta captura de datos?

En el caso de Chile, el más reciente caso en nuestra región, la toma de datos biométricos no tiene un fin del todo claro, pero abstenerse a su entrega puede influenciar negativamente la decisión de regularización migratoria que depende de si la persona solicitante tiene o no un empleo formal, vínculos familiares, ausencia de antecedentes penales, entre otros. Sin embargo, la política omite que las oportunidades de formalización de empleo para los migrantes sin papeles son escasas, si es que existen.

La creciente tendencia de recopilación de datos biométricos dice justificarse en la necesidad de identificar a las personas migrantes sin papeles, pero ¿qué otras alternativas menos invasivas de su privacidad podemos imaginar en aras de normalizar su situación migratoria? Urge fortalecer la rendición de cuentas de los Estados que despliegan políticas de regularización, al tiempo que aumenta su apetito por datos cuyo abuso puede ser instrumentalizado en contra de personas en condición vulnerable. Las políticas migratorias suelen tener reglas esquivas sobre privacidad y protección de datos, incluso cuando estas puedan estar vigentes.

En el caso chileno hay un proyecto de ley de protección de datos que lleva más de dos décadas en trámite. ¿Qué tema no ha sido discutido en la futura ley? La protección de los datos biométricos de personas migrantes en situación irregular, incapaces de negarse a entregar sus datos sensibles. ¿No valdría la pena corregir el rumbo ahora, que todavía estamos a tiempo? Ojalá en futuros informes el Relator Especial pueda profundizar en este tipo de prácticas.

Hasta entonces, les sugiero estar pendientes de nuestra próxima publicación sobre programas de identidad digital en la región. En ella hay hallazgos relevantes para avivar la discusión también en esta materia.