Vigilância, controle social e desigualdade: a tecnologia reforça vulnerabilidades estruturais na América Latina

A implementação de programas de condicionam o acesso a serviços básicos à vigilância estatal e privada aprofunda a desigualdade predominante na região.

CC: BY (Kirill Sharkovski)-SA

Enquanto a distância que separa ricos e pobres aumenta no mundo, a América Latina segue sendo a região onde a riqueza se distribui de forma mais desigual. De acordo com a Comissão Econômica para a América Latina e o Caribe (CEPAL), existem na região grandes desequilíbrios em questões como esperança de vida, mortalidade infantil, analfabetismo e acesso à água potável entre os diferentes níveis socioeconômicos. Em outras palavras, a desigualdade influi diretamente no bem estar da população, suas possibilidades de desenvolvimento e de exercitar seus direitos fundamentais.

A implementação de programas que condicionam o acesso a serviços básicos à vigilância estatal e privada são um exemplo de como as tecnologias não são neutras e de que seu impacto é diferente para a população de acordo com variáveis como gênero, raça e classe social.

Aproveitando-se das deficiências de nossos sistemas legais e explorando suas áreas cinzentas, a indústria tem promovido ativamente um técno-solucionismo que é abraçado de maneira irresponsável por uma classe política que busca legitimar-se com base em uma ideia deturpada de progresso. O negócio se baseia fundamentalmente na promessa de um benefício questionável aos custos dos direitos daquelas que não têm opção além de submeter-se à vigilância, controle e discriminação.

A desigualdade se esconde hoje atrás de uma série de sistemas que em nome da eficiência tentam naturalizar seu viés discriminatório, dificultando o escrutínio público dos processos que regulam o acesso a programas sociais, o uso de transporte público, a participação em eventos populares, entre outros. Exemplos não faltam.

Explorando dados das pessoas mais vulneráveis

Em 2017, o estado de Salta, na Argentina, assinou um acordo com a Microsoft para utilizar inteligência artificial na prevenção da gravidez adolescente e da deserção escolar. De acordo com a empresa, a partir de dados coletados por meio de enquetes, “algoritmos inteligentes permitem identificar características nas pessoas, que podem derivar em algum desses problemas e advertir o governo para que possa trabalhar na sua prevenção”. Os dados são processados nos servidores da Microsoft distribuídos ao redor do mundo e, como resultado, apontam especificamente às adolescentes supostamente em risco, afetando sua privacidade e autonomia e gerando amplo potencial de discriminação. Trata-se de um mecanismo dirigido de controle que expõe  crianças e adolescentes a intervenções sem seu consentimento e com enorme capacidade de reforçar condições prévias de vulnerabilidade.

Ainda que se argumente que os dados utilizados para a projeção são oferecidos de maneira voluntária, é questionável a ideia de que as meninas e adolescentes afetadas (ou suas responsáveis) possam dar um consentimento ativo e realmente consciente sobre as implicações do acesso estatal a informações específicas relacionadas a hábitos sexuais e eventual gravidez. Cabe lembrar que Salta foi o último estado argentino a deixar de oferecer educação religiosa nas escolas públicas depois de uma decisão da Corte Suprema que reconheceu que a prática implicava em violações aos direitos à igualdade, não discriminação e privacidade da população. O uso tecnológico descrito não é nada mais do que a expressão de problemas mais amplos do Estado em compreender os âmbitos de autonomia e privacidade das cidadãs.

No Brasil, o Ministério da Cidadania assinou um acordo com o governo de Salta e a Microsoft para implementar um programa similar. Nesse caso, pretende-se também prever questões como desnutrição e doenças na primeira infância. O país seria o quinto na região em reproduzir a experiência argentina. Além de dúvidas sobre o consentimento informado e o acesso do Estado a informações sensíveis sobre populações vulneráveis, ficam sem resposta algumas perguntas sobre quais outros usos ou previsões podem ser extraídas desses dados e quais os limites para seu tratamento por parte da Microsoft e dos governos envolvidos no programa.

O Chile, por sua vez, iniciou em 2019 a implementação de uma ferramenta piloto que busca detectar crianças e adolescentes em situação de risco. De acordo com o Ministério de Desenvolvimento Social e Família, o “Alerta Niñez” (em português “Alerta Infância”) é um instrumento preventivo que “identifica o conjunto de condições individuais, familiares, do entorno e dos pares de crianças e adolescentes que tendem a se apresentar quando existe um risco de violação de direitos”. O sistema se baseia no processamento estatístico de grandes quantidades de dados provenientes de órgãos públicos para qualificar a população menor de 18 anos, classificando as pessoas de acordo com sua probabilidade de sofrer violações.

Ainda que nesse caso o sistema tenha sido desenvolvido por uma universidade local, novamente se trata de uma iniciativa invasiva de coleta de dados sensíveis de menores de idade, que traz grandes riscos de aprofundar situações de preconceito e estigmatização a grupos historicamente marginalizados. Esses processos implicam, ainda, na transferência de dados pessoais a terceiros e na sua utilização para fins distintos dos que justificaram sua coleta num primeiro momento: sem base legal ou garantias de que a informação não será novamente reutilizada para outros propósitos no futuro.

Uma vez que questões como gravidez adolescente, evasão escolar e desnutrição são problemas estruturais na região, é extremamente questionável que as políticas associadas sejam mediadas ou condicionadas à coleta de grandes quantidades de dados. Por outro lado, a ausência de preocupação com os direitos da infância e adolescência – estabelecidos em instrumentos de direitos humanos vigentes em toda a região – representa um problema ainda mais profundo.

Vigilância, controle e exclusão

No Chile, a implementação de mecanismos de identificação biométrica no sistema nacional de saúde preocupa devido às limitações que pode gerar ao acesso de populações historicamente marginalizadas e empobrecidas, assim como idosos que perderam a legibilidade de sua impressão digital.

A adoção do chamado “Sistema Biométrico para a Segurança Alimentar” na Venezuela, por meio do qual se exige a verificação de identidade por meio da impressão digital para a compra de produtos de primeira necessidade (alimentos, produtos de higiene e medicamentos), levou a denúncias de discriminação a estrangeiros e pessoas transgênero. A situação é particularmente preocupante dada a situação de escassez de bens essenciais e a crise humanitária que se agrava no país, afetando principalmente os direitos à alimentação e saúde das populações mais vulneráveis.

Na cidade de São Paulo, no Brasil, se implementou há dois anos o uso de câmeras de reconhecimento facial nos ônibus sob a justificativa de combater fraudes no uso do Bilhete Único, particularmente na utilização de benefícios como gratuidade para idosos e pessoas com deficiência ou desconto na tarifa para estudantes. Desde então mais de 300 mil cartões foram bloqueados por suposto uso indevido. Ao mesmo tempo, a prefeitura anunciou sua intenção de suspender totalmente os bilhetes anônimos e  implementou medidas para restringir o seu uso, forçando a identificação. Esse tipo de ação pode gerar grandes impactos no acesso ao serviço de transporte. Em uma cidade das dimensões de São Paulo, o Bilhete Único permite a integração entre diferentes tipos de transporte público e é fundamental para a locomoção de grande parte da população ao trabalho, escola e atividades culturais.

Além de criar limitações ao acesso a serviços públicos, os sistemas de identificação obrigatória e biométricos resultam numa “supervigilância” de grupos marginalizados. Não se sabe como são utilizados, agregados ou compartilhados os dados coletados e é desproporcional a exigência dessas informações para a entrega de serviços básicos. No caso venezuelano, por exemplo, as bases de dados biométricas provêm do sistema eleitoral e são utilizadas tanto por agentes estatais – incluindo funcionários de imigração e policiais – quanto por caixas de supermercados e farmácias sem nenhum requisito legal prévio. Em São Paulo, a atual gestão municipal chegou a anunciar a venda das bases de dados do Bilhete Único, mas sob pressão pública mudou de posição.

É importante lembrar que só se submetem a esses sistemas as pessoas que dependem de serviços públicos de saúde, assistência social e transporte e que, de modo geral, não incluem as elites locais. Essas podem recorrer a prestadores privados, exercendo maior controle de seus dados pessoais e preservando sua privacidade.

Desigualdade, discriminação e pobreza

Que os mecanismos de vigilância sejam implementados de maneira diferencial aos grupos mais vulneráveis não é novidade e remonta processos de controle social e precarização que estiveram na base da construção de muitas de nossas sociedades. O que se observa nesses exemplos, porém, é o uso das tecnologias para manter e aprofundar uma estrutura social desigual na qual o exercício de direitos é restrito a uma pequena elite. Com assistência tecnológica, a vulnerabilidade é castigada com mais vigilância.

Não há por que ser assim. A promessa da tecnologia é para a melhoria das nossas vidas e deveria ser transversal ao invés de reservada às pessoas que podem pagar o preço de não ter que se submeter a aplicações abusivas. Iniciativas baseadas em uma abordagem de direitos fundamentais e que partam de uma compreensão interseccional dos diferentes tipos de exclusões são fundamentais para resistir à desigualdade na região. Só assim as novas tecnologias podem, quem sabe, contribuir com a  construção de sociedades mais justas e a diminuição das brechas que enfrentamos.