• Carregando...
Suspensão de compra de câmeras em SP abre debate sobre reconhecimento facial
| Foto: Pixabay

Esta semana, o Tribunal de Justiça do Estado de São Paulo suspendeu a compra de 20 mil câmeras de reconhecimento facial pela prefeitura da capital. As compras são feitas para o programa Smart Sampa que, entre outros objetivos, pretende combater roubos e furtos no centro da cidade. A ideia é que os dados sejam compartilhados com autoridades policiais para efetuar prisões de procurados e foragidos. Falando assim, parece que estamos num filme de ficção científica. Mas já vivemos essa realidade há alguns anos, sem uma discussão pública suficiente sobre o tema.

Este ano, por exemplo, usando o trabalho de apenas 81 câmeras de reconhecimento facial, 79 procurados pela polícia foram presos no carnaval de Salvador. Isso ocorre desde 2019, quando a prisão de um procurado que estava vestido de mulher viralizou no noticiário nacional. O folião, de 19 anos de idade, era procurado por homicídio. Estava fantasiado de melindrosa, com uma roupa de paetês e luvas roxas, munido de uma pistola de água. Pretendia desfilar no bloco As Muquiranas quando foi preso pela Polícia Militar.

A abertura da discussão sobre reconhecimento facial é benéfica. Resta saber se essa discussão será feita ou se o debate vai escorrer para as vias ideológicas.

No carnaval seguinte, o de 2020, mais capitais investiram no sistema. Todas elas efetuaram prisões. Veio a pandemia, ficamos presos em casa, o assunto arrefeceu. Mas as câmeras continuaram a ser utilizadas durante todo o ano e causaram prisões. Falando assim, parece excelente. Uma das grandes mazelas nacionais é o estado da segurança pública. A impunidade é um fantasma que assombra nossa sociedade. Tudo o que puder ajudar a reverter esse estado de coisas é bem-vindo.

Existem, no entanto, dois problemas graves que precisam ser discutidos e não estão sendo. O primeiro é a questão dos dados, que pertencem ao cidadão. Não sabemos exatamente como esses dados estão sendo utilizados. O outro, ainda mais grave, são os erros de identificação. Isso se agrava porque existe uma idealização de infalibilidade da tecnologia. O caso concreto de São Paulo, infelizmente, não aprofunda a discussão nesse ponto. Ele é mais focado em discussões ideológicas centradas no conceito de racismo estrutural. Ele esbarra na discussão sobre falhas da tecnologia, mas não a amplia para fora da discussão ideológica.

A impunidade é um fantasma que assombra nossa sociedade. Tudo o que puder ajudar a reverter esse estado de coisas é bem-vindo.

A ação foi movida pela vereadora Silvia Ferraro, do PSOL, cujo mandato se define como coletivo e composto por 5 mulheres. Ela alega que a tecnologia perpetuaria o racismo estrutural em São Paulo. “Inúmeros pesquisadores de diversas áreas (direito, psicologia, sociologia, tecnologia de informação entre outras) e instituições renomadas (do Brasil e do exterior) apontam para riscos concretos de reprodução do racismo estrutural no uso do sistema de monitoramento por reconhecimento facial porque essa tecnologia reproduz padrões de discriminação incorporados na cultura e na dinâmica institucional das sociedades sem permitir qualquer revisão desses graves comportamentos”, diz a decisão.

É mais um caso em que um conceito trazido por teorias críticas, o do  racismo estrutural, é tratado como verdade científica e fato objetivo. No livro O Fascismo da Cor, um dos intelectuais negros mais ativos e respeitados do Brasil, Muniz Sodré, argumenta que o racismo brasileiro não é estrutural, é institucional. Em entrevista à Folha de S. Paulo, o professor emérito da UFRJ argumenta: “O conceito de estrutura é um conceito complexo. Primeiro, tenho que advertir que não tenho nada contra falar em racismo estrutural, porque acho que, do ponto de vista político, é bom, é fácil. Dá um ancoramento para a ideia de racismo aqui no Brasil. Mas eu digo que ele não é estrutural. Parto de coisas simples, como a frase do ministro Luís Roberto Barroso, do STF, quando ele disse que, no Brasil, as estruturas são feitas para não funcionar. Ele está falando da estrutura jurídica, da estrutura econômica, e é verdade. As estruturas aqui são feitas para não funcionar. Por que a única a funcionar seria o racismo?”.

Os erros nos sistemas de reconhecimento facial são muito maiores do que admitem as empresas e os governos.

Toda a sentença é ancorada no conceito de racismo estrutural, quando os problemas das identificações faciais também vão além disso. Em maio de 2021, fiz um artigo aqui na Gazeta do Povo contando o caso kafkaniano de Robert Williams, preso na porta de casa acusado de assaltar uma loja em Detroit. O mais bizarro é que ele era visivelmente diferente da foto do suspeito. Ocorre que o sistema de reconhecimento facial dizia que era a mesma pessoa. Resultado? Ele ficou preso. É absurdo e, infelizmente, não é o único caso.

Os erros nos sistemas de reconhecimento facial são muito maiores do que admitem as empresas e os governos. Falei em detalhes sobre isso na coluna “Vale a pena investir em reconhecimento facial?”, que escrevi no ano de 2020. Existem erros em todas as populações, mas eles são maiores para pessoas negras e mulheres. Em escala de erros, o primeiro grupo é de mulheres negras, depois homens negros, depois mulheres brancas e então homens brancos. Não há medições falando especificamente de populações latinas, que é o nosso caso.

Muita gente pode fazer a conta evitando as questões morais, humanas e de direitos fundamentais. Se prendemos uma maioria de criminosos, existe quem não se importe com a prisão injusta de alguns inocentes. É brutal e indecente, mas é uma racionalização que existe.

Os problemas, no entanto, são maiores. No artigo de 2020, mostrei que a polícia de Londres dizia que o índice de erro da tecnologia era de 0,1% mas havia testes mostrando erros em até 80% dos casos. A abertura da discussão sobre reconhecimento facial é benéfica. Resta saber se essa discussão será feita ou se o debate vai escorrer para as vias ideológicas.

0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]