• Carregando...
Teste de reconhecimento facial feito no Aeroporto de Florianópolis (SC), em outubro de 2020
Teste de reconhecimento facial feito no Aeroporto de Florianópolis (SC), em outubro de 2020| Foto: Divulgação / Ministério da Infraestrutura

Responda rápido: você sabe quantas vezes seu rosto foi filmado hoje? Afinal, as câmeras estão espalhadas por shoppings, condomínios privados, bancos, praças, aeroportos, recepções de edifícios, estações de metrô, sistemas de desbloqueio de smartphones ou de identificação de fotos nas redes sociais. Esse fenômeno não é novo, mas vem sendo acompanhado de uma nova tendência: o uso de sistemas de reconhecimento facial baseado em inteligência artificial.

“É uma realidade, já está acontecendo. E as pessoas não sabem quando e como estão sendo submetidas a essa tecnologia”, afirma Ivar Hartmann, professor associado do Insper e coautor de um estudo que mapeou a aplicação e a base legal para o uso em 11 países latino-americanos.

“As incertezas quanto à magnitude do potencial negativo do monitoramento biométrico em espaços públicos, bem como a opacidade decorrente do uso da inteligência artificial, fazem com que seja necessário compreender qual o atual cenário de garantias legais frente esse novo instrumento de vigilância”, afirma o trabalho.

Como foi possível que essas tecnologias se disseminassem por todo o continente? “O resultado principal do estudo, que nos deixou bastante consternados, é que o embasamento legal não é uma lei produzida para estabelecer regras, e sim a cláusula de exceção de proteção de dados para uso na segurança pública”, relata o professor. “Uma cláusula de exceção virou autorização para implementar ações de reconhecimento”.

Falta de leis

Ainda mais grave do que a questão do uso de dados pessoais, avalia o especialista, é a falta de regras para definir a eficácia. “Não há como medir se funcionam, para diferentes formatos de rosto ou tom de pele. Mesmo que o desenvolvedor queira prestar contas da eficácia de seu produto, ele não saberia a quem se apresentar”.

Mariana Rielli, coordenadora-geral de projetos da Associação Data Privacy Brasil de Pesquisa, lembra que um varejista de roupa já foi questionado judicialmente por usar câmeras para identificar as reações faciais das pessoas a seus produtos. Ela explica que esse é um caso de uso mais amplo e genérico da tecnologia. O outro objetivo comum é fazer a autenticação para confirmar a identidade da pessoa, por exemplo, no vestibular da Fuvest ou em ônibus públicos, que assim confirmam que a pessoa de fato tem direito à gratuidade.

“Podem acontecer eventuais desvios de finalidade, informações coletadas por meio de reconhecimento facial, o indivíduo autorizar para uma finalidade e a imagem ser usada para outro fim”, explica. Mariana destaca que a Lei Geral de Proteção de Dados (LGPD) considera os pontos da face e as informações extraídas do rosto dados sensíveis, e, portanto, protegidos pela legislação.

Mas a LGPD abre uma exceção para caso de segurança nacional e perseguição a criminosos, e prevê que essa questão será regulamentada pela chamada LGPD Penal, em elaboração por um grupo de juristas. “A primeira versão dessa lei veda o monitoramento sistemático sem autorização judicial”, informa a especialista.

Viés racial

Com relação à eficácia dessas ferramentas, Joy Buolamwini, do Instituto de Tecnologia de Massachusetts (MIT), já identificou um viés racial em sistemas comerciais de reconhecimento facial. Seu trabalho apontou que a margem de erro para homens de pele clara é de 0,8%. Para mulheres de pele negra alcança até 34,7%.

O estudo do MIT lembra que as companhias americanas que desenvolvem tais sistemas dizem alcançar 97% de acertos. Mas os dados foram gerados a partir de uma amostragem com 77% de homens e 83% de pessoas brancas.

Ao submeter suas próprias fotos aos três softwares testados, Joy, que é mulher e negra, viu os sistemas não a identificarem como pessoa, ou então errarem seu gênero de forma consistente – uma falha grave quando se considera que tais sistemas vêm sendo usados com o objetivo de identificar possíveis criminosos.

No Brasil, o Instituto Igarapé identificou há dois anos que 37 cidades já utilizavam softwares de reconhecimento facial. Mais de metade, 19, haviam sido lançadas entre 2018 e 2019. O Rio de Janeiro implementou seu sistema durante o carnaval de 2019. Em 2020, o governo de São Paulo inaugurou o Laboratório de Identificação Biométrica, Facial e Digital da Polícia Civil.

O instituto também realizou um levantamento com o Data Privacy Brasil Research que avaliou a regulamentação da prática em países desenvolvidos. Na Inglaterra, aponta o trabalho, não há “instrumento legal específico voltado para a regulação desse tipo de tecnologia, mas sim uma série de documentos estratégicos e recomendatórios”.

Nos Estados Unidos, as tentativas de regulamentação acontecem principalmente nos estados e municípios. Já na França, “cada uso deve ser previamente autorizado por um decreto do Conselho de Estado”.

Crescimento acelerado do reconhecimento facial

Grandes empresas americanas, como IBM, Amazon e Microsoft, reduziram ou suspenderam seus investimentos em programas do gênero, enquanto investem em melhorias e aguardam por regulamentações mais claras. Já na China, o reconhecimento facial é utilizado de forma indiscriminada, para multar pessoas que atravessam a rua fora da faixa, ou para mapear os caminhos percorridos por pessoas que discordam do regime.

À parte de todas as tentativas de regulamentação, o mercado de softwares de reconhecimento facial vem aumentando rapidamente. Relatório divulgado pela empresa ReportLinker em dezembro prevê que esse mercado deverá saltar de US$ 3,8 bilhões em 2020 para US$ 8,5 bilhões em 2025, um crescimento médio anual da ordem de 17,2%. Sinal de que esse é um caminho sem volta, apesar dos riscos enormes para a privacidade e possíveis erros nas ações de segurança pública.

0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]