Ouça este conteúdo
O governo do Reino Unido está testando um sistema baseado em inteligência artificial (IA) que pretende identificar, com base em padrões comportamentais, indivíduos sob supervisão penal que apresentem maior risco de cometer homicídios. O projeto, iniciado durante o mandato do ex-primeiro-ministro Rishi Sunak, visa reforçar a segurança pública e atualmente está em fase experimental, sob responsabilidade do Ministério da Justiça.
A ferramenta utiliza algoritmos para analisar grandes volumes de dados de pessoas já condenadas ou em liberdade condicional. O sistema cruza informações como nome, sexo, data de nascimento, etnia, histórico criminal e identificadores vinculados ao banco de dados nacional da polícia. O objetivo, segundo o governo, é “explorar técnicas de ciência de dados alternativas e inovadoras para a avaliação do risco de homicídio”.
Na prática, o modelo busca mapear padrões de comportamento associados a crimes violentos e revisar características recorrentes entre infratores com maior probabilidade de reincidência. Com isso, as autoridades esperam produzir evidências que contribuam para “melhorar a avaliação de riscos de crimes graves e, em última instância, proteger o público”.
O projeto foi inicialmente batizado como “sistema de previsão de homicídios”, mas, diante de críticas, passou a ser oficialmente chamado de “compartilhamento de dados para melhorar a avaliação de risco”. A mudança de nome, no entanto, não impediu o aumento das preocupações em torno de privacidade e uso indevido de dados.
A ONG britânica Statewatch, que monitora políticas públicas de segurança e vigilância na Europa — e que foi responsável por revelar a existência do projeto — alertou que o sistema estaria utilizando não apenas dados prisionais, mas também informações sensíveis de pessoas que nunca foram condenadas, o que, tecnicamente, não deveria ocorrer. Segundo a entidade, entre os dados analisados estão registros de vítimas de violência doméstica, pessoas com histórico de automutilação, transtornos mentais, dependência química e outros marcadores considerados de “elevado poder preditivo”.
“A tentativa do Ministério da Justiça de construir este sistema de previsão de assassinatos é o mais recente exemplo arrepiante e distópico da intenção do governo de desenvolver os chamados sistemas de ‘previsão’ de crimes. Repetidamente, pesquisas mostram que sistemas algorítmicos para ‘prever’ crimes são inerentemente falhos”, declarou Sofia Lyall, pesquisadora da Statewatch. “Construir uma ferramenta automatizada para perfilar pessoas como criminosos violentos é profundamente errado, e usar dados tão sensíveis sobre saúde mental, vício e deficiência é altamente intrusivo e alarmante. O Ministério da Justiça deve imediatamente interromper o desenvolvimento desta ferramenta de previsão de assassinatos”, acrescentou.
Outros especialistas em privacidade e proteção de dados também vêm se manifestando contra o projeto. Para eles, há riscos reais de que o sistema acabe afetando pessoas inocentes. Analistas apontam que experiências anteriores com tecnologias de policiamento preditivo demonstraram que modelos algorítmicos podem gerar resultados enviesados, o que compromete a confiança pública nas instituições.
“Os riscos de violações de privacidade e erros algorítmicos tornam esse projeto sombrio e distópico”, disse Rebecca Vincent, diretora interina da organização Big Brother Watch.
Em resposta, o Ministério da Justiça negou que o sistema em desenvolvimento esteja acessando dados de pessoas não condenadas.