• Carregando...
Drone da Skydio que o ‘alvo’ que seu dono quiser. | Laura Morton/NYT
Drone da Skydio que o ‘alvo’ que seu dono quiser.| Foto: Laura Morton/NYT

Recentemente, uma startup do Vale do Silício lançou um drone que pode definir seu curso totalmente sozinho. Um aplicativo simples de celular permite que o usuário diga ao dispositivo voador para seguir alguém. E, assim que o drone começar o rastreamento, a pessoa vai achar incrivelmente difícil se safar de seu perseguidor. 

Esse drone foi pensado para ser um dispositivo divertido — um tipo de “pau de selfie” voador. No entanto, seria bem normal achar esse perdigueiro automatizado um pouco angustiante. 

Em 20 de fevereiro, um grupo de pesquisadores de inteligência artificial (IA) e elaboradores de políticas de importantes laboratórios e centros de pesquisa dos Estados Unidos e da Inglaterra divulgaram um relatório que descreve como as tecnologias de inteligência artificial, que estão evoluindo rapidamente e se tornando cada vez mais acessíveis, podem ser usadas com intenções maliciosas. Eles propuseram medidas preventivas, entre elas o cuidado com o compartilhamento de pesquisas: os resultados não devem ser espalhados amplamente até que se tenha uma boa compreensão de seus riscos. 

Os especialistas em IA vêm discutindo as ameaças criadas pela tecnologia há anos, mas este é um dos primeiros esforços para abordar a questão de frente. E o pequeno drone perseguidor ajuda a explicar por que eles andam tão preocupados. 

O drone, feito por uma empresa chamada Skydio, custa US$ 2.499 e foi feito com componentes tecnológicos acessíveis a qualquer pessoa: câmeras comuns, software de código aberto e chips de computador baratos. 

Com o tempo, colocar essas peças juntas – os pesquisadores as chamam de tecnologias de uso duplo – vai se tornar cada vez mais fácil e barato. Quão difícil seria fazer um equipamento parecido, mas perigoso? 

Dilmas da IA

“Esse tipo de coisa está se tornando mais acessível em todos os sentidos”, afirma Adam Bry, um dos fundadores da Skydio. Essas mesmas tecnologias têm criado um novo nível de autonomia em carros, robôs caseiros, câmeras de segurança e uma ampla gama de serviços de internet. 

Às vezes, porém, novos sistemas de inteligência artificial também exibem comportamentos estranhos e inesperados, porque a maneira como eles aprendem, a partir de grandes quantidades de dados, ainda não é completamente entendida. Isso os torna vulneráveis à manipulação; a visão algorítmica do computador de hoje, por exemplo, pode ser enganada para ver coisas que não existem. 

“Isso pode se tornar um problema porque esses sistemas vêm sendo amplamente implantados. A comunidade precisa estar à frente dessa questão”, explica Miles Brundage, pesquisador do Instituto Futuro da Humanidade da Universidade de Oxford e um dos principais autores do relatório. 

O documento avisa contra o mau uso de drones e outros robôs autônomos. Preocupações maiores, no entanto, podem existir em lugares menos óbvios, afirma Paul Scharre, também autor do relatório, que ajudou a criar leis que tratam de sistemas autônomos e tecnologias emergentes de armas do Departamento de Defesa. Agora, ele trabalha como pesquisador sênior do Centro por uma Nova Segurança Americana. 

“Os drones realmente capturam a imaginação. Mas o que temos dificuldade de prever — e de focar nossa atenção — são todas as maneiras menos tangíveis com que a IA está sendo integrada em nossas vidas”, diz ele. 

A evolução rápida da IA está criando novos buracos na segurança. Se os sistemas de visão de computador podem ser enganados para acreditar que estão vendo coisas que não existem, por exemplo, os mal intencionados serão capazes de driblar câmeras de segurança ou de comprometer a ação de um carro sem motorista.

Os pesquisadores também estão desenvolvendo sistemas de inteligência artificial capazes de encontrar e explorar brechas de segurança em todos os tipos de sistemas, diz Scharre. Eles podem, porém, ser usados tanto para defesa como para ataque. 

Técnicas automatizadas vão facilitar a realização de ataques que hoje exigem trabalho humano extensivo, entre eles as fraudes conhecidas como “spear phishing”, que envolvem recolher e explorar dados pessoais das vítimas. Nos próximos anos, segundo o relatório, as máquinas poderão coletar e utilizar esses dados por conta própria. 

Os sistemas de inteligência artificial estão cada vez mais capazes de gerar áudios e vídeos críveis por conta própria. Isso vai acelerar o processo de realidade virtual, jogos online e animação de filmes. Mas também tornará mais fácil para pessoas mal intencionadas a divulgação de informações erradas online, segundo o relatório. 

Esse tipo de coisa já está começando a acontecer por meio de uma tecnologia chamada “Deepfakes”, que oferece uma maneira simples de enxertar a cabeça de alguém em um vídeo pornográfico — ou colocar palavras na boca de um presidente. 

Algumas pessoas acreditam que as preocupações sobre o progresso da inteligência artificial são exageradas. Alex Dalyac, executivo-chefe e um dos fundadores da startup de visão computacional Tractable, reconhece que o aprendizado de máquina em breve vai conseguir produzir áudios e vídeos falsos que os humanos não poderão distinguir dos reais. Mas acredita que outros sistemas também vão ficar melhores em identificar as informações errôneas. No final, esses sistemas vão sair ganhando, afirma ele. 

Para outros, isso soa como um eterno jogo de gato-e-rato entre os sistemas de IA tentando criar conteúdo falso e aqueles atrás de identificá-los.

“Precisamos acreditar que haverá avanços dos dois lados”, diz Scharre. 

0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]