• Carregando...
Imagem ilustrativa.
Imagem ilustrativa.| Foto: Pixabay

Falar sobre inteligência artificial (IA) demanda equilíbrio entre a utopia, a distopia e a realidade. Há quem pense que a tecnologia será a chave para a solução de todos os problemas da humanidade e quem veja a substituição total do ser humano por máquinas dotadas de inteligência superior. Mas a verdade é, ao mesmo tempo, mais simples e mais complexa que os extremos.

Mais simples, pois ainda estamos distantes da criação da chamada “inteligência artificial geral”, capaz de agir como o cérebro humano. E mais complexa, pois já atingimos estágio tecnológico que requer uma regulação apta a permitir o progresso da IA de forma responsável e ética. Hoje, já não é mais possível ignorar o impacto cotidiano da IA em um mundo permeado por uma infinidade de tecnologias que ainda carecem de regulação.

Em busca do ajuste entre segurança e inovação, começam a surgir documentos que enfrentam os desafios jurídicos da IA. Nesse contexto, se destaca a iniciativa da União Europeia (UE), que publicou proposta para a criação do Artificial Intelligence Act, com intenção de harmonizar o tratamento dado pelos países-membros à IA. O bloco alega que a legislação unificada é necessária diante da rápida evolução da tecnologia e do risco de serem publicadas regras nacionais conflitantes, criando um cenário de grave incerteza jurídica.

A UE é pioneira ao tentar instituir uma regulação unificada sobre o tema. Trata-se de decisão tão importante quanto ousada, pondo o continente em posição privilegiada para enfrentar problemas ainda embrionários e evidenciando a dificuldade de regular um fenômeno tão diverso, que se estende desde simples chatbots até o monitoramento urbano em escala massiva.

Como é usual em atividades econômicas que, a despeito das potenciais consequências negativas, não devem ser proibidas, a normativa europeia aborda a inteligência artificial a partir da noção de risco, como se faz no direito ambiental. Nesse sentido, a legislação europeia regula a IA a partir de três categorias de risco: “inaceitável”, “alto” e “médio ou baixo”. Em vez de optar por normativas gerais e principiológicas, a União Europeia buscou ser detalhista, listando uma vasta quantidade de operações qualificadas como de alto risco. É o caso, por exemplo, de sistemas de biometria e identificação de pessoas, policiamento e aplicação da lei, e controle de fronteiras, entre outros. São práticas capazes de impactar negativamente os direitos fundamentais dos cidadãos face às possíveis violações trazidas pelas novas tecnologias.

A normativa vai mais além, chegando a proibir aplicações específicas da IA. Destaca-se a vedação da realização, por Estados, do chamado “social scoring”, sistema que permite a classificação dos comportamentos dos cidadãos, de maneira a aferir a sua fidelidade ao Estado, prática que ganhou notoriedade após ser adotada pela China. O ato também proíbe, com restritas exceções, a prática de identificação biométrica em tempo real em espaços públicos, cada vez mais utilizada para fins de policiamento.

Entretanto, o documento destaca que não é toda operação de alto risco que será necessariamente proibida, havendo riscos aceitáveis em face do benefício socioeconômico. Imaginemos um sistema capaz de otimizar, com uso de inteligência artificial, a distribuição de vacinas, analisando dados como a taxa de mortalidade e a prevalência de comorbidades. Sabemos que dados de saúde são dados sensíveis, cujo vazamento pode acarretar graves danos. Ainda assim, em um contexto de pandemia, seria irrazoável proibir o referido sistema, desde que comprovada a sua segurança.

Assim se posiciona a UE, estabelecendo requisitos para a permissão de sistemas de risco elevado, que deverão adotar um mecanismo de gestão de risco capaz de avaliar as possíveis violações de direitos em todas as fases, desde o planejamento até a execução, prevendo mecanismos de redução de risco e reparação de danos.

O Artificial Intelligence Act tem méritos e pontos de interrogação. A iniciativa enfrenta o desafio com maturidade, optando por um caminho capaz de resistir ao abuso de direitos sem impedir a inovação. Os europeus também merecem aplausos por saírem na frente do problema, regulando práticas ainda pouco difundidas, a exemplo do social scoring. Afinal, é melhor prevenir do que remediar.

Dito isso, é inevitável que a iniciativa faça pairar uma pergunta desconfortável: será que é possível regular a IA de forma tão detalhada? Em um mercado pulsante, cada vez mais inovador e capaz de se renovar, existe um verdadeiro risco de que a regulação se torne defasada, versando extensamente sobre sistemas mutáveis e passíveis de caírem em desuso. Ainda assim, deve ser elogiada a iniciativa de criar leis aptas a tornar o uso da inteligência artificial mais confiável. Resta ver se, com o passar do tempo, a normativa da terra das finas uvas irá envelhecer como vinho ou vinagre.

Daniel Becker é advogado e diretor de Novas Tecnologias no Centro Brasileiro de Mediação e Arbitragem (CBMA). Frederico Boghossian Torres é advogado e integrante do grupo de pesquisa em Direito e Tecnologia da PUC-Rio (Droit).

0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]