• Carregando...
inteligência artificial
O presidente do TSE, Alexandre de Moraes, e o presidente do Senado, Rodrigo Pacheco, querem uma lei sobre inteligência artificial ainda para 2024.| Foto: Marcos Oliveira/Agência Senado

A ideia de estabelecer já para as eleições de 2024 uma lei para a inteligência artificial (IA) no Brasil, levantada por membros do Legislativo e do Judiciário nas últimas semanas, é precipitada e, em alguns casos, está brotando de desconhecimento e politização do assunto. Especialistas consultados pela Gazeta do Povo temem que isso prejudique um debate técnico sobre o tema.

Para eles, a discussão precisa ser pautada por um conhecimento mais profundo das novas ferramentas, e o uso da inteligência artificial nem sequer amadureceu o suficiente para que se formalizem regras para o campo. A pressa, segundo os especialistas, poderá engessar a chegada de avanços tecnológicos ao Brasil e gerar uma lei fadada a se tornar obsoleta rapidamente.

Nas últimas semanas, o assunto tornou-se obsessão de alguns parlamentares e membros do Judiciário. No dia 19 de janeiro, o presidente do Senado, Rodrigo Pacheco (PSD-MG), afirmou em evento organizado em Zurique, na Suíça, pelo Grupo Lide, que quer a regulamentação da inteligência artificial até o mês de abril deste ano.

A pressa para que o Congresso regulamente o tema também foi manifestada em dezembro por Alexandre de Moraes, presidente do Tribunal Superior Eleitoral (TSE). Tanto Moraes como Pacheco alegam que regular as IAs é necessário para assegurar a idoneidade das eleições municipais deste ano.

Em falas de parlamentares e magistrados, a principal preocupação do ponto de vista eleitoral têm sido os deepfakes, isto é, vídeos e áudios criados com inteligência artificial simulando com grande verossimilhança as características de uma pessoa, como sua fisionomia, trejeitos ou voz.

Os deepfakes foram, por exemplo, o principal alvo de uma minuta divulgada no dia 25 pelo TSE para estabelecer regras relacionadas às IAs para as eleições de 2024 e de uma audiência com representantes da sociedade civil, da comunidade acadêmica, de empresas e de partidos políticos. O tribunal sinalizou que quer obrigar usuários a informar "explicitamente a utilização de conteúdo fabricado ou manipulado em qualquer modalidade de propaganda eleitoral".

No Senado, tramita o PL 2.338/2023, de autoria do próprio Pacheco, sobre o uso da inteligência artificial. Trata-se de uma proposta elaborada por uma comissão de 18 juristas, com 45 artigos. O desejo de Pacheco é aprovar a lei ainda no primeiro semestre deste ano, para que ela possa ser aplicada durante o pleito municipal.

Apressar uma regulação ampla e genérica sobre inteligência artificial é um equívoco, dizem especialistas

Para o advogado Rodrigo Ferreira, pesquisador em inteligência artificial, é precipitado pensar em uma legislação geral sobre a IA no Brasil, especialmente levando em conta a variedade de fenômenos que cabem no guarda-chuva da inteligência artificial. Ele critica, na iniciativa do Senado, a falta de especialistas técnicos nos debates.

"O projeto foi resultado de uma comissão de juristas. O que a gente observa é que tem havido muito debate principalmente entre profissionais da área das ciências sociais e humanas, com muitos juristas envolvidos e alguns economistas, além do pessoal que lida mais com a parte de ativismo de direitos humanos. Mas a gente vê poucos técnicos na mesa, poucas pessoas que realmente têm vivência no desenvolvimento de sistemas de inteligência artificial participando do debate", diz.

Ferreira explica que a IA não pode ser considerada uma única tecnologia; por isso, uma regulação genérica sobre o assunto, como a que tramita no Senado, não é a melhor solução. Até mesmo na União Europeia, onde o debate para uma regulamentação genérica já é conduzido há muito mais tempo, ainda há forte controvérsia sobre a necessidade de um marco legal desse tipo.

"A inteligência artificial é um conjunto enorme de tecnologias de propósito geral. Há componentes como carro autônomo, dispositivo de diagnóstico médico, câmera de reconhecimento facial… Há uma miríade de aplicações que são tecnologias diferentes dentro de um guarda-chuva gigantesco chamado de 'inteligência artificial'. A ideia de que o debate já esteja maduro para uma regulação genérica da tecnologia ou de uma compreensão mais profunda dos riscos em todos os segmentos não se sustenta", observa.

Para Paulo Lino, membro do Conselho da Associação Internacional de Chefes de Polícia para treinamentos em Inteligência Artificial e Crimes Cibernéticos, a ideia de apressar uma regulamentação da inteligência artificial pode acabar resultando em uma lei com prazo de validade e em um engessamento de avanços tecnológicos.

"Não é o momento adequado. Nós não estamos maduros. A evolução da inteligência artificial é tão rápida, tão dinâmica e versátil nas suas aplicações, que, se criarmos uma lei hoje, daqui a dois dias ela poderá estar obsoleta e já não ser aplicável", diz. "A lei é estanque. Daqui a muito pouco tempo, a coisa vai ficar completamente diferente, e nós não podemos fazer uma regulação nova todos os dias", complementa.

Especialistas preferem soluções mais flexíveis

Para Lino, o ideal para evitar os abusos na aplicação da inteligência artificial seria atribuir o papel de regulação a uma autarquia, como uma agência reguladora, "ideologicamente independente e flexível". "Nada parecido com qualquer coisa que nós tenhamos hoje", diz.

Por enquanto, as propostas para regulamentação da IA no Brasil se baseiam sobretudo nas discussões europeias, onde membros do Parlamento Europeu (MEPs), do Conselho da União Europeia e da Comissão Europeia divulgaram em dezembro um acordo provisório para uma regulamentação da inteligência artificial no continente.

O texto europeu tem como um de seus focos evitar que grandes empresas de tecnologia usem informações sensíveis para influenciar os comportamentos das pessoas e manipular a forma como elas pensam ou agem. O documento fala, por exemplo, em coibir o uso de IA para categorizar as pessoas com base em características pessoais ou para criar bancos de dados de reconhecimento facial sem um objetivo específico.

Rodrigo Ferreira avalia que criar uma legislação rígida e genérica sobre inteligência artificial, como a Europa tenta fazer, não é o melhor caminho para o Brasil no atual contexto. "Na minha leitura, o Brasil vai ganhar muito se, em vez de se espelhar no modelo europeu, olhar para o modelo dos Estados Unidos e outros países que estão optando por uma abordagem setorial e não centralizada", diz.

"Em vez de estabelecer uma norma pretendendo regular a inteligência artificial – e tratando da mesma forma um carro autônomo, um dispositivo médico, uma tecnologia de reconhecimento facial –, haveria um regulador setorial para estabelecer normas específicas para cada caso. Se eu tenho riscos diferenciados para dispositivos médicos, chamo um regulador setorial – a Anvisa, por exemplo – para editar normas sobre a aprovação ou não de certo tipo de dispositivo", complementa o especialista.

Para Ferreira, reguladores setoriais teriam mais facilidade para atualizar a regulação conforme a tecnologia avançasse e os riscos relacionados a ela mudassem. "Imaginar que um parlamentar que não tem a mínima familiaridade com o tema vá produzir uma lei a esse respeito, e que essa lei vá se manter atual e relevante daqui a três, quatro, cinco anos, é um devaneio. Isso não vai acontecer, até porque a tecnologia avança de forma muito rápida."

Experiência argentina agravou temor dos deepfakes

Um dos motivos pelos quais parlamentares brasileiros e membros do Judiciário têm querido acelerar a discussão sobre inteligência artificial é o fenômeno dos deepfakes, especialmente depois do episódio nas eleições argentinas em que o candidato Sergio Massa, candidato kirchnerista concorrente de Javier Milei, foi falsamente retratado usando cocaína com o emprego de inteligência artificial.

Os especialistas não menosprezam a preocupação com o fenômeno dos deepfakes e seu potencial de criação de informações falsas e manipulação das preferências eleitorais, mas não acham que isso seja justificativa para se aprovar no Brasil, já neste ano, uma legislação generalista sobre as IAs.

Paulo Lino considera equivocado, além disso, o foco excessivo no usuário independente como principal preocupação para o período eleitoral relacionada às IAs. Há, para ele, problemas muito mais relevantes que não têm recebido a mesma atenção. "Se quiséssemos realmente proteger o eleitor e dar mais lisura e transparência ao processo eleitoral, daríamos outros passos, como o de controlar o acesso a dados que as empresas de tecnologia têm dos eleitores. Elas praticamente gerenciam a opinião pública", afirma.

Para exemplificar a dimensão de outros problemas relacionados às IAs, Lino relata que, nos Estados Unidos, agências do governo usavam um software de inteligência artificial capaz de cruzar automaticamente informações de diversas redes com o objetivo de localizar potenciais autores de crimes como pedofilia ou tiroteios em massa. "Se isso for mal utilizado, eu posso passar a localizar, por exemplo, inimigos ideológicos. E isso não pode ser permitido", diz.

Por causa desse dilema, a ferramenta foi proibida nos EUA, mesmo diante de sua comprovada utilidade para a polícia. Para Lino, esse é um exemplo de como uma legislação apressada sobre inteligência artificial poderia acabar tratando levianamente questões muito complexas do ponto de vista ético.

O objetivo do governo, segundo ele, deve ser regular o abuso, e não monitorar o uso da inteligência artificial. "É uma diferença bastante grande. Quando a gente cria legislações, tem que tomar muito cuidado para manter um viés técnico e de proteção ao consumidor, e não um viés ideológico. O objetivo não pode ser monitorar. O objetivo deve ser evitar abusos. E estes abusos já estão acontecendo hoje, e não vêm principalmente dos desenvolvedores independentes. Estão acontecendo, hoje, pela atuação de grandes empresas", afirma.

0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]