• Carregando...
O senador Rodrigo Pacheco afirmou que deseja aprovar o PL que trata da regulação do uso de Inteligência Artificial ainda no primeiro semestre
O senador Rodrigo Pacheco afirmou que deseja aprovar o PL que trata da regulação do uso de Inteligência Artificial ainda no primeiro semestre| Foto: Valter Campanato/Agência Brasil

O presidente do Senado, Rodrigo Pacheco (PSD-MG), disse ao abrir o ano legislativo neste mês que uma de suas prioridades será analisar até abril o Projeto de Lei 2338/2023 cujo objetivo é regular a criação e o uso da Inteligência Artificial (IA) no Brasil. O tema é controverso não só no país, mas em todo o mundo, principalmente em razão dos rápidos avanços dessa tecnologia, das ameaças que a Inteligência Artificial podem representar para a população e da lentidão que as leis regulatórias têm para acompanhar o processo.

O projeto de lei da Inteligência Artificial foi protocolado pelo próprio Pacheco. No seu discurso de inauguração do ano legislativo de 2024, ele defendeu que “é imperativo avançar na regulação da inteligência artificial e das plataformas de redes sociais".

No entanto, não faltam controvérsias sobre a maturidade e propriedade da proposta. Segundo André Marsiglia, sócio do escritório Lourival Advogados, especializado em mídia digital e autoral, a maior falha do projeto é ser abrangente, genérico e impreciso demais em muitos de seus artigos. Ele destaca que o projeto de lei baseia sua percepção em uma fotografia de hoje que amanhã poderá ser totalmente diferente, já que a tecnologia muda a cada instante e ainda desconhecemos os problemas concretos que ela pode trazer.

“No caso deste projeto, ele já se desgastou antes mesmo de ser finalizado. O legislador brasileiro, de um tempo para cá, quer ganhar eleitores e manchetes de jornais correndo com projetos que ainda não estão amadurecidos. É o caso. Esse projeto de lei é absolutamente precipitado e precisa ser revisitado”, afirma.

Projeto foi elaborado por comissão de juristas

O texto do projeto de lei foi protocolado por Pacheco em maio do ano passado. Ele foi elaborado por uma comissão de juristas formada no Senado Federal e que ficou responsável por subsidiar a elaboração de um texto substitutivo sobre Inteligência Artificial no ano de 2022.

A comissão foi composta por 18 estudiosos e presidida pelo ministro do Supremo Tribunal de Justiça (STJ), Ricardo Villas Bôas Cueva. A minuta elaborada pela comissão considerou as propostas anteriormente apresentadas sobre o tema: os projetos de lei 5051/2019 e 5691/2019, propostos pelo senador Styvenson Valentim (PODE-RN); o PL 21/2020, proposto pelo deputado Eduardo Bismarck (PDT-CE), que já foi aprovado na Câmara e o PL 872/2021, proposto pelo senador Veneziano Vital do Rêgo (MDB-PB).

Segundo análise preliminar Projeto de Lei da Inteligência Artificial realizada pela Autoridade Nacional de Proteção de Dados (ANPD), o trabalho da comissão de juristas representou um avanço, pois a partir dela foram realizadas diversas audiências públicas, reunindo mais de 50 especialistas, em formato multissetorial, contando com a participação de representantes do poder público, do setor empresarial, da sociedade civil e da comunidade científico-acadêmica.

Analistas dizem que discussão deve ser ampliada

O analista Marsiglia avalia que as discussões e o trabalho levados a cabo pelos juristas foram positivos, mas que, por se tratar de um tema tão amplo e essencial para o desenvolvimento da sociedade, seu debate não deveria ficar restrito a grupos políticos e técnicos. “A confusão em torno da aprovação do PL 2630/20, que ficou conhecido como PL das Fake News [também chamado de PL da Censura], deveria ter servido de lição de que as pessoas desejam participar de debates sobre temas que lhes afetam. Elas não se sentem representadas por discussões feitas por técnicos, políticos e associações amigáveis ao governo”, afirma.

O próprio relator do projeto de lei, senador Eduardo Gomes (PL-TO), afirmou que o trabalho dos juristas foi importante como ponto de partida para o debate no Congresso Nacional. Ele, no entanto, ressaltou que o tema está em constante transformação e que, por essa razão, seriam necessárias discussões adicionais para avaliação da proposta.

Em agosto do ano passado, o Senado criou uma Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA) para auxiliar na avaliação da proposta. A CTIA foi responsável pela realização de diversas audiências públicas com inúmeros representantes das empresas e organizações ligadas ao setor, com a finalidade de melhor discutir e aperfeiçoar o projeto de lei. Durante os debates, foram destacados diversos aspectos que, na visão dos especialistas, merecem análise mais aprofundada, como a transparência na gestão dos dados pela Inteligência Artificial e a adequação dos critérios para avaliar soluções de alto risco.

Critérios generalistas podem gerar atraso no desenvolvimento de soluções

Um dos pontos mais destacados foi a inadequação dos critérios para a classificação de riscos à sociedade e que nortearão o desenvolvimento de soluções de Inteligência Artificial. Na avaliação dos representantes de setores ouvidos nas audiências públicas, o texto atual não considera as especificidades de cada área, pois é generalista.

O Projeto de Lei bane Inteligências Artificiais de risco excessivo, como são classificadas as tecnologias que utilizam técnicas subliminares e que possam induzir a pessoa a se comportar de forma prejudicial, que explorem vulnerabilidades de grupos específicos e aquelas utilizadas pelo governo para avaliar, classificar ou ranquear indivíduos para acesso a bens e serviços públicos segundo sua utilidade para a sociedade como um todo, sem considerar sua privacidade ou direitos individuais.

Países como Rússia e China utilizam esses sistemas de Inteligência Artificial para exercer um maior controle sobre a sociedade. Para isso adotam um sistema altamente regulado pelo Estado para o desenvolvimento de Inteligência Artificial. Do outro lado do espectro estão os Estados Unidos, que defendem a regulação mínima do setor, para que as empresas desenvolvedoras possam ter liberdade para explorar todas as suas capacidades.

A solução que está sendo estudada pela comissão de juristas no Brasil é mais semelhante a um modelo europeu, que está no meio termo entre Estados Unidos e Rússia e China. Ele leva em conta a liberdade individual e a privacidade da população e impõe regulações para o setor.

O Projeto de Lei da Inteligência Artificial veta as soluções mais radicais usadas por Rússia e China, mas há brechas legais que podem colocar a população em risco. Uma delas é que o próprio fornecedor da tecnologia terá que classificar o grau de risco de seu produto para garantir que alguns tipos de aplicação da Inteligência Artificial não tenham efeitos nocivos para a sociedade.

Por outro lado, partidários da regulação mínima reclamam que o projeto de lei tende a engessar o setor. Em uma das audiências, o presidente do Conselho de Inovação do Hospital das Clínicas de São Paulo, Giovanni Cerri, afirmou que o texto é generalista, o que dificulta a aplicação de Inteligência Artificial para o setor da saúde, por exemplo. De acordo com Cerri, a Anvisa [Agência Nacional de Vigilância Sanitária] já estabeleceu diferentes níveis de enquadramento para aplicativos com Inteligência Artificial e, se todas as aplicações forem consideradas de alto risco, parte da pesquisa e da aplicação da Inteligência Artificial na saúde pode ficar inviável.

Falta definir uma autoridade reguladora para a Inteligência Artificial

Luca Belli, professor da Fundação Getúlio Vargas Direito Rio, Coordenador do Centro de Tecnologia e Sociedade da FGV, avalia que a lista de casos que devem ser considerados de alto risco e que constam no projeto de lei não é muito abrangente e deve ser interpretada e analisada por uma autoridade reguladora que ainda não foi definida, o que, na sua avaliação é um dos pontos mais delicados da proposta.

Se persistir, essa indefinição pode vir a criar incerteza jurídica, pois na inexistência de uma autoridade reguladora, provavelmente caberá ao Judiciário definir esses e outros parâmetros não especificados no projeto de lei. E, nesse caso, será “altamente provável que haja uma enorme diversidade de interpretações baseadas nos conhecimentos de juízes que não são treinados para entender qual seria a aplicação concreta dos critérios definidos no PL 2338/23”, afirma o professor.

A definição da autoridade reguladora é um dos pontos que têm prazo para serem definidos pela Comissão Temporária até maio deste ano. Isso porque oficialmente está prevista para maio a apresentação de um relatório com uma nova versão do projeto de lei. Mas o presidente do Senado já disse que quer pautar o assunto antes, em abril.

Uma das principais apostas é que a Autoridade Nacional de Proteção de Dados assuma o papel de agência reguladora. Mas ainda que pareça a possibilidade mais óbvia, ela não vem sem riscos.

Segundo Belli, a experiência da Autoridade Nacional de Proteção de Dados no caso da Lei Geral de Proteção de Dados (LGPD) é eloquente, pois foram anos até a criação do órgão que segue sem fazer o seu trabalho, em razão de restrições orçamentárias e de pessoal qualificado, além da “falta de vontade em ser mais assertiva na atividade reguladora”. Ele explica que seria altamente otimista pensar que, para uma lei tão complexa como o PL 2338, que precisa de um número extremamente elevado de regulações ou de padrões técnicos, se crie uma autoridade nova que possa funcionar em tempo útil.

Por seu lado, a Autoridade Nacional de Proteção de Dados avalia que, no que diz respeito à proteção de dados relativa à Inteligência Artificial, o órgão tem os requisitos necessários para atuar como a autoridade reguladora prevista no PL 2338. Isso porque ela já é a responsável por zelar pela proteção de dados pessoais no âmbito da LGPD.

Segundo o órgão, suas atuais funções são compatíveis com as elencadas para a autoridade competente previstas no PL 2338/2023, como a supervisão e fiscalização da implementação da lei, a proteção dos direitos fundamentais afetados pela Inteligência Artificial, a promoção e a elaboração de estudos sobre boas práticas em IA, bem como a coordenação com outros órgãos e entidades públicos responsáveis pela regulação de setores específicos da atividade econômica e governamental.

A ideia de uma autoridade central, segundo a Autoridade Nacional de Proteção de Dados, não descarta a competência de reguladores setoriais. Caberia, desse modo, à autoridade competente coordenar os esforços regulatórios e estabelecer as diretrizes gerais para serem adaptadas às necessidades de diferentes setores regulados.

Falta de transparência

A transparência no trato de dados e informações pessoais é uma questão delicada do PL 2338/23, especialmente por ser um aspecto já tratado na LGPD e que, portanto, pode gerar conflito entre ambas as normas. O artigo 20 da LGPD cria a obrigação para que as empresas e plataformas ofereçam todas as informações claras e adequadas sobre qualquer decisão tomada com base em informações pessoais e que afete o interesse da pessoa. Ou seja, o titular do direito de dados pode pedir explicações sobre o tratamento automatizado de quaisquer de seus dados pessoais que o afete seus interesses. Nesses casos, o agente tem a obrigação de fornecer as informações de como a decisão foi tomada.

No caso do PL 2338/23, esse tema é abordado no artigo 9º, onde está previsto que tais explicações e verificações somente podem ser requeridas caso a avaliação e uso de dados pelo sistema de Inteligência Artificial tenha um impacto jurídico relevante. Segundo Belli, falta clareza nesse critério, o que pode levar a futuros problemas de interpretação. No caso das infrações realizadas no âmbito da LGPD, quem faz essa interpretação e avaliação é a Autoridade Nacional de Proteção de Dados. Já no caso do PL 2338/23, a autoridade ainda não está designada.

0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]