• Carregando...

O vice-presidente da Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA), senador astronauta Marcos Pontes (PL-SP), afirma que, para ser efetiva, qualquer legislação sobre inteligência artificial (IA) e tecnologias em geral precisa ser objetiva e não se perder nos detalhes, sob o risco de se tornar obsoleta antes mesmo de ser implementada. O presidente do Senado, Rodrigo Pacheco (PSD-MG) vem afirmando que quer votar o tema ainda neste semestre.

“O risco que se tem toda vez que você trabalha numa legislação para tecnologia é que a tecnologia evolui muito rápido, e a legislação fica obsoleta mais rápido ainda”, afirmou o parlamentar em entrevista ao programa Assunto Capital da Gazeta do Povo.

Atualmente, a comissão tem a responsabilidade de desenvolver a regulação que será conhecida como o Marco Legal da Inteligência Artificial no país. Pacheco deseja que a nova regra esteja vigente para a reunião de Cúpula do G20, que será realizada ems 18 e 19 de novembro desse ano, no Rio de Janeiro. O debate sobre inteligência artificial vem desafiando governos de todo o mundo.

Clique aqui e veja a entrevista completa de Pontes.

A comissão foi criada em agosto de 2023 para conduzir o debate na Casa Alta do Congresso. Desde então, o grupo tem discutido e sugerido modificações e avanços para as propostas legislativas relacionadas ao tema, mais especificamente o Projeto de Lei do Senado 2338/2023, uma proposição de Pacheco.

Em sua versão inicial, o projeto de lei do Senado foi elaborado por um grupo de juristas e, por essa razão, carece de pontos de vista mais amplos, que contemplem não só as questão jurídicas, mas também as comerciais e as dos usuários e pessoas afetadas pelo uso da inteligência artificial, explica o senador Marcos Pontes.

Diante dessas questões, a CTIA promoveu audiências públicas, se debruçou sobre a proposta e criou um substitutivo, relatado por Pontes.

O senador afirma que uma das principais propostas é que seja feita uma classificação mais clara e objetiva, baseada em parâmetros técnicos, para determinar o nível de risco das diversas aplicações possíveis de inteligência artificial. O objetivo é o de reduzir a insegurança jurídica para as empresas do setor. Pelo texto atual, empresas privadas e agentes públicos de fiscalização podem definir o que representa risco para a sociedade ou não sem usar uma metodologia unificada. Ou seja, as decisões podem ser baseadas em critérios subjetivos sem embasamento científico.

Dessa forma, o novo texto traz parâmetros objetivos para classificar as soluções de inteligência artificial desenvolvidas no país. Dentre as aplicações e usos de alto risco, por exemplo, o senador elencou os sistemas em que a inteligência artificial por conta própria possa tomar decisões que impactem de forma irreversível a vida das pessoas. Ele disse que é preciso criar uma metodologia de parametrização para esses riscos.

Os sistemas de identificação de indivíduos por tecnologia de reconhecimento facial, utilizados para o reconhecimento de criminosos, é um exemplo, já que apresenta imprecisões e limitações técnicas. Aplicações na área médica, que possam influir na saúde das pessoas, ou na área militar, com potencial para criar armamentos autônomos, também se enquadram entre os possíveis riscos.

0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]