Encontre matérias e conteúdos da Gazeta do Povo
Artigo

Precisamos de uma lei que promova a IA, não que a sufoque

A IA está moldando uma nova forma de viver, trabalhar e se relacionar com o mundo. (Foto: Gerard Siderius/Unsplash )

Ouça este conteúdo

Na recente cúpula dos BRICS, realizada em 2025, os líderes do bloco divulgaram uma carta com princípios sobre a governança global da inteligência artificial. Entre as diretrizes, destacam-se preocupações com a proteção de dados, a transparência algorítmica e a defesa dos direitos autorais sobre conteúdos usados no treinamento de modelos de IA.

Apesar de soar bem em declarações diplomáticas, essa retórica contrasta fortemente com a prática de alguns signatários, especialmente a China. O país, que hoje ocupa uma posição de liderança global em inteligência artificial, adotou até agora um modelo amplamente permissivo quanto ao uso de dados públicos e conteúdos protegidos no treinamento de sistemas.

A regulação chinesa exige que os dados sejam “legalmente adquiridos”, mas não obriga, na prática, a remuneração prévia dos detentores de direitos sobre materiais disponíveis publicamente. Essa postura possibilitou a criação de modelos de larga escala, como o DeepSeek, treinados com vastos conjuntos de dados sem mecanismos formais de compensação.

Mesmo que a China venha a adotar regras mais restritivas no futuro, fará isso já partindo de uma posição consolidada de liderança tecnológica. O Brasil, em contrapartida, corre o risco de estabelecer barreiras proibitivas antes mesmo de se tornar competitivo.

A legislação precisa permitir que esses dados sejam utilizados com responsabilidade, protegendo a privacidade, mas sem impedir o desenvolvimento de tecnologias úteis e inovadoras

Esse debate sobre direitos autorais merece, portanto, uma reflexão mais contemporânea. Modelos como o japonês — que recentemente reconheceu que o treinamento de IA sobre dados protegidos não infringe direitos autorais, reservando-os apenas para o resultado final — oferecem uma via mais equilibrada.

Nessa visão, treinar algoritmos é uma forma legítima de uso transformativo, e a proteção dos titulares pode incidir no momento da distribuição ou monetização do conteúdo gerado, não sobre o processamento de informação em si.

Infelizmente, o Projeto de Lei 2338/2023, em tramitação no Congresso, não contempla essa perspectiva. Ele se ancora numa concepção excessivamente restritiva, que vê a regulação como um instrumento para limitar, proibir e punir, e não como uma política pública para promover o desenvolvimento tecnológico e fomentar inovação responsável.

Ao importar classificações de risco rígidas inspiradas no AI Act europeu, o projeto cria categorias amplas que podem paralisar aplicações legítimas — principalmente na saúde, educação, agricultura e na segurança pública.

Modelos de apoio diagnóstico, monitoramento epidemiológico ou prevenção de fraudes seriam classificados como “alto risco”, sujeitos a procedimentos de autorização e conformidade quase impossíveis de cumprir na realidade de boa parte dos municípios brasileiros.

É importante lembrar também que muitas aplicações de inteligência artificial usam dados de localização, como os fornecidos por tecnologias GPS, para funcionar corretamente. Esses dados são essenciais para áreas como mobilidade urbana, segurança pública, monitoramento ambiental e até agricultura de precisão.

VEJA TAMBÉM:

Se criarmos regras muito rígidas ou burocráticas para o uso desses dados, corremos o risco de travar soluções que poderiam melhorar a vida das pessoas e tornar os serviços públicos mais eficientes. A inteligência artificial já tem trazido benefícios concretos em áreas essenciais para o desenvolvimento do Brasil. Na educação, plataformas baseadas em IA estão ajudando a personalizar o aprendizado de milhares de alunos, adaptando conteúdos ao ritmo de cada estudante.

Na saúde, ferramentas de IA são capazes de acelerar diagnósticos e prever surtos de doenças com base em dados públicos — como já acontece em algumas cidades brasileiras no combate à dengue. Na agricultura, algoritmos de IA ajudam produtores a prever o clima, identificar pragas e otimizar o uso da água e dos fertilizantes, aumentando a produtividade e reduzindo desperdícios.

Na segurança pública, sistemas inteligentes auxiliam no reconhecimento de padrões criminais e na prevenção de ocorrências, como roubos e fraudes. Segundo estudo da McKinsey (2023), o uso responsável de IA pode gerar ganhos econômicos globais de até 17 trilhões de dólares por ano, com impactos diretos em serviços públicos essenciais.

Além disso, o PL não oferece respostas claras sobre como equilibrar o incentivo à pesquisa e o respeito aos direitos dos autores. Também não reconhece que os abusos e ilegalidades já podem ser endereçados pelos instrumentos existentes, como o Código de Defesa do Consumidor, o Marco Civil da Internet, a Lei Geral de Proteção de Dados e a própria legislação de direitos autorais.

Estamos na aurora de uma tecnologia que muda todos os meses. Regulamentos densos e minuciosos correm o risco de se tornarem obsoletos antes mesmo de entrarem em vigor, como já ocorre na União Europeia, que enfrenta questionamentos sobre a aplicabilidade prática do AI Act e os custos regulatórios massivos que afastam startups e pesquisadores independentes.

Precisamos adotar uma abordagem diferente: uma regulação principiológica, que defina balizas éticas, promova a transparência e assegure a responsabilização, mas que tenha a humildade de reconhecer que o Estado não consegue prever cada risco ou controlar cada inovação futura.

É por isso que, junto à Frente Parlamentar pelo Livre Mercado (FPLM), atuamos em prol de um modelo regulatório que estimule a inovação, reduza entraves e prepare o Brasil para competir globalmente. Mais do que “restringir para prevenir”, nossa prioridade deve ser promover a inteligência artificial para criar, competir e prosperar.

O Brasil não pode repetir o erro de querer controlar a IA antes de sequer entendê-la. Precisamos de coragem para construir uma legislação moderna, pragmática e voltada ao desenvolvimento — e não um conjunto de normas que imponha medos e travas antes mesmo de o país ter a chance de se colocar como protagonista nessa revolução tecnológica.

Adriana Ventura é deputada federal (NOVO/SP) e vice-presidente da Comissão de Inteligência Artificial.

Principais Manchetes

Receba nossas notícias NO CELULAR

WhatsappTelegram

WHATSAPP: As regras de privacidade dos grupos são definidas pelo WhatsApp. Ao entrar, seu número pode ser visto por outros integrantes do grupo.