Encontre matérias e conteúdos da Gazeta do Povo
Artigo

Inteligência artificial não é chave para popularizar conhecimento

(Foto: Julien Tromeur/Unsplash )

Ouça este conteúdo

Em um contexto marcado pelo caos da oferta excessiva e indiscriminada de conteúdos, cresce a necessidade de tratamento adequado das informações. Saudada pela promessa de geração de popularização de conhecimento, a tecnologia de inteligência artificial (IA) não deve resolver o problema. E a julgar pelos casos mais recentes, estes sistemas devem aprofundar a crise informacional.

Os geradores de textos mais populares como ChatGPT, Gemini e Bing são pouco claros, quando não dispersivos, sobre as fontes de informação consultadas. Em praticamente todos os casos, também se percebe a ausência de princípios éticos básicos como o reconhecimento da autoria sobre um determinado texto, já que estes sistemas não citam ou não parafraseiam os trechos cujas informações foram publicadas por outras pessoas, como faz o jornalismo profissional.

A tecnologia de inteligência artificial tende a ser também pouco criteriosa, contribuindo para a polarização extremada de pensamento

A fragilidade da geração de textos pela inteligência artificial precisa ser compreendida em três níveis principais: primeiro, sobre a base de dados utilizada; segundo, sobre o uso dos sistemas por humanos; e terceiro, sobre a programação algorítmica. A primeira fragilidade se dá no nível da geração de conteúdo a partir de informações falsas, uma vez que a geração de textos por IA considera os conteúdos disponibilizados na rede como fonte de informação.

O ambiente virtual, sem grande regulação, tende a ser pouco restritivo e, portanto, suscetível a gerar bases de informações falsas, que são utilizadas pelos geradores de inteligência artificial. E não adianta dizer que os dados são coletados de bases científicas. No período da pandemia não foram poucos os casos de artigos publicados em revistas científicas desqualificadas.

VEJA TAMBÉM:

Um segundo nível que pode, inclusive, se associar ao primeiro, diz respeito ao uso de inteligência artificial para produção aprimorada de conteúdos falsos como vídeos, áudios e imagens, a partir do que se chama comumente de deepfake.

Por fim, em um nível mais complexo e ainda pouco conhecido, se dá a programação e uso de algoritmos para que a inteligência artificial gere conteúdos capazes de distorcer informações. Os programadores não estão livres de aspectos subjetivos. Neste mesmo grupo, também são perceptíveis os casos chamados de “alucinação”, em que a programação dos algoritmos utilizados pela IA não está muito bem aprimorada, provocando a geração de textos fora da realidade.

VEJA TAMBÉM:

No ano passado, o jornal New York Times testou o ChatGPT, Gemini e Bing fazendo uma série de perguntas para os sistemas. Ao ler os textos produzidos pelos geradores, os jornalistas perceberam uma série de inconsistências. Erros em datas, nomes e fatos foram observados nos resultados. 

Nos últimos anos, a proliferação de fake news, teorias conspiratórias e negacionismo transformou um problema segmentado em um problema generalizado. Sem regras claras e à serviço de big techs, a tecnologia de inteligência artificial tende a ser também pouco criteriosa, contribuindo, a exemplo do que aconteceu com as redes sociais, não para ser um espaço de democratização e geração de conhecimento, mas para a polarização extremada de pensamento e proliferação de desinformação.

Guilherme Carvalho, doutor em Sociologia, pós-doutorado em Jornalismo, é professor de Jornalismo do Centro Universitário Internacional Uninter, membro do Comitê de Ética em Pesquisa da Uninter, professor do Programa de Pós-Graduação em Jornalismo da UEPG e atual diretor de comunicação da Associação Brasileira de Ensino de Jornalismo (ABEJ).

Conteúdo editado por: Jocelaine Santos

Principais Manchetes

Receba nossas notícias NO CELULAR

WhatsappTelegram

WHATSAPP: As regras de privacidade dos grupos são definidas pelo WhatsApp. Ao entrar, seu número pode ser visto por outros integrantes do grupo.