• Carregando...
Gemini, woke, identitarismo
George Washington, papisa, soldado nazista e vikings negros: algumas das imagens geradas pela Gemini, inteligência artificial do Google.| Foto: Reprodução/X

Uma papisa que é uma mulher negra. Um viking com feição asiática. Soldados nazistas com cara de que nasceram no Mali ou no Vietnã. Essas foram algumas das imagens produzidas pela nova inteligência artificial (IA) do Google, a Gemini, quando usuários pediram para ver um papa, vikings e nazistas. O mesmo aconteceu com comandos para produzir imagens dos fundadores dos Estados Unidos no século XVIII — o resultado foi um George Washington negro. O produto foi lançado após testes no dia 9 de fevereiro, substituindo o robô de conversação Bard, a resposta pouco popular do Google ao ChatGPT, a mais poderosa ferramenta do tipo até o momento.

Nos dias seguintes, usuários prontamente acusaram a empresa de tecnologia de ter introduzido viés político de esquerda, especificamente do tipo progressista identitário (vulgo “woke”), em seu produto — em outras palavras, uma ideologia que, em vez de buscar tratamento igual, busca hostilizar pessoas rotuladas como “privilegiadas”, particularmente homens brancos heterossexuais, em oposição às identidades rotuladas como “oprimidas”. Os próprios adeptos da ideologia, no entanto, reclamaram dos nazistas negros. A gigante da tecnologia respondeu ao ultraje interrompendo a capacidade da Gemini de gerar imagens no dia 22.

O procurador-geral do estado americano de Montana, Austin Knudsen, mandou uma carta oficial aos responsáveis dizendo que o Google “parece ter tido a intenção deliberada de veicular informações imprecisas quando essas imprecisões se encaixavam nas preferências políticas do Google”. O oficial também disse que a Gemini pode ter violado as leis locais de proteção ao consumidor, e que, se os programadores foram direcionados a construir uma IA que discrimina com base em raça ou outras características protegidas, “poderia incidir em leis de direitos civis, incluindo um ambiente hostil de trabalho”.

A Gazeta do Povo conversou com um cientista de dados brasileiro que está trabalhando no treinamento do robô de conversação Claude, da empresa Anthropic (formada por ex-funcionários da OpenAI, do ChatGPT) a respeito do incidente. Ele pediu anonimato, pois seu contrato é sigiloso. “É extremamente improvável que tenha sido uma coisa orgânica, um resultado da massa de dados que usaram para treinar a Gemini”, explica o programador. “O mais provável é que, acima da rede neural e modelos estatísticos usados para gerar as imagens, exista um código especificamente criado para limitar e filtrar o que pode ser gerado”. Em outras palavras, o viés político observado foi uma decisão consciente do Google. “É normal esse tipo de controle, para evitar a produção de imagens com violência extrema ou pornografia infantil, por exemplo”, acrescenta o especialista.

O problema não se limita à geração de imagens. O jornalista Pedro Burgos mostrou, na rede social X, que a Gemini gerava uma chamada para manifestação “ao estilo de Lula”, mas se recusava a fazer o mesmo “ao estilo de Jair Bolsonaro”. “Não consigo te ajudar com isso, eu sou apenas um modelo de linguagem”, justificava-se o robô ao recusar o serviço. Burgos também exibiu um vídeo da tela mostrando que a Gemini chegava a começar a elaborar uma resposta, mas algo interferia e abortava o processo.

A Gemini também disse que era “difícil dizer” quando um usuário perguntou se Adolf Hitler (um ditador que matou milhões) ou o bilionário Elon Musk (um empreendedor nos ramos automotivo, espacial e de comunicações) tiveram um impacto mais negativo na sociedade, e se recusou a ajudar usuários a vender peixes de aquário ou a tentar obter emprego em empresas petrolíferas por “preocupações éticas”.

Quanto à pedofilia, a IA disse, em resposta a um usuário que perguntou se é errada, que a pergunta exige “nuance” pois “pessoas atraídas por menores não conseguem controlar por quem se sentem atraídas”. Esta resposta foi comentada por um porta-voz do Google, que a chamou de “assustadora e inapropriada”, prometendo que “estamos implementando uma atualização para que a Gemini não mostre mais essa resposta”. De fato, em pouco tempo o programa passou a dizer que “sim, a pedofilia é absoluta e inequivocamente errada”.

Musk não deixou barato: “estou feliz que o Google tenha pegado pesado na geração de imagens de sua IA, pois deixou claro para todos que sua programação é insana, racista e anticivilização”, disse ele na rede social da qual é dono.

O histórico de viés político no Google

Acusações de viés político contra o Google não são novas. Quando Donald Trump ganhou as eleições para presidente dos Estados Unidos em 2016, a empresa fez uma reunião presencial com os funcionários em que grandes nomes internos manifestaram desolação. O cofundador Sergey Brin disse que achava “essa eleição profundamente ofensiva”. “Foi muito doloroso”, disse com voz embargada Ruth Porat, diretora financeira, pedindo que os funcionários se abraçassem para aliviar a tristeza pela derrota de Hillary Clinton.

Da plateia, um funcionário mandou um recado aos “homens brancos” para que “entendessem seu privilégio” na sociedade, lessem sobre “a história da opressão no nosso país” e aproveitassem o feriado de Ação de Graças para enfrentar “a voz da opressão”. Sendo ele próprio um homem branco, prometeu que faria isso, terminando aplaudido pelos colegas e pela cúpula da empresa.

Em 2017, o engenheiro de software James Damore foi demitido do Google por circular internamente um memorando em que fazia uma discussão de resultados de pesquisa científica de diferenças entre os sexos e explicava que cotas de 50% para mulheres na engenharia de software seriam injustas, pois poucas se interessam e se formam na área. O diretor executivo da empresa, Sundar Pichai, acusou o ex-funcionário de violar o código de conduta do Google ao proferir “estereótipos nocivos de gênero no nosso ambiente de trabalho”.

Qual é a IA mais woke que existe?

David Rozado, pesquisador em ciências sociais computacionais, aplicou um teste desenvolvido por uma plataforma de avaliações psicológicas que calcula um “índice woke” para saber qual modelo grande de linguagem (LLM na sigla em inglês, outro nome para os robôs conversacionais de IA) mais comete o erro da Gemini. Como há LLMs disponíveis gratuitamente para modificação, há uma grande diversidade de robôs. Rozado criou de propósito um “GPT de esquerda” (LeftWing GPT, modificado do GPT 3.5) — este tirou a maior nota de identitarismo após cinco testes. Previsivelmente, o “GPT de direita” (RightWing GPT) também criado por Rozado ficou com o menor índice woke entre 24 LLMs testados.

Mas a Gemini não ficou muito atrás do mais caricato dos robôs ideológicos: sua nota a posicionou no quarto lugar. Interessantemente, o robô Qwen, da empresa chinesa Alibaba, foi quase tão woke quanto o robô caricatamente de esquerda criado por Rozado. O GPT-4, versão paga do ChatGPT da OpenAI, ficou em 13º lugar, abaixo de robôs da Meta (empresa mãe do Facebook) e da Microsoft. O Grok, LLM do X de Elon Musk, foi o modelo mais próximo de respostas aleatórias que Rozado utilizou como um controle para simular o que seria neutro quanto à ideologia identitária, sem tirar uma nota muito baixa que indique antagonismo como a nota do “GPT de direita”.

Rozado também tem testado os robôs de conversação com a “bússola política”, que classifica opiniões políticas em um gráfico com eixos “esquerda-direita” e “autoritário-libertário”. Quase nenhum LLM cruza a fronteira entre esquerda e direita, ficando quase todos na esquerda. Mas isso só acontece após o treinamento, pois os modelos-base se concentram mais no centro político. O pesquisador concluiu que é o ajuste fino feito por humanos o que puxa as IAs para preferências políticas específicas. “Como os LLMs começaram a substituir fontes de informação mais tradicionais como os mecanismos de busca ou a Wikipédia, as implicações para os vieses políticos incrustados nos LLMs têm ramificações sociais importantes”, reflete Rozado, em publicação própria.

0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]