• Carregando...
 | /Pixabay
| Foto: /Pixabay

Analisando as consequências das eleições intermediárias americanas, seria fácil passar batido pelas ameaças de longo prazo à democracia que estão à espreita em cada esquina, mas talvez a mais grave seja a inteligência artificial política na forma do chamado “chatbot”, que se disfarça de seres humanos e tenta sequestrar o processo político.

Chatbots são programas de computador capazes de conversar com as pessoas nas redes sociais usando uma linguagem natural – e, cada vez mais, assumem a forma de sistemas de aprendizado de máquina a que não são ensinados cuidadosamente vocabulário, gramática e sintaxe, mas que “aprendem” a responder adequadamente usando inferência probabilística a partir de grandes grupos de dados e diretrizes humanas.

Alguns, como o premiado Mitsuku, podem inclusive ter um nível de conversação passável, ainda que política não seja seu forte. Ao ouvir a pergunta “O que achou das intermediárias?”, ele responde: “Nunca ouvi falar de intermediárias. Por favor me esclareça”. Reflexo do estado imperfeito da arte, ele geralmente oferece respostas divertidamente estranhas. “O que você acha do New York Times?”, pergunto. “Nem sabia que existia um”, é o que ele me diz.

A maioria dos bots políticos é rudimentar nesse mesmo nível, limitada à repetição de slogans como “#LockHerUp” ou “#MAGA”, mas um olhar sobre a história política recente sugere que o instrumento já começou a ter um impacto considerável no discurso político. No período anterior às intermediárias, por exemplo, calcula-se que 60% das conversas on-line relacionadas à “caravana” de imigrantes centro-americanos tenham sido iniciadas por chatbots.

Acredita-se que, há dois anos, cerca de 20% de todos os tuítes discutindo as eleições presidenciais norte-americanas tenham sido obra de chatbots

Nos dias que se seguiram ao desaparecimento do colunista Jamal Khashoggi, as redes sociais de língua árabe ferveram em apoio ao príncipe Mohammed bin Salman, que, segundo muitos boatos, teria sido o mandante de seu assassinato. Em um único dia, em outubro, a frase “Todos nós confiamos em Mohammed bin Salman” apareceu em mais de 250 mil tuítes. “Temos de apoiar nosso líder” foi postada mais de 60 mil vezes, além das 100 mil mensagens implorando aos sauditas que “deixem de seguir os inimigos da nação”. Grandes são as chances de que a vasta maioria dessas mensagens tenha sido gerada por bots.

O fenômeno não é recente: acredita-se que, há dois anos, cerca de 20% de todos os tuítes discutindo as eleições presidenciais norte-americanas tenham sido obra de chatbots, como também um terço do tráfego na mesma rede social, no mesmo ano, antes do referendo sobre a permanência do Reino Unido na União Europeia, principalmente em apoio à saída.

É irrelevante o fato de os bots atuais não serem “inteligentes” como nós, ou não terem desenvolvido a consciência e a criatividade desejadas pelos puristas; o que vale é o impacto que causam.

Antigamente, apesar das diferenças, podíamos pelo menos ter a certeza de que todos os participantes do processo político eram humanos, mas isso já não vale mais. É cada vez mais comum dividirmos espaço nos debates on-line com entidades não humanas sofisticadas. Em meados deste ano, um bot desenvolvido pela empresa britânica Babylon teria tido um aproveitamento de 81% na prova prática para admissão no Royal College of General Practitioners (equivalente ao Conselho Federal de Medicina). A pontuação média do médico? 72%.

Leia também: Futurologia: a quarta revolução industrial e a vitória definitiva do capitalismo (artigo de Gustavo Reichenbach, publicado em 3 de maio de 2018)

Leia também: Seu emprego e os robôs do futuro (artigo de José Pio Martins, publicado em 29 de novembro de 2018)

Se o chatbot está chegando ao ponto de responder a questões de diagnóstico tão bem ou melhor que o profissional humano, é perfeitamente possível que alcance ou supere nossos níveis de desenvoltura política. E é ingenuidade supor que, no futuro, continuará limitado como hoje. É bem provável que ganhe rosto, voz, nome e personalidade, engendrados para se obter um nível máximo de persuasão. Os chamados vídeos deepfake já conseguem sintetizar o discurso e a aparência dos políticos de verdade.

A menos que tomemos uma atitude, os chatbots colocarão nossa democracia em grande perigo, e não só quando saírem do controle.

O risco mais óbvio é o de sermos superados em nossos próprios processos deliberativos por sistemas velozes e/ou onipresentes a ponto de não conseguirmos acompanhá-los. Quem se dará ao trabalho de participar de um debate em que toda contribuição é arrasada em questão de segundos por milhares de adversários digitais?

Outro risco é o de que os mais ricos terão acesso aos melhores chatbots. Corporações e grupos de interesses mais prósperos, cujas visões já ocupam um espaço dominante no discurso público, inevitavelmente terão melhores condições para se beneficiar das vantagens retóricas permitidas por essas novas tecnologias.

Outro risco é o de que os mais ricos terão acesso aos melhores chatbots

E em um mundo onde, cada vez mais, a única maneira viável de se engajar no debate com os chatbots é mediante o uso de outros bots de mesma velocidade e agilidade, o temor é que, no longo prazo, o ser humano acabe efetivamente excluído do próprio partido. Para dizer o mínimo, a automatização geral da deliberação seria péssima para o histórico democrático.

Reconhecendo a ameaça, alguns grupos já começaram a agir. O Projeto de Doutrinação Computacional do Instituto da Internet de Oxford oferece pesquisas academicamente confiáveis sobre a atividade dos bots ao redor do mundo. O pessoal inovador do Laboratório Robhat agora oferece aplicativos para revelar quem é humano e quem não é. E as próprias redes sociais – entre elas, Twitter e Facebook – se tornaram mais eficientes na detecção e neutralização desses elementos.

Mas algo mais precisa ser feito. Uma abordagem brusca – podemos chamar de desqualificação – seria a proibição total dos bots nos fóruns em que se desenrola o discurso político mais importante, e punição para os humanos responsáveis por eles. O projeto de lei da Identificação e Responsabilização de Bot, criado pela senadora democrata Dianne Feinstein, propõe algo semelhante: serviria de emenda para a Lei de Campanha Eleitoral Federal, de 1971, para proibir candidatos e partidos políticos de usar qualquer tipo de bot com a intenção de imitar ou assumir a atividade humana para comunicação pública. Também impediria os PACs, as corporações e as organizações trabalhistas de usar o recurso para disseminar mensagens defendendo candidatos, o que poderia ser considerado “comunicação eleitoreira”.

Leia também: Você será substituído por um robô? (artigo de Ronaldo Cavalheri, publicado em 12 de outubro de 2017)

Leia também: Estamos no limiar da Quarta Revolução Industrial (artigo de Jacir Venturi, publicado em 4 de fevereiro de 2018)

Um método mais sutil envolveria a identificação compulsória, exigindo que todos os chatbots fossem registrados publicamente e que se afirmasse em tempo integral o fato de serem o que são, além da identidade dos donos e controladores. E aqui, novamente, a proposta mencionada acima cumpriria esse objetivo, exigindo que a Comissão Federal Comercial forçasse as plataformas das redes sociais a introduzir políticas que demandassem do usuário “o aviso claro e inequívoco” do uso de bots, “em linguagem simples e clara”, e ficassem de olho para evitar quaisquer violações. A elas também caberia expulsar e/ou bloquear os transgressores.

Deveríamos também explorar formas mais criativas de regulamentação. Por que não introduzir uma regra, programada nas próprias plataformas, especificando que os bots só podem fazer um número específico “x” de contribuições por dia, ou um número específico de respostas a um ser humano em particular? O tráfico de informações suspeitas realizado por esses programas seria identificado e denunciado por moderadores, que exigiriam fontes reconhecíveis de suas alegações em questão de segundos – e os que não as fornecessem seriam sumariamente barrados.

Não é preciso tratar o discurso dos chatbots com a mesma reverência com que tratamos a versão humana; além do mais, esses programas são rápidos e obscuros demais para se submeterem às regras comuns do debate. Por esses dois motivos, os métodos que usamos para regulamentar os bots devem ser mais robustos do que os que se aplicam aos seres humanos. Não pode haver meias medidas quando a democracia está em jogo.

Jamie Susskind é advogado e antigo membro do Centro Berkman Klein para a Internet e a Sociedade de Harvard. É autor de “Future Politics: Living Together in a World Transformed by Tech”.
The New York Times News Service/Syndicate – Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização por escrito do The New York Times.
0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]