• Carregando...
 | David Paul Morris/Bloomberg
| Foto: David Paul Morris/Bloomberg

Saio da estação de trem e dou uns 20 passos. Antes que consiga atravessar a rua, dou de cara com o “G” multicolorido da Google em um cartaz impresso em A4. Sob a logomarca, em letras pretas definitivas, uma mensagem: “Não alimente o ditador”.

Isso vai soar estúpido, mas a primeira imagem que me veio à mente foi a de animais em zoológicos. Aprisionados em suas jaulas, com aqueles olhares alienados, estariam protegidos por suas plaquinhas de “não alimente os animais”. Ocorreu-me que a história é um habitat controlado para os passados humanos, em que nossos piores episódios estão acomodados em jaulas para que todos vejam. “Não alimente o ditador”, dizia o sinal e, imediatamente, o ditador apareceu em uma pequena jaula, furioso como uma pantera, desejoso de uma liberdade que certamente representaria a minha morte, se viesse, imediata, com as portas escancaradas subitamente.

O velho ditador que habitava minha imaginação era, contudo, uma daquelas figuras severas, cravejadas de oficialidade e ritos institucionais, com ares nacionais e pretensões violentas. Eu não esperava ver um novo ditador, mais esguio e sagaz, procurando desesperadamente alimentar-se das partes pequenas de meu eu virtual.

A declaração do pequeno cartaz seria melhor explicada quando, há poucos dias, o Facebook mostrara uma mudança geral de atitude por meio da exclusão de 196 páginas e 87 perfis sob a alegação de exposição de fake news. Os usuários falsos e as notícias falsas seriam parte de uma rede de desinformação dirigida a interesses políticos. Postagens e perfis, pertencentes ao Movimento Brasil Livre e ao Brasil 200, teriam sido excluídos em razão de quebra de termos de uso. Para a plataforma, a exposição de perfis com informação falsa já é o bastante para garantir o banimento. Igualmente, quaisquer formas de fake news têm sido veementemente combatidas pela empresa.

A história é um habitat controlado, em que nossos piores episódios estão acomodados em jaulas para que todos vejam

A medida pode ser facilmente compreendida, se contextualizada adequadamente. Em meados de março, a Cambridge Analytica, empresa dedicada à análise de perfis e coleta de informações para fins políticos, foi exposta publicamente por práticas de mau uso de informações coletadas no Facebook, com vazamento de dados da plataforma e coleta irregular de informações de milhões de perfis. O escândalo levou o CEO do Facebook, Mark Zuckerberg, a uma audiência perante o Congresso norte-americano, para explicar a situação e esclarecer a possível influência de práticas de data harvesting na eleição para a presidência norte-americana. Considerando o possível ataque às instituições democráticas nos Estados Unidos, o Legislativo do país exigiu uma tomada de atitude: se o Facebook não fosse capaz de coibir essas práticas de desinformação, o Congresso norte-americano tomaria o problema em suas mãos, regulamentando o setor. O resultado disso reside em ações inibidoras como a que testemunhamos recentemente.

O problema, contudo, tem alcance ainda maior. Para escapar do peso de leis severas, baseadas em diretivas vigentes em território europeu há cerca de 20 anos, a plataforma decidiu buscar parceiros para uma campanha aberta contra as fake news. No Brasil, essa parceira é a Lupa, empresa que segue o código de princípios de outra aliada internacional do Facebook, a Poynter. Essas empresas procuram estabelecer práticas de verificação de veracidade de notícias, definindo parâmetros para a exclusão de fake news. Empregam também algoritmos próprios para garantir a idoneidade de informações. A preocupação ganha força em virtude do aquecimento das corridas políticas em 2018 – as eleições presidenciais no Brasil e as eleições para o Congresso nos Estados Unidos.

Para garantir que o Facebook não crie impacto negativo em mais uma eleição (já que é acusado de abrigar fake news sobre candidatos norte-americanos a partir de perfis falsos, criados na Rússia), as empresas coligadas determinaram um sistema de avaliação para as notícias apresentadas, com a possibilidade de exclusão de fake news e perfis, oferta de espaço de resposta e defesa para candidatos lesados e emprego de técnicas de educação sobre eleições, suportadas, no caso brasileiro, pelos tribunais eleitorais. Alegam as empresas envolvidas que a transparência de informações é do interesse de todos, e deve ser protegida por todos os setores da sociedade.

Leia também: Facebook: segurança da informação ou expurgo ideológico? (editorial de 26 de julho de 2018)

Leia também: A face não tão bela do big data (artigo de Cristina Pastore, publicado em 24 de abril de 2018)

Nossos paladinos virtuais deixam, contudo, de comentar que suas ações eram outrora estabelecidas sob o crivo de juízes e tribunais, com domínio técnico e regulamentação clara de tempo de campanha. Mais que isso, deixam de mencionar que não pretendem abrir seus algoritmos de vigilância para os usuários. Também não desejam deixar claro que as medidas tomadas servem, antes de tudo, para proteger seus interesses econômicos (valor de ações na bolsa de valores, fidelidade de dados coletados), sendo a democracia uma parceira conveniente.

Não quero, com isso, dizer que notícias falsas sejam aceitáveis. Contudo, oferecer a empresas privadas o poder para julgá-las e eliminá-las sozinhas é um caminho certo para a criação de aparelhos privados de censura.

O ditador era como uma pantera que, se visse a porta da jaula aberta, saltaria sobre mim e certamente me mataria. No fim, eu descobri que o ditador já estava solto e andava me ameaçando. Eu, crendo-me muito esperto, enfiei-me na jaula, tranquei a porta e ri do déspota. Mal percebia eu que o ditador estava livre para caçar quem bem entendesse, ao passo que eu, “a salvo”, iria morrer preso e, para piorar, sem receber nem sequer uma migalha...

Rafael Zanlorenzi é doutor em Direito e professor do curso de Direito da Universidade Positivo (UP).
0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]