• Carregando...
Ainda que causem variações durante o uso do Facebook, os algoritmos não influenciaram as opiniões políticas ou a polarização dos usuários
Ainda que causem variações durante o uso do Facebook, os algoritmos não influenciaram as opiniões políticas ou a polarização dos usuários| Foto: Bigstock

Quatro estudos publicados nas revistas científicas Science e Nature alegam que o Facebook, o Instagram e seus algoritmos, ao contrário do que diversas pesquisas e levantamentos anteriores dizem sobre o tema, não tiveram influência significativa na polarização de eleitores e nos resultados das eleições presidenciais norte-americanas em 2020.

Os estudos fazem parte do US 2020 Project Election [Projeto das Eleições de 2020 nos EUA], uma parceria entre pesquisadores da Meta e uma equipe de 17 acadêmicos de universidades nos Estados Unidos.

Ao longo de três anos, a empresa mãe do Facebook, Instagram e Whatsapp forneceu grande volume de dados para que a equipe pudesse pesquisar os efeitos das redes sociais em fenômenos como a polarização política. Ao todo, são 16 estudos, 12 dos quais ainda não foram finalizados.

Mesmo diante dos achados, as partes envolvidas não comentaram sobre a propriedade ou não dos casos crescentes de moderação e censura de conteúdos, principalmente conservadores. A prática tem se alastrado com base na ideia de que certos temas ou opiniões configuram “fake news” e que, portanto, colocariam em risco o processo democrático ao gerar polarização e extremismo político.

Nos Estados Unidos, desde a pandemia de Covid-19 e das eleições norte-americanas de 2020 tais práticas têm encontrado amplo apoio dentre as alas progressistas ou mais à esquerda do espectro ideológico.

Ainda assim, os resultados foram anunciados por Nick Clegg, presidente de assuntos globais da empresa, na quinta-feira (27), em artigo publicado no blog da Meta, de forma simultânea às publicações nas revistas científicas. O executivo britânico já foi líder do partido Liberal-Democrata da Inglaterra e foi vice-primeiro-ministro do governo de coalizão do Reino Unido entre 2010 e 2015.

“Embora questões sobre o impacto das mídias sociais nas principais atitudes, crenças e comportamentos políticos não estejam totalmente resolvidas, as descobertas experimentais se somam a um crescente corpo de pesquisa mostrando que há pouca evidência de que os principais recursos das plataformas da Meta sozinhos causem polarização 'afetiva' prejudicial ou tenham efeitos significativos sobre esses resultados”, afirmou.

Para a tarefa, o corpo de pesquisadores examinou o Facebook e o Instagram antes, durante e depois do dia da eleição. Foram criadas metodologias para cada estudo e usuários participaram, por livre escolha, de grupos de amostragem que mediram o impacto dos algoritmos, a formação de “bolhas” ideológicas, a prevalência de fontes ideologicamente alinhadas e os efeitos da exposição a conteúdos repostados.

As conclusões diferem das premissas de diversos estudos que serviram, inclusive, para a criação de regulações para o uso das redes sociais. Apenas para citar um exemplo sobre o mesmo tema, o estudo Election 2020: Social Media and Political Polarization [Eleições 2020: Mídias sociais e Polarização Política], de Marietje Schaake and Rob Reich, pesquisadores da Universidade de Stanford, afirma o contrário.

"O fato que as pessoas compareceram a manifestações que foram deliberadamente criadas para facilitar a polarização e o confronto sublinha que o que é dito online transborda para as ruas", afirmam em suas conclusões.

Algoritmos não determinam ideologia 

Para analisar os impactos do algoritmo de classificação do feed – que otimiza a ordem em que o conteúdo é apresentado -, durante três meses, as postagens foram apresentadas na ordem cronológica de sua publicação, sem a influência da automação.

Nos últimos anos, os algoritmos das Big Techs têm sido alvo de crescente escrutínio dos reguladores e do público, impulsionados pela premissa de que as redes mantêm os usuários em bolhas de conteúdo que acabam incitando comportamentos radicais.

Como resultado, a análise demonstrou que houve redução no tempo de uso da plataforma e aumento do acesso a conteúdo político, proveniente de fontes não confiáveis e ideologicamente mistas, bem como de amigos moderados. Por outro lado, tiveram acesso a menos conteúdos impróprios, contendo palavrões por exemplo, e houve diminuição no engajamento político.

Mesmo que a ausência do algoritmo tenha gerado tais mudanças na experiência durante o uso da rede, os testes demonstraram que o impacto não foi suficiente para alterar os níveis de polarização ou o posicionamento político dos usuários.

Outro dos estudos reduziu em cerca de um terço a exposição a conteúdos de fontes políticas similares às dos usuários durante o período eleitoral. Ao todo, 23 mil pessoas participaram dessa experiência.

Mesmo que a medida tenha aumentado a exposição a informações de diferentes fontes ideológicas, não foram demonstradas mudanças de atitudes como polarização afetiva, extremismo ideológico, avaliações de candidatos e crença em alegações falsas.

Compartilhamentos não alteram convicções 

Os especialistas também avaliaram os impactos das práticas de compartilhamento de conteúdo, mantendo uma gama de usuários sem acesso a publicações repostadas em seus feeds.

Da mesma forma que em alguns dos estudos anteriores, a prática levou a uma redução substancial da exposição a notícias sobre política, incluindo conteúdo de fontes não confiáveis, e do engajamento em geral e com notícias partidárias.

Mas o mantra conclusivo se repetiu: “ao contrário das expectativas, o tratamento não afeta significativamente a polarização política ou qualquer medida de atitudes políticas em nível individual”, afirmaram os coordenadores da pesquisa.

Um dos estudos, no entanto, demonstrou que usuários de perfil conservador são responsáveis por consumir uma “parcela substancial” do “ecossistema noticioso” que, conforme o programa de checagem de fatos de terceiros da Meta, contém a maior parte da desinformação encontrada na plataforma.

Mas aqui cabe uma ressalva: o programa de checagem de fatos de terceiros da Meta é composto por agências de notícia, de checagem de fatos e veículos de mídia como Associated Press, AFP e Reuters, por exemplo. Esses veículos, por exemplo, defenderam que houve influência russa nas eleições de 2016, o que foi provado um erro.

Para o estudo em questão, foram consideradas como fontes não confiáveis aquelas nas quais dois ou mais artigos e reportagens tenham sido reconhecidos como não verdadeiros pelas instituições e agências que integram o programa. Mas não foram divulgados que parâmetros são utilizados pelos membros do programa para medir a veracidade das notícias, o que deixa ainda mais dúvidas sobre sua acuidade.

As análises também identificaram que os usuários da plataforma estão sujeitos à segregação ideológica – quando somente acessam conteúdo de um dos espectros viés ideológico - sejam conservadores ou progressistas.

Para tanto, foram examinadas todas as notícias que os usuários poderiam ter visto, os conteúdos a que de fato tiveram acesso, e o grupo significativamente menor de postagens com as quais se engajaram (por meio de cliques, reações, curtidas, novos compartilhamentos ou comentários).

A conclusão é de que esse funil de engajamento “opera de forma assimétrica entre a 'direita' política dos EUA (conservadores ou Partido Republicano) e a 'esquerda' política (progressistas ou Partido Democrata), com a presença de um consumo de notícias muito mais homogêneo à direita – um padrão sem paralelo à esquerda”.

A amplificação algorítmica [quando o algoritmo seleciona determinados conteúdos para o usuário] e a social [que leva a conteúdos similares àqueles com os quais o usuário se engajou] contribuíram com esse fenômeno.

Como foram realizados os estudos 

A coordenação do trabalho ficou a cargo da professora Talia Jomini Stroud, fundadora e atual diretora do Center for Media Engagement [Centro para Engajamento de Mídia] da Universidade do Texas, e pelo professor Joshua A. Tucker, co- diretor do Center for Social Media and Politics [Centro para Mídias Sociais e Política] da Universidade de Nova York.

Da parte da Meta, uma equipe com mais de duas dezenas de pesquisadores, engenheiros e analistas jurídicos foi criada para conduzir as investigações. Todo o processo foi observado e relatado por Michael W. Wagner, professor na Escola de Jornalismo e Comunicação de Massa da Universidade do Wisconsin.

Para realizar a investigação, os pesquisadores desenharam as metodologias específicas para desenvolver cada um dos estudos em conjunto com os parceiros externos. Foi acordado que nenhuma das partes teria autoridade para restringir quaisquer descobertas – mesmo que viesse a ser desfavorável para a empresa.

Inclusive, em relação à divulgação dos primeiros resultados, houve discordância entre a empresa e alguns dos pesquisadores e das equipes envolvidas na publicação. Conforme primeiramente reportado pelo The Wall Street Journal, Meagan Phelan, responsável de comunicação da revista Nature, disse que “as descobertas da pesquisa sugerem que os algoritmos da Meta são uma parte importante do que mantém as pessoas divididas”.

A executiva havia afirmado à Meta que questionaria publicamente a empresa caso afirmasse que as conclusões a desoneravam das acusações de ter exercido papel fundamental na polarização do pleito.

Consultados, o pesquisador Michael W. Wagner e a Meta não se pronunciaram até o fechamento desta reportagem.

0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]