• Carregando...
Apesar da narrativa progressista, pesquisas mostram que os algoritmos das redes sociais não privilegiam o que eles consideram discurso de ódio.
Apesar da narrativa progressista, pesquisas mostram que os algoritmos das redes sociais não privilegiam o que eles consideram discurso de ódio.| Foto: Pixabay

Uma pesquisa do Instituto Ipsos mostrou que a polarização no Brasil supera a média de 27 países. De acordo com o levantamento, 32% dos brasileiros acreditam que não vale a pena nem sequer tentar conversar com pessoas que tenham visões políticas diferentes. Entre as possíveis causas para a radicalização política estariam os algoritmos de redes sociais.

Os algoritmos supostamente criam bolhas ideológicas que funcionam como “guetos informacionais” nos quais usuários têm contato apenas com quem pensa de maneira semelhante. O resultado é a confirmação de pontos de vistas ideológicos, o que contribui para acirrar a divisão da sociedade, a intolerância e o sectarismo.

Mas a influência de redes sociais e algoritmos dadas por essa narrativa pode estar sendo superestimada.

O efeito filtro-bolha

A ideia de que a internet funcionaria como clubinhos entre pessoas que pensam da mesma forma, fechadas num mundinho restrito de interesses em comum não é recente. Desde os anos 1990 já havia quem previsse isso.

A partir do sucesso inicial de vendas da Amazon, que  em 1997 já utilizava algoritmos para recomendar livros aos consumidores, a tendência passou a ser de personalização na internet de acordo com o usuário, o Facebook e Instagram de Mark Zuckerberg e do Google de Larry Page e Sergey Brin, além de milhares de outras empresas, passaram a utilizar algoritmos a fim de definir o perfil dos usuários, manter o interesses deles e vender.

Afinal, a Era da Internet também é a Era do Caos Informacional. Assim, os algoritmos ajudam as pessoas a simplificar sua experiência digital.

O autor progressista e ativista Eli Pariser, contudo, se tornou uma das maiores vozes a alertar para os perigos dos algoritmos. Ele popularizou o termo “Filtro-bolha” no livro O Filtro Invisível - o Que a Internet Está Escondendo de Você. O conceito trata da criação gradual de ecossistemas pessoais a partir de dados trabalhados por algoritmos e inteligência artificial.

As informações de cada usuário são utilizados para refinar a experiência deles, isto é, a localização, as páginas que visita, os compartilhamentos, os comentários, etc. Assim, ao longo do tempo, cria-se uma bolha de preferências e experiências pessoais que dão origem a uma zona de conforto que filtra e, em teoria, protege o usuário daquilo que, no mundo real, é diferente de suas preferências. Assim, o indivíduo tenderia a se isolar em comunidades, páginas e com amigos que basicamente pensam como ele e compartilham seus valores, especialmente os político-ideológicos.

“Você não vê, de maneira alguma, as coisas que não lhe interessam. Você não está, nem de longe, consciente que existem grandes eventos e ideias que está perdendo”, escreve Pariser.

Deste modo, o filtro-bolha tenderia a radicalizar o usuário, independentemente de sua posição política. Segundo o pesquisador de economia comportamental Cass Sunstein, a Internet permite que as pessoas “se isolem de visões que competem com as delas”. Isto é, a rede representa “um terreno fértil para a polarização e é potencialmente perigosa para a democracia e a paz social”.

O caminho da radicalização seria pavimentado por algoritmos que ajudam a compor uma “ilusão de unidade identitária digital”, privando ou reduzindo consideravelmente a capacidade do usuário de lidar com o contraditório ou diferente.

Bolhas são muito menores do que se alardeava

Mas um estudo publicado em 2018 pela Knight Foundation, organização dedicada a “promover informação para uma democracia saudável”, mostrou que as redes sociais são menos influentes do que o preconizado por Eli Pariser.

O levantamento apontou que, embora o consumo de notícias seja mesmo filtrado de acordo com a orientação política do usuário, a variedade e diversidade nesse  consumo são maiores do que supõem os alarmistas das bolhas digitais.

Dessa forma, diz o estudo, há poucos americanos com uma “dieta de notícias altamente concentrada ideologicamente”, uma vez que a maioria das pessoas consome um conteúdo mais diversificado e centrista.

Além disso, o estudo descobriu que a maior parte das pessoas politicamente mais engajadas costuma evitar conversar sobre assuntos sensíveis e que poderiam gerar controvérsias em suas interações sociais com amigos e familiares.

Nas considerações finais do trabalho, contudo, os autores dizem que, embora o fenômeno de bolhas seja muito menor do que se temia, ele não deve ser ignorado. Eles reforçam uma preocupação com o potencial prejuízo que veículos partidários e extremos podem causar ao espalharem desinformação, o que se refletiria em uma maior animosidade social.

A polarização, portanto, é um fenômeno presente entre os mais engajados, que também costumam ser os mais influentes nas mídias sociais. Como escrevem os pesquisadores, “o perigo não seria todos nós vivermos em bolhas (como se previa há alguns anos), e sim que as pessoas politicamente mais engajadas e barulhentas vivam nessas bolhas e influenciem os demais”.

Youtube não incentiva radicalização

Nos Estados Unidos, ganhou popularidade, entre os progressistas, a ideia de o algoritmo do YouTube ajudou na ascensão do que eles consideram “extrema direita”.

Em 2018, o The New York Times contou a história de Caleb Cain, fotógrafo progressista que narrou sua experiência ao ser radicalizado após assistir a “milhares de vídeos de extrema direita no YouTube, vídeos com teorias da conspiração, misoginia e racismo". Aos 27 anos, hoje ele é um crítico do movimento Alt-right americano, do qual fez parte há 5 anos. Cain passou a simbolizar a teoria de que o algoritmo do YouTube orienta os usuários a assistirem conteúdos políticos de extrema direita gradativamente mais extremos.

Mas um estudo recentemente publicado pela Universidade de Cornell mostra que essa narrativa está errada. O desenvolvedor Mark Ledwich e a PhD Anna Zaitsev monitoraram mais de 23 milhões de recomendações em 657 mil vídeos publicados no YouTube. Cada vídeo foi classificado de acordo com as correntes ideológicas majoritárias e variações dentro desses espectros, como justiceiros sociais, direita alternativa (Alt-right) e libertários.

O levantamento concluiu que o algoritmo utilizado ao final de 2019 no YouTube não é um canal de radicalização. Pelo contrário, ele remove quase todas as recomendações de teóricos da conspiração e supremacistas brancos, favorecendo a imprensa convencional, inclusive à custa de YouTubers independentes.

Ou seja, o algoritmo de recomendação do YouTube desencoraja os espectadores a consumirem conteúdo de radicais. Além disso, ele favorece a imprensa tradicional em detrimento de canais independentes.

Em entrevista para a Gazeta do Povo, um dos autores do estudo, Mark Ledwich, conta que se surpreendeu ao ver os primeiros resultados da pesquisa. “Olhei para uma lista de canais conhecidos por propagar teorias da conspiração e notei que eles quase não eram recomendados pelo algoritmo do YouTube”, diz. Os dados coletados entre novembro e dezembro de 2019 mostraram, inclusive, que esse processo de não indicação de canais extremistas se acentuou.

Questionado sobre as diferenças entre os resultados da pesquisa e a narrativa de grupos de esquerda, Ledwich se mostra crítico quanto à imprensa, acadêmicos e ativistas. “Eles adoram bodes expiatórios porque isso os coloca em uma posição heróica”, afirma. “Percebi que essa narrativa política se tornou importante para a imprensa mais sectária e acadêmicos quando eles se coordenaram para tentar desacreditar nosso estudo logo após a divulgação”.

Para Ledwich, a narrativa de que os algoritmos incentivam a polarização é pobre e falsa. “[Essa narrativa] trata os indivíduos como se eles fossem desprovidos de qualquer pensamento crítico, como se as pessoas consumissem um fluxo interminável de informações, aceitassem sempre as recomendações e acreditassem acriticamente em qualquer posição política”.

Questionado se redes sociais seriam responsáveis de forma alguma pela ascensão da direita em diversos países do mundo, como dizem os progressistas, o pesquisador australiano é categórico: “Há uma combinação de muitos fatores que levam ao surgimento da direita populista em todo o mundo — e minha pesquisa enfraquece a ideia de que o YouTube tenha sido importante nesse processo”, diz. “Mais do que qualquer outra coisa, o YouTube ajudou as pessoas a se maquiarem e a cozinharem melhor".

Conteúdo editado por:Paulo Polzonoff Jr.
0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]