Como você se sentiu com essa matéria?

  • Carregando...
  • Ícone FelizÍcone InspiradoÍcone SurpresoÍcone IndiferenteÍcone TristeÍcone Indignado
 | Jennifer Heuer for The New York Times
| Foto: Jennifer Heuer for The New York Times

A certa altura da campanha eleitoral de 2016, acabei vendo vários vídeos dos comícios de Donald Trump no YouTube; estava escrevendo um artigo sobre seu apelo com os eleitores e queria confirmar algumas de suas citações. Não demorou para notar um detalhe peculiar: o site começou a me recomendar e colocar na reprodução automática vídeos de discursos de supremacistas, negações do Holocausto e outros temas perturbadores.

Uma vez que nunca tive o hábito de assistir a qualquer material de extrema-direita no YouTube, fiquei curiosa para saber se o fenômeno era exclusivo da ideologia; por isso, criei outra conta e comecei a ver vídeos de Hillary Clinton e Bernie Sanders, permitindo que o algoritmo de “recomendados” me levasse aonde bem quisesse. Logo estava sendo direcionada para os vídeos de um grupo esquerdista conspiratório, incluindo argumentos sobre a existência de agências governamentais secretas e alegações de que as autoridades dos EUA estavam por trás dos ataques de 11 de Setembro. Em relação aos vídeos de Trump, o YouTube começou a recomendar conteúdo cada vez mais radical, muito mais do que o do meu ponto inicial.

Intrigada, resolvi fazer o teste com tópicos não políticos; o mesmo padrão se repetiu. Vídeos sobre vegetarianismo me levaram a outros, de veganismo; os de corrida, aos de ultramaratonas.

A impressão que se tem é a de que você nunca é “exagerado” o suficiente para o algoritmo do YouTube. Ele promove, recomenda e dissemina vídeos de uma forma que parece estar sempre aumentar o tom. Considerando que tem por volta de 1 bilhão de usuários, o YouTube pode ser um dos instrumentos mais radicalizadores do século 21.

Você nunca é “exagerado” o suficiente para o algoritmo do YouTube

E não é porque um grupo de engenheiros do site esteja de conluio para acabar com o mundo; uma explicação mais plausível tem a ver com o vínculo da inteligência artificial e o modelo de negócios do Google (dono do YouTube). Apesar de toda a retórica solene, a empresa não passa de uma corretora de anúncios, vendendo nossa atenção às companhias que pagam por ela. Quanto mais tempo a pessoa fica no YouTube, mais o Google fatura.

E o que mantém o público grudado ali? Seu algoritmo parece ter concluído que as pessoas são atraídas por um conteúdo mais radical do que aquele com que começaram – ou, no mínimo, polêmico.

Será que a suspeita procede? O acesso a dados bons é difícil; o Google detesta compartilhar informações com pesquisadores independentes, mas agora surgiram os primeiros sinais de confirmação, graças, em parte, a um ex-engenheiro da empresa chamado Guillaume Chaslot. Enquanto foi funcionário da companhia, ele trabalhou com o algoritmo de recomendação – e foi ficando cada vez mais alarmado com as táticas usadas para aumentar o tempo que as pessoas passavam no site. Foi despedido em 2013, segundo a companhia, por causa do desempenho fraco, mas garante que o verdadeiro motivo foi ter insistido em mudanças na maneira como seus superiores lidavam com essas questões.

O Wall Street Journal fez uma investigação a respeito do conteúdo do YouTube com a ajuda de Chaslot – para descobrir que o site oferece “vídeos de extrema-direita e esquerda aos usuários que fazem busca em fontes equilibradas de notícias” e que a tendência extremista é evidente em vários tipos de material. Se der busca por informações sobre vacina contra a gripe, por exemplo, vai ser dirigido a vídeos conspiratórios antivacinação.

Leia também: O ódio nas redes sociais (artigo de Hudson José, publicado em 30 de janeiro de 2016)

Leia também: Qual é o seu ódio? (artigo de Flavio Lobo, publicado em 26 de agosto de 2017)

É possível também que o algoritmo tenha uma queda para o conteúdo polêmico. Às vésperas das eleições de 2016, Chaslot criou um programa para monitorar os vídeos mais recomendados e os padrões de tais recomendações – e descobriu que, começando a pesquisa com um vídeo pró-Clinton ou pró-Trump, você muitas vezes acabava com uma recomendação trumpiana.

Agregando essa descoberta à conclusão de outra pesquisa – a que mostra que, durante a campanha de 2016, as notícias falsas, sempre ricas em termos de escândalo e absurdo, incluíam muito mais conteúdo relacionado a Trump –, percebe-se que a tendência à controvérsia é evidente.

Recentemente, o YouTube foi duramente criticado por recomendar vídeos promovendo a teoria conspiratória que reza que os sobreviventes mais articulados do massacre de Parkland, na Flórida, seriam atores disfarçados de vítimas. Pesquisador de Columbia, Jonathan Albright recentemente “plantou” uma conta do YouTube com uma busca por “ator” e descobriu que seguir as recomendações o levaria a 9 mil vídeos promovendo a conspiração e outras, incluindo a de que a chacina de 2012 em Newtown, no Connecticut, foi uma farsa.

Somos levados pela empolgação e a sensação de estarmos descobrindo mais segredos e verdades mais profundas

Estamos testemunhando a exploração computacional de um desejo humano natural: o de olhar “por trás da cortina”, ir a fundo em algo que nos interessa. Quando saímos clicando, somos levados pela empolgação e a sensação de estarmos descobrindo mais segredos e verdades mais profundas. O YouTube convida o usuário a se embrenhar pela toca do coelho do extremismo enquanto o Google acumula os lucros das vendas de anúncios.

O ser humano tem muitas tendências naturais que precisam ser monitoradas vigilantemente no contexto da vida moderna. Por exemplo, nossa vontade de consumir gordura, sal e açúcar, que nos foi útil quando o alimento era escasso, pode ser nossa perdição em um ambiente em que esses ingredientes abundam e são anunciados insistentemente. O mesmo vale para a nossa curiosidade em relação ao desconhecido, que pode nos desvirtuar em um site que nos arrasta o tempo todo para as mentiras, farsas e a desinformação.

De fato, o YouTube montou um restaurante que serve um volume cada vez maior de comidas doces e gordurentas, enchendo o nosso prato assim que acabamos a refeição anterior. Com o tempo, nosso gosto vai se ajustando e acabamos procurando mais doce e mais gordura, de que a casa prontamente dispõe – e, quando confrontada pelo departamento de saúde e os cidadãos mais preocupados, a gerência do estabelecimento reage dizendo que só serve o que o cliente pede.

A situação é especialmente perigosa se considerarmos quantas pessoas, especialmente os jovens, vão buscar informações no YouTube. Os laptops Chromebook, por exemplo, baratos e resistentes, respondem por mais de 50% do mercado de educação pré-universitário nos EUA, e já vêm com acesso direto ao site.

Esse estado de coisas é inaceitável, mas não inevitável. Não há motivo para permitir que uma única empresa lucre tanto basicamente ajudando a radicalizar bilhões de pessoas, colhendo os benefícios financeiros enquanto pede à sociedade que arque com os custos.

Zeynep Tufekci, professora associada da Faculdade de Informação e Biblioteconomia da Universidade da Carolina do Norte, é autora de “Twitter and Tear Gas: The Power and Fragility of Networked Protest”.
The New York Times News Service/Syndicate – Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização por escrito do The New York Times.
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]