• Carregando...
Pessoa vê celular diante de logo do YouTube
Pessoa vê celular diante de logo do YouTube| Foto: Chris Ratcliffe

Há um ano, Susan Wojcicki estava no palco para defender o YouTube. A empresa, martelada por meses por alimentar falsidades on-line, estava se recuperando de outro problema envolvendo um vídeo sobre uma teoria da conspiração relacionada ao ataque à escola de Parkland, na Flórida (Sul dos EUA), que sugeria que as vítimas eram “atores da crise”.

Wojcicki, diretora executiva do YouTube, esteve em Austin (Sul dos EUA) na conferência South by Southwest, em março de 2018, para apresentar uma solução que espera ajudar a acabar com as teorias da conspiração: uma minúscula caixa de texto de sites como a Wikipédia, localizado embaixo dos vídeos que questionassem fatos confirmados, como a chegada do homem à Lua, para ligar o espectador com a realidade.

Estima-se que o gigante de mídia, liderado por Wojcicki e empenhado em ultrapassar a televisão, deve faturar mais de US$ 16 bilhões por ano.

Naquele dia, Wojcicki comparou o site de vídeos a um tipo diferente de instituição. "Somos mais como uma biblioteca", disse ela, assumindo uma posição familiar como defensora da liberdade de expressão. "Sempre houve controvérsias, se você olhar para as bibliotecas."

Desde que Wojcicki subiu ao palco, teorias conspiratórias proeminentes sobre a plataforma - incluindo uma sobre vacinação infantil e outra relacionando Hillary Clinton a um culto satânico - atraíram a ira dos legisladores ansiosos por regulamentar as empresas de tecnologia. E o YouTube está, um ano depois, ainda mais associado às partes mais obscuras da web.

O enigma não é porque apenas que os vídeos questionando o pouso na lua ou a eficácia das vacinas estão no YouTube. A "biblioteca" maciça, gerada por usuários com pouca supervisão editorial, está fadada a ter inverdades sem sentido. Em vez disso, o problema do YouTube é que permite que o absurdo floresça. E, em alguns casos, por meio de seu poderoso sistema de inteligência artificial, fornece até mesmo o combustível que permite que ele se espalhe.

Wojcicki e seus representantes sabem disso. Nos últimos anos, dezenas de pessoas dentro do YouTube e do Google, seu dono, levantaram preocupações sobre o amplo conteúdo falso, incendiário e tóxico que o maior site de vídeos do mundo permitiu que fosse colocado à tona e se espalhasse.

Um funcionário queria marcar vídeos problemáticos, que ficaram aquém das regras do discurso de ódio, e parar de recomendá-los aos espectadores.

Outro queria acompanhar esses vídeos em uma planilha para mapear sua popularidade. Um terceiro, irritado com a disseminação dos blogueiros de vídeo "alt-right", criou uma visão interna que mostrava o quão popular eles eram. Eles obtiveram a mesma resposta básica: Não balance o barco.

A prioridade é o engajamento

A empresa passou anos buscando uma meta de negócios acima de outras: "engajamento", uma medida das visualizações, tempo gasto e interações com vídeos online. Conversas com mais de 20 pessoas que trabalham ou deixaram o YouTube nos últimos anos revelam uma liderança corporativa incapaz ou não disposta a agir sobre esses alarmes internos por medo de limitar o engajamento.

Wojcicki "nunca colocaria os dedos na balança", disse uma pessoa que trabalhava para ela. "A opinião da executiva: 'meu trabalho é administrar a empresa, não lidar com isso'". Essa pessoa, como outras pessoas que falaram com a Bloomberg News, pediu para não ser identificada por medo de retaliação.

O YouTube recusou os pedidos da Bloomberg News para falar com Wojcicki ou outros executivos, a gerência do Google e do conselho da Alphabet Inc., sua matriz. No final de março, Neal Mohan, seu diretor de produtos, disse ao The New York Times que a empresa "fez grandes progressos" ao abordar seus problemas com recomendações e conteúdos radicais.

Uma porta-voz do YouTube contestou a ideia de que Wojcicki está desatenta a essas questões e que a empresa prioriza o engajamento acima de tudo.

A porta-voz disse que a empresa passou os últimos dois anos focada em encontrar soluções para seus problemas de conteúdo. Desde 2017, o YouTube recomenda clipes com base em uma métrica chamada "responsabilidade", que inclui informações de pesquisas de satisfação exibidas após vídeos. O YouTube se recusou a descrevê-lo mais detalhadamente, mas disse que recebe "milhões" de respostas a cada semana.

"Nosso foco principal tem sido o de lidar com alguns dos desafios de conteúdo mais difíceis da plataforma", disse em comunicado enviado por e-mail.

"Demos vários passos significativos, incluindo a atualização do nosso sistema de recomendações para evitar a disseminação de desinformações prejudiciais, melhorando a experiência de notícias no YouTube, elevando o número de pessoas focadas em conteúdo em todo o Google para 10.000, investindo em machine learning para ser capaz de encontrar e remover conteúdo violento mais rapidamente e revisar e atualizar nossas políticas - fizemos mais de 30 atualizações de políticas somente em 2018. E isso não é o fim: a responsabilidade continua sendo nossa prioridade número um."

Em resposta às críticas sobre a prioridade do crescimento em detrimento da segurança, o Facebook propôs uma mudança dramática em seu produto principal. O YouTube ainda tem dificuldades para explicar qualquer nova visão corporativa ao público e aos investidores - e, às vezes, à sua própria equipe. Cinco altos executivos que deixaram o YouTube e o Google nos últimos dois anos citaram a incapacidade da plataforma de controlar vídeos extremos e perturbadores como o motivo da sua saída. No Google, a incapacidade do YouTube de corrigir seus problemas continua sendo uma grande queixa.

Inércia vem novamente à tona

A inércia do YouTube foi destacada novamente depois que um surto mortal de sarampo chamou a atenção do público a teorias da conspiração sobre vacinação nas mídias sociais nas últimas semanas. Novos dados da Moonshot CVE, uma empresa sediada em Londres que estuda o extremismo, descobriram que menos de 20 canais do YouTube que espalharam essas mentiras atingiram mais de 170 milhões de espectadores, muitos dos quais foram recomendados para outros vídeos carregados de teorias conspiratórias.

A fraca resposta da empresa a vídeos explícitos direcionados a crianças atraiu críticas da própria indústria de tecnologia. Patrick Copeland, um ex-diretor do Google que saiu em 2016, recentemente acusou sua antiga empresa no LinkedIn. Enquanto assistia ao YouTube, a filha de Copeland foi sugerida a assistir um clipe que apresentava tanto um personagem da Branca de Neve desenhado com características sexuais exageradas e um cavalo envolvido em um ato sexual. "A maioria das empresas demitiria alguém por assistir a este vídeo no trabalho", escreveu ele. "Inacreditável!!" Copeland, que passou uma década no Google, decidiu bloquear o domínio YouTube.com.

Tentativa de impedir vídeos polêmicos

Micah Schaffer entrou no YouTube em 2006, nove meses antes de ser adquirido pelo Google. Foi-lhe atribuída a tarefa de escrever políticas para o site. Naquela época, o YouTube estava focado em convencer as pessoas por que elas deveriam assistir a vídeos de amadores e fazer o upload de seus próprios vídeos.

Alguns anos mais tarde, quando deixou o YouTube, o site ainda não era rentável e amplamente conhecido por frivolidades. Mas mesmo assim houve problemas com conteúdo malicioso. Naquela época, o YouTube notou um aumento nos vídeos elogiando a anorexia. Em resposta, os moderadores da equipe começaram a vasculhar furiosamente os clipes para colocar restrições de idade, eliminá-los das recomendações ou retirá-los totalmente. Eles "ameaçaram a saúde de nossos usuários", lembrou Schaffer.

Ele se lembrou desse episódio recentemente, quando os vídeos sobre os perigos da vacinação começaram a se espalhar no YouTube. Isto, ele pensou, teria sido uma obviedade no passado. "Nós os restringiríamos severamente ou os proibiríamos completamente", disse Schaffer. "O YouTube nunca deveria ter permitido que teorias conspiratórias perigosas se tornassem uma parte tão dominante da cultura da plataforma."

Em algum momento na última década, ele acrescentou, o YouTube priorizou a busca de lucros no lugar da segurança de seus usuários.

Crescimento explosivo do YouTube

A partir de 2009, o Google adotou um controle mais rigoroso do YouTube. Ele foi liderado por executivos, como o chefe de vendas Robert Kyncl, que adotaram uma estratégia técnica e um plano de negócios para sustentar seu crescimento explosivo. Em 2012, o YouTube concluiu que quanto mais pessoas assistissem, mais anúncios poderiam ser exibidos - e que recomendar vídeos, juntamente com um clipe ou depois de um deles, era a melhor maneira de manter os olhos no site.

Assim o YouTube, dirigido pelo veterano do Google, Salar Kamangar, definiu um objetivo para toda a empresa atingir um bilhão de horas de visualização por dia e reescreveu seu mecanismo de recomendação para maximizar esse objetivo. Quando Wojcicki assumiu o cargo, em 2014, o YouTube tinha percorrido um terço do caminho para a meta, ela lembrou no livro "Measure What Matters", publicado pelo investidor John Doerr no ano passado.

"Eles pensaram que isso quebraria a internet! Mas pareceu-me que um objetivo tão claro e mensurável iria energizar as pessoas, e eu as aplaudi", disse Wojcicki a Doerr. Em outubro de 2016, o YouTube atingiu sua meta.

Por trás do sistema de recomendações do YouTube

Naquele mesmo outono, três programadores do Google publicaram um artigo sobre o modo como o sistema de recomendações do YouTube trabalhava com sua montanha de vídeos recém-enviados. Eles descreveram como a rede neural do YouTube, um sistema de inteligência artificial que imita o cérebro humano, poderia prever melhor o que um espectador assistiria em seguida.

No entanto, não faz menção às ‘minas terrestres’ - desinformação, extremismo político e conteúdo infantil repulsivo - que conquistaram milhões e milhões de pontos de vista e abalaram a empresa desde então. Esses tópicos raramente surgiram antes da eleição dos EUA em 2016. "Nós estávamos tentando atingir nossas metas e impulsionando o uso do site", disse um ex-gerente sênior.

O YouTube não fornece uma receita exata para a viralidade. Mas na corrida para um bilhão de horas, uma fórmula surgiu: indignação é igual a atenção. É algo que as pessoas nas margens políticas facilmente exploraram, disse Brittan Heller, um membro do Carr Center da Universidade de Harvard. "Eles não sabem como o algoritmo funciona", disse ela. "Mas eles sabem que quanto mais escandaloso é o conteúdo, mais comentários".

As pessoas dentro do YouTube sabiam dessa dinâmica. Ao longo dos anos, houve muitos debates sobre o que fazer com os vídeos problemáticos - aqueles que não violam suas políticas de conteúdo e, portanto, permanecem no site. Alguns engenheiros de software apelidaram o problema de "má viralidade".

Yonatan Zunger, engenheiro de privacidade do Google, lembrou de uma sugestão que fez à equipe do YouTube antes de deixar a empresa em 2016. Ele propôs um terceiro nível: os vídeos que tinham permissão para permanecer no YouTube, mas porque estavam 'perto da linha' "da política de remoção, seriam removidos das recomendações.

Sua proposta, que foi à frente da política do YouTube, foi recusada. "Eu posso dizer com muita confiança que eles estavam profundamente errados", disse ele.

Em vez de reformular seu mecanismo de recomendação, o YouTube o dobrou. A rede neural descrita na pesquisa de 2016 entrou em vigor nas recomendações do YouTube a partir de 2015. Pelas medidas disponíveis, ela atingiu o objetivo de manter as pessoas no YouTube.

"É um mecanismo de dependência", disse Francis Irving, um cientista da computação que escreveu criticamente sobre o sistema de inteligência artificial do YouTube.

Irving disse que levantou essas preocupações com a equipe do YouTube. Eles responderam com incredulidade, ou uma indicação de que não tinham incentivos para mudar o funcionamento do software, disse ele. "Não é um algoritmo desastroso e fracassado", acrescentou Irving. "Funciona bem para muitas pessoas e gera muito dinheiro".

Paul Covington, engenheiro sênior do Google e co-autor da pesquisa de motores de recomendação de 2016, apresentou as descobertas em uma conferência no mês de março seguinte. Ele foi questionado sobre como os engenheiros decidem qual resultado almejar com seus algoritmos. "É uma decisão de produto", disse Covington na conferência, referindo-se a uma divisão separada do YouTube. "O produto nos diz que queremos aumentar essa métrica e, depois, aumentá-la. Por isso, não nos cabe nada." Covington não respondeu a um email solicitando comentários.

Uma porta-voz do YouTube disse que, a partir do final de 2016, a empresa acrescentou uma medida de "responsabilidade social" ao seu algoritmo de recomendação. Essas entradas incluem quantas vezes as pessoas compartilham e clicam nos botões "curtir" e "não gostar" de um vídeo. Mas o YouTube se recusou a compartilhar mais detalhes sobre a métrica ou seus impactos.

Um novo projeto para o YouTube

Três dias depois da eleição de Donald Trump, Wojcicki convocou toda a sua equipe para a reunião semanal. Um funcionário questionou sobre os vídeos relacionados com a eleição que foram mais assistidos. Eles eram feitos pela Breitbart News e Infowars, conhecidos por sua indignação e provocação. Breitbart tinha uma seção popular chamada "crime negro". O episódio, de acordo com uma pessoa presente, provocou conversas generalizadas, mas não houve nenhuma medida foi tomada. Uma porta-voz da empresa se recusou a comentar o caso, mas disse que "o conteúdo geralmente não funciona bem na plataforma".

Naquela época, a administração do YouTube estava focada em uma crise muito diferente. Seus criadores de conteúdo, a grande quantidade de vídeos, estavam chateados. Alguns reclamaram sobre pagamentos, outros ameaçaram abertamente desertar para sites rivais.

Wojcicki e seus diretores elaboraram um plano. O YouTube chamou de Project Bean, para indicar a enormidade da tarefa. O plano era reescrever todo o modelo de negócios do YouTube, de acordo com três ex-funcionários sêniores que trabalharam nele.

Centrava-se em uma forma de pagar criadores de conteúdo que não se baseiam nos anúncios hospedados por seus vídeos. Em vez disso, o YouTube pagaria pelo envolvimento - quantos espectadores assistiram a um vídeo e quanto tempo assistiram. Um algoritmo especial agruparia o dinheiro recebido e o dividiria entre os criadores, mesmo que nenhum anúncio fosse exibido em seus vídeos.

Coders no YouTube trabalharam por pelo menos um ano para tornar o projeto viável. Mas os gerentes da empresa não conseguiram avaliar como o tiro poderia sair pela culatra: pagar com base no engajamento arriscou a piorar seu problema de "viralidade ruim", já que poderia recompensar vídeos que alcançaram popularidade alcançada pela indignação. Uma pessoa envolvida disse que os algoritmos para distribuir os pagamentos estavam bem guardados. Se ele entrou em vigor, então, essa pessoa disse, é provável que alguém como Alex Jones - o criador do Infowars e teórico da conspiração com uma enorme quantidade de seguidores no site, antes de o YouTube o derrubasse em agosto - se tornasse uma das estrelas mais bem pagas do YouTube.

Wojcicki lançou o Projeto Bean para a equipe de liderança do Google em outubro de 2017. Na época, o YouTube e outros sites de mídia social enfrentavam a primeira onda de censura por fazer "bolhas de filtro" - direcionando as pessoas a crenças preexistentes e alimentando-as.

YouTube se recusou a comentar sobre o projeto.

A “limpeza”

Em novembro de 2017, o YouTube finalmente tomou medidas decisivas contra os canais que veiculavam vídeos perniciosos. A empresa estava enfrentando um boicote contínuo de anunciantes, mas o verdadeiro catalisador foi uma explosão da cobertura da mídia sobre vídeos perturbadores direcionados a crianças. O pior foi "Toy Freaks", um canal em que um pai postava vídeos com suas duas filhas, às vezes mostrando vômitos ou dores extremas. O YouTube removeu o Toy Freaks e se distanciou dele.

Mas o canal não estava nas sombras. Com mais de 8 milhões de assinantes, ele estava entre os 100 mais assistidos no site. Esses tipos de vídeos perturbadores eram um "segredo aberto" dentro da empresa, o que justificou sua existência muitas vezes com argumentos sobre liberdade de expressão, disse um ex-funcionário.

O YouTube também lutou em outro debate sobre sua programação para crianças. Antes do lançamento de um aplicativo dedicado para menores, o YouTube Kids, várias pessoas defenderam que a empresa oferecesse apenas vídeos escolhidos a dedo no serviço para evitar qualquer confusão de conteúdo. Esses argumentos foram derrotados e, desde então, o aplicativo escolheu vídeos de forma algorítmica.

O YouTube investiu dinheiro para combater seus problemas de conteúdo. Contratou milhares de pessoas para filtrar vídeos e encontrar aqueles que violavam as regras do site. Mas para alguns dentro, essas correções levaram muito tempo para chegar. Em 2017, a política do YouTube sobre como os moderadores de conteúdo lidam com teorias de conspiração não existia, de acordo com um ex-moderador especializado em conteúdo em língua estrangeira.

No final do ano, menos de 20 pessoas estavam na equipe para "confiança e segurança", a unidade que supervisiona as políticas de conteúdo, segundo um ex-funcionário. A equipe teve que "lutar com unhas e dentes" por mais recursos da gigante de tecnologia, disse essa pessoa. Uma porta-voz do YouTube disse que a divisão cresceu "significativamente" desde então, mas se recusou a compartilhar números exatos.

Em fevereiro de 2018, o vídeo chamando as vítimas de atentados de Parkland de "atores de crise" se tornou viral na página de tendências do YouTube. A equipe de políticas sugeriu logo após limitar as recomendações na página às fontes de notícias avaliadas. O gerenciamento do YouTube rejeitou a proposta, de acordo com uma pessoa com conhecimento do evento. A pessoa não conhecia o raciocínio por trás da rejeição, mas observou que o YouTube pretendia acelerar o tempo de visualização de vídeos relacionados a notícias.

No entanto, o YouTube abordou brevemente seus problemas em torno do conteúdo relacionado a notícias. Em julho do ano passado, o YouTube anunciou que adicionaria links aos resultados do Google Notícias dentro da pesquisa do YouTube e começou a apresentar fontes "autorizadas", de meios de comunicação estabelecidos, em suas seções de notícias. O YouTube também concedeu US$ 25 milhões em subsídios para organizações de notícias que fazem vídeos. No último trimestre de 2018, o YouTube disse que removeu mais de 8,8 milhões de canais por violar suas diretrizes.

No entanto, no passado, o YouTube dissuadiu ativamente a equipe de ser proativa. Os advogados aconselharam verbalmente os funcionários para evitar procurar por si próprios vídeos questionáveis. A pessoa disse que a diretiva nunca foi escrita. A lei federal protege o YouTube e outros gigantes da tecnologia da responsabilidade pelo conteúdo de seus sites, mas as empresas correm o risco de perder as proteções a essa lei se assumirem um papel editorial muito ativo.

Alguns funcionários ainda procuraram esses vídeos de qualquer maneira. Um momento revelador aconteceu por volta do início de 2018, de acordo com duas pessoas. Um funcionário decidiu criar um novo "vertical" no YouTube, uma categoria que a empresa usa para agrupar sua montanha de vídeos. Essa pessoa reuniu vídeos sob uma vertical imaginada para o "alt-right", o conjunto político frouxamente ligado a Trump. Com base no engajamento, a categoria hipotética de alt-right ficava com música, esportes e jogos como os canais mais populares do YouTube, uma tentativa de mostrar a importância desses vídeos para os negócios do YouTube. Uma pessoa familiarizada com a equipe executiva disse que não se lembra de ter visto esse experimento.

Em busca dos responsáveis

Alguns ex-funcionários culpam Wojcicki, que herdou um negócio voltado para obter mais audiência e não mudou de direção de forma significativa. Outros culpam Kyncl, chefe de negócios do YouTube, que supervisiona as relações com os criadores e as decisões de moderação de conteúdo.

Embora Wojcicki e Neal Mohan, chefe de produtos do YouTube, tenham dado vários direcionamentos públicos sobre questões relacionadas a conteúdo, Kyncl tem sido menos expressivo sobre o assunto. Mesmo assim, o executivo fez outros movimentos públicos que são vistos por alguns dentro do Google como autopromocionais. Em agosto passado, uma semana depois de um relatório condenatório sobre a prevalência de vídeos extremistas no YouTube, ele apareceu usando um terno em um anúncio da marca de luxo Brioni. Esse anúncio, divulgado em meio aos problemas do YouTube, levantou preocupações sobre as prioridades da Kyncl entre vários funcionários do Google, de acordo com uma pessoa de lá. Representantes da empresa e Kyncl se recusaram a comentar.

A empresa aplica a solução proposta por Wojcicki há um ano. O YouTube disse que os painéis informativos da Wikipedia e de outras fontes, que Wojcicki apresentou em Austin, agora são exibidos "dezenas de milhões de vezes por semana".

Um clipe de 2015 sobre a vacinação do iHealthTube.com, um canal do YouTube de "saúde natural", é um dos vídeos que agora exibem uma pequena caixa cinza. O texto está vinculado a uma entrada da Wikipedia para a vacina MMR. Moonshot CVE, a firma antiextremismo com sede em Londres, identificou o canal como um dos geradores mais consistentes de teorias antivacinação no YouTube.

Mas o YouTube parece estar aplicando a correção apenas esporadicamente. Um dos vídeos mais populares do iHealthTube.com não é sobre vacinas. É um clipe de sete minutos intitulado: "Todo câncer pode ser curado em semanas". Embora o YouTube tenha dito que não recomenda mais o vídeo aos espectadores, não há entrada da Wikipedia na página. Foi visto mais de 7 milhões de vezes.

0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]