Como você se sentiu com essa matéria?

  • Carregando...
Facebook mentiu sobre medidas contra ódio, violência e desinformação, diz informante
| Foto: Pixabay

Uma ex-funcionária do Facebook denuncia que a Big Tech sabia dos danos que seus aplicativos causam à democracia e à saúde mental de adolescentes em todo o mundo, mas não tomou as medidas necessárias para resolver o problema porque “prefere o lucro à segurança” dos usuários.

Frances Haugen, analista de dados de 37 anos que trabalhou na empresa entre 2019 e maio deste ano, havia primeiro vazado as informações para o Wall Street Journal, que publicou reportagens sobre o assunto em setembro, sem divulgar o nome da informante. Agora, em entrevista ao programa 60 Minutes, da emissora americana CBS, ela revelou sua identidade e deu mais informações.

No mês passado, os advogados dela apresentaram queixas na Comissão de Valores Mobiliários dos Estados Unidos, órgão responsável pela regulação dos mercados financeiros. “O que eu vi no Facebook várias vezes foi que havia conflitos de interesse entre o que era bom para o público e o que era bom para o Facebook. E o Facebook, repetidamente, escolheu otimizar para seus próprios interesses, como ganhar mais dinheiro”, disse Haugen ao 60 Minutes.

Ao perceber esses problemas, a analista de dados decidiu copiar arquivos de pesquisas internas do Facebook que mostrariam que a Big Tech estaria mentindo no seu discurso público de que adota medidas contra incitação ao ódio e à violência e disseminação de informações falsas na plataforma.

Em um dos documentos divulgados por Haugen, a empresa admite “ter evidências de uma variedade de fontes de que discurso de ódio, discurso político divisionista e desinformação no Facebook e na família de aplicativos estão afetando sociedades em todo o mundo”. Na entrevista ao 60 Minutes, Haugen informou que a raiz do problema foi uma mudança que o Facebook realizou em 2018 em seus algoritmos, que interferiu no feed de notícias do aplicativo e otimizou o conteúdo que gera engajamento ou reação.

“Mas a própria pesquisa (da empresa) mostrou que esse conteúdo é odioso, causa divisão, é polarizador, é mais fácil inspirar as pessoas a ter raiva do que a sentir outras emoções”, afirmou a informante. “O Facebook percebeu que, se mudarem o algoritmo para ficar mais seguro, as pessoas passarão menos tempo no site, clicarão em menos anúncios, e (a empresa) vai ganhar menos dinheiro.”

Um dos exemplos de violência étnica impulsionada pelo aplicativo foi o genocídio de 2018 em Mianmar, quando os militares usaram a plataforma para iniciar uma onda de violência. Haugen afirmou que o Facebook mudou o sistema para as eleições americanas de 2020, para reduzir a disseminação de informações falsas, mas apenas temporariamente. Embora a Big Tech alegue que alguns dos sistemas de segurança foram mantidos após o pleito presidencial, o Facebook foi utilizado na organização da invasão ao Capitólio, em janeiro.

A analista de dados conta que havia sido designada para uma divisão chamada Integridade Cívica, que trabalhava com riscos relacionados a eleições, incluindo fake news. Porém, depois das eleições nos Estados Unidos, o setor foi dissolvido. “Foi o momento em que eu pensei: ‘Não acredito que eles estejam realmente dispostos a investir o que precisa ser investido para evitar que o Facebook seja perigoso’”, argumentou Haugen.

Instagram e os danos à autoestima de adolescentes

Documentos vazados pela informante mostram ainda que um estudo interno do Facebook apontou que 13,5% das adolescentes entrevistadas disseram que o Instagram intensifica pensamentos suicidas, e 17% relataram que o aplicativo faz piorar transtornos alimentares.

“E o que é extremamente trágico é que a própria pesquisa do Facebook diz que, à medida que essas jovens começam a consumir esse conteúdo sobre transtorno alimentar, elas ficam cada vez mais deprimidas. E isso realmente as faz usar mais o aplicativo. E assim, elas acabam neste ciclo de feedback, onde odeiam seus corpos cada vez mais”, criticou Haugen.

Em nota enviada ao 60 Minutes, o Facebook negou que não tome medidas para evitar a disseminação de conteúdo perigoso nos seus aplicativos. “Todos os dias nossas equipes precisam equilibrar a proteção do direito de bilhões de pessoas de se expressarem abertamente com a necessidade de manter nossa plataforma como um lugar seguro e positivo. Continuamos a fazer melhorias significativas para combater a disseminação de informações incorretas e conteúdo prejudicial. Sugerir que encorajamos conteúdo impróprio e não fazemos nada simplesmente não é verdade”, alegou a Big Tech.

Na semana passada, o Subcomitê de Proteção ao Consumidor do Senado americano realizou uma audiência com a chefe global de segurança do Facebook, Antigone Davis, que destacou que menores de 13 anos não têm permissão para abrir contas nos aplicativos da empresa e apontou que apenas 0,5% dos adolescentes ouvidos em pesquisa interna associaram sua “ideação suicida” ao Instagram. Outra audiência sobre o tema está marcada para esta terça-feira (5), e Haugen deve participar.

Devido à polêmica despertada pelas reportagens do Wall Street Journal, a Big Tech anunciou na semana passada a suspensão de uma versão do Instagram voltada para menores de 13 anos que estava desenvolvendo.

Deixe sua opinião
Use este espaço apenas para a comunicação de erros
Máximo de 700 caracteres [0]