• Carregando...
Celular com tela do Facebook
| Foto: Gerd Altmann/Facebook

Mike Schroepfer, diretor de tecnologia do Facebook, estava exausto.

Passamos meia hora em uma sala de conferências na sede do Facebook discutindo as dificuldades técnicas de remoção de conteúdo tóxico da rede social. Em seguida, mencionamos um episódio em que os desafios se mostraram intransponíveis: o ataque terrorista em Christchurch, na Nova Zelândia.

Em março, um atirador matou 51 pessoas em duas mesquitas e transmitiu suas ações ao vivo no Facebook. A empresa levou cerca de uma hora para remover o vídeo de seu site. Nessa altura, as imagens sangrentas se espalharam pelas redes sociais.

Schroepfer ficou quieto. Seus olhos se turvaram. "Estamos trabalhando nisso agora", disse ele depois de um minuto, tentando se manter composto. "Não será resolvido amanhã, mas não quero ter esta conversa de novo daqui a seis meses. Podemos fazer um trabalho muito melhor de detecção desse tipo de coisa."

A questão é se isso é realmente verdade ou se o Facebook está se enganando.

Rede social está na mira

Nos últimos três anos, a rede social tem estado sob escrutínio com a proliferação de conteúdos falsos, enganosos e inadequados que as pessoas publicam no site. Em resposta, Mark Zuckerberg, executivo-chefe do Facebook, resolveu adotar uma tecnologia que, segundo ele, vai ajudar a eliminar os posts problemáticos: a inteligência artificial.

Perante o Congresso no ano passado, Zuckerberg testemunhou que o Facebook estava desenvolvendo sistemas baseados em máquinas para "identificar certos tipos de atividade ruim" e declarou que "ao longo de um período de cinco a dez anos, teremos ferramentas de IA" que poderão detectar e remover o discurso de ódio. Ele repetiu essas afirmações para a mídia, em teleconferências com Wall Street e em eventos do próprio Facebook.

Schroepfer – ou Schrep, como é conhecido internamente – é a pessoa que lidera o trabalho de desenvolvimento das ferramentas automatizadas que vão classificar e apagar milhões desses posts. Mas a tarefa é hercúlea, reconheceu ele, recentemente, no decorrer de três entrevistas.

Isso porque, cada vez que Schroepfer e seus mais de 150 especialistas em engenharia criam soluções de IA que sinalizam e eliminam material nocivo, surgem posts novos e duvidosos que os sistemas de IA nunca viram antes – e que, por isso, não são capturados. A tarefa é dificultada porque a "atividade ruim" é frequentemente subjetiva, e porque os seres humanos, e especialmente as máquinas, não conseguem concordar com uma definição.

Em uma entrevista, Schroepfer reconheceu, após certa insistência, que a IA sozinha não poderia curar os males do Facebook. "Acho que há uma conclusão aqui", disse ele, acrescentando: "Não acho que seja um 'está tudo resolvido' e que poderemos guardar nossas coisas e ir para casa."

Pressão contínua

A pressão continua. Em maio, após críticas generalizadas sobre o vídeo de Christchurch, o Facebook mudou suas políticas para restringir o uso de seu serviço de streaming ao vivo.

Schroepfer, de 44 anos, está em uma posição na qual nunca quis estar. Durante anos, seu trabalho foi ajudar a rede social a construir um laboratório de IA de ponta, onde as mentes mais brilhantes poderiam encarar desafios tecnológicos, como usar máquinas para reconhecer o rosto das pessoas em fotos.

Ele e Zuckerberg queriam uma operação de IA que rivalizasse com a do Google, amplamente vista como sendo o melhor grupo de pesquisadores da área. Ele recrutou doutores da Universidade de Nova York, da Universidade de Londres e da Universidade Pierre e Marie Curie, em Paris.

Mas com o tempo, sua tarefa acabou sendo a remoção de ameaças e a eliminação de conteúdo tóxico. Agora, ele e seu pessoal utilizam a IA principalmente para detectar e excluir ameaças de morte, vídeos de suicídios, desinformação e mentiras claras.

"Nenhum de nós nunca viu nada parecido com isso", disse John Lilly, ex-executivo-chefe da Mozilla e agora capitalista de risco da Greylock Partners, que estudou ciência da computação com Schroepfer na Universidade de Stanford em meados da década de 1990. "Não temos mais a quem perguntar sobre como resolver esses problemas."

Recentemente, em uma sala de conferências do Facebook, Schroepfer abriu duas imagens em seu laptop Apple. Uma delas era de brócolis, a outra, de maconha. Todos na sala as viram. Alguns não estavam completamente certos de qual era qual.

Schroepfer escolheu essas fotos para exemplificar a questão. Mesmo que alguns tivessem problemas para distinguir entre os dois, os sistemas de IA do Facebook eram agora capazes de identificar padrões em milhares de imagens para que pudessem reconhecer a maconha por conta própria. Uma vez que a IA sinalizasse essas imagens, muitas das quais apareciam em anúncios do Facebook vendendo a erva na rede social, a empresa poderia removê-las.

"Agora podemos pegar esse tipo de coisa – proativamente", disse Schroepfer.

O problema era que o exercício maconha/brócolis era um sinal não apenas de progresso, mas também dos limites que o Facebook encontrava. A equipe da Schroepfer construiu sistemas de IA que a empresa usa para identificar e remover imagens de cannabis, nudez e conteúdo relacionado a terrorismo. Mas os sistemas não estão pegando todas essas fotos, pois sempre há o conteúdo inesperado, o que significa que milhões de posts relacionados a esses temas continuam sendo vistos por usuários da rede social.

Um desafio gigantesco para o Facebook

A identificação de imagens ilícitas também é uma das tarefas mais fáceis para a IA. O mais difícil é construir sistemas para identificar falsas notícias ou discursos de ódio. As notícias falsas podem ser facilmente produzidas para parecerem reais. E o discurso de ódio é problemático porque é difícil para as máquinas reconhecer nuances linguísticas.

Delip Rao, chefe de pesquisa da AI Foundation, organização sem fins lucrativos que explora como a inteligência artificial pode combater a desinformação, descreveu o desafio como "uma corrida armamentista".

A IA é desenvolvida com o que veio antes, mas, geralmente, não há material de aprendizagem. O comportamento muda. Os agressores criam novas técnicas. Tudo se torna um jogo de gato e rato. "Às vezes, você está à frente das pessoas que causam problemas. Às vezes, elas estão à sua frente", disse Rao.

Schroepfer reconheceu a comparação com a corrida armamentista. O Facebook, que pode detectar e remover automaticamente vídeos ao vivo problemáticos, não identificou o vídeo da Nova Zelândia em março porque, segundo ele, não havia nada semelhante na rede social no passado. O vídeo tinha o ponto de vista da pessoa, como um jogo de computador.

No desenvolvimento de sistemas que identificam a violência explícita, o Facebook normalmente trabalha com imagens já existentes – imagens de gente chutando gatos, cães atacando pessoas, carros atropelando pedestres, uma pessoa atacando outra com um taco de beisebol. Porém, disse ele, "nenhum desses se parece muito com aquele vídeo".

A novidade do vídeo do ataque foi o motivo de ele ser tão chocante, disse Schroepfer. "Essa é também a razão pela qual não foi imediatamente sinalizado", disse ele, acrescentando que havia assistido a ele várias vezes para entender como o Facebook poderia identificar a próxima ocorrência.

"Gostaria de nunca tê-lo visto", disse ele.

The New York Times Licensing Group – Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização por escrito do The New York Times.

0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]