• Carregando...
Centro de triagem de conteúdo do Facebook, em Berlim, tem mais de 1,2 mil moderadores, que tem o poder de retirar conteúdos ilegais como propaganda terrorista e símbolos nazistas  | GORDON WELTERS/NYT
Centro de triagem de conteúdo do Facebook, em Berlim, tem mais de 1,2 mil moderadores, que tem o poder de retirar conteúdos ilegais como propaganda terrorista e símbolos nazistas | Foto: GORDON WELTERS/NYT

A segurança é grande em um edifício no lado ocidental de Berlim. Lá dentro, um sinal avisa: "Quem estiver sem distintivo é um espião em potencial!". 

Espalhados por cinco andares, centenas de homens e mulheres se sentam em filas de seis em frente da tela de seus computadores; todos assinaram acordos de sigilo. Quatro especialistas em trauma estão à disposição sete dias por semana. 

Eles são os agentes do Facebook. E têm o poder de decidir o que é liberdade de expressão e o que é discurso de ódio. 

Este é um centro de exclusão, um dos maiores do Facebook, com mais de 1.200 moderadores. Eles estão excluindo o conteúdo que viola a lei ou as normas comunitárias da empresa, eliminando desde propaganda terrorista até símbolos nazistas e abuso infantil. 

Como regular a rede?

 A Alemanha, com uma lei nova e rigorosa sobre o discurso de ódio online, tornou-se um laboratório para uma das questões mais prementes para os governos atuais: como regular, ou não, a maior rede social do planeta. 

 Em todo o mundo, o Facebook e outras plataformas de redes sociais estão enfrentando uma reação às suas falhas em garantir a privacidade, evitar campanhas de desinformação e o alcance digital de grupos de ódio. 

 Na Índia, sete pessoas foram espancadas até a morte depois que uma falsa mensagem viralizou no WhatsApp, pertencente ao Facebook. Em Mianmar, a violência contra a minoria rohingya foi insuflada, em parte, pela desinformação espalhada na mesma rede. Nos Estados Unidos, o Congresso chamou Mark Zuckerberg, CEO da rede social, para testemunhar sobre a incapacidade da empresa de proteger a privacidade de seus usuários. 

Leia mais: Facebook pode ser fósforo para incentivar conflitos em países que são “barris de pólvora”

 Em um momento em que o mundo confronta essas forças ascendentes, a Europa, e a Alemanha em particular, emergiram como os reguladores efetivos da indústria, exercendo uma influência que vai além das próprias fronteiras. 

A repressão digital de Berlim sobre o discurso de ódio, que começou a vigorar em 1° de janeiro, está sendo observada de perto por outros países. E autoridades alemãs estão desempenhando um papel importante por trás de um dos movimentos europeus mais agressivos de controle das empresas de tecnologia, com regras estritas de privacidade de dados vigentes em toda a União Europeia que estão levando a mudanças globais. 

Para eles (O Facebook), os dados são a matéria-prima que gera dinheiro; para nós, a proteção de dados é um direito fundamental que sustenta as nossas instituições democráticas", disse Gerd Billen, secretário de Estado do Ministério da Justiça e da Defesa do Consumidor da Alemanha. 

 Cabo de guerra

A história conturbada da Alemanha colocou-a na linha de frente de um cabo de guerra moderno entre democracias e plataformas digitais. 

No país do Holocausto, o compromisso contra o discurso de ódio é tão feroz quanto o compromisso de liberdade de expressão: o livro "Minha Luta", de Hitler, está disponível apenas em uma versão anotada; as suásticas são ilegais; incitar o ódio é punível com até cinco anos de prisão. 

Só que posts, fotos e vídeos banidos normalmente persistem no Facebook e em outras plataformas da mídia social – mas agora as empresas que sistematicamente não conseguem remover o conteúdo "obviamente ilegal" dentro de 24 horas enfrentam multas de até 50 milhões euros (US$59 milhões). 

Centro de exclusão

 O centro de exclusão é anterior à legislação, mas esse trabalho tem uma nova urgência. Todos os dias, moderadores de conteúdo em Berlim, contratados por uma empresa terceirizada e trabalhando exclusivamente no Facebook, acessam milhares de posts sinalizados por usuários como perturbadores ou com potencial ilegal e fazem um julgamento: ignorar, excluir ou, em casos particularmente complicados, acessar uma equipe global de advogados do Facebook com especialização em regulamentação alemã. 

Algumas exclusões são fáceis. Posts sobre a negação do Holocausto e em defesa do genocídio de grupos específicos, como os refugiados, são decisões óbvias. 

Outras, nem tanto. Em 31 de dezembro, um dia antes de a nova lei começar a vigorar, um legislador de extrema-direita reagiu a um tuíte de ano novo da polícia de Colônia escrito em árabe, acusando-os de tentar agradar "grupos de homens bárbaros, muçulmanos, estupradores". 

Leia mais: O Whatsapp pode ser um desafio maior à democracia do que o Facebook

O pedido de bloqueio de uma imagem do post do legislador acabou chegando a Nils, agente de 35 anos do centro de exclusão de Berlim; em sua opinião, ele poderia ser mantido. Um colega achou que deveria cair. Em última análise, o post foi enviado para advogados em Dublin, Londres, Vale do Silício e Hamburgo, na Alemanha. À tarde, já havia sido excluído, levando a uma tempestade de críticas sobre a nova legislação, conhecida aqui como "Lei do Facebook". 

"Muitas coisas são claras, mas aí chega o material duvidoso", disse Nils. (O Facebook, citando sua segurança, não permitiu que ele desse seu sobrenome.) 

Casos complicados suscitaram temores de que a ameaça das altas multas das novas regras e a janela de 24 horas para a tomada de decisões incentivem um "bloqueio extremo" das empresas, uma espécie de censura de conteúdo defensiva que não é efetivamente ilegal. 

 Fim da liberdade de expressão?

 O partido de extrema-direita Alternativa da Alemanha foi rápido em declarar "o fim da liberdade de expressão". As organizações de direitos humanos advertiram que a legislação estava inspirando governos autoritários a copiá-la. 

 Outras pessoas argumentam que a lei simplesmente dá a uma empresa privada demasiada autoridade para decidir o que constitui o discurso de ódio ilegal em uma democracia, um argumento que o Facebook, que favoreceu diretrizes voluntárias, transformou em ilegal. 

Leia mais: Papua Nova Guiné bloqueará Facebook por um mês para estudar seu impacto no país

 "É perfeitamente apropriado para o governo alemão definir os padrões, mas achamos uma péssima ideia terceirizar a decisão do que é lícito e do que não é", disse Elliot Schrage, vice-presidente de comunicações e políticas públicas do Facebook. 

 Richard Allan, vice-presidente de políticas públicas do Facebook na Europa, disse de modo mais simples: "Não queremos ser os árbitros da liberdade de expressão". 

 Responsabilidade das plataformas de mídia social

Autoridades alemãs rebateram dizendo que as plataformas de mídia social são os árbitros de qualquer maneira. 

 Tudo se resume a uma pergunta, disse Billen, que ajudou a elaborar a nova legislação: "Quem é soberano, o Parlamento ou o Facebook?". 

 O centro de exclusão é comandado pela Arvato, empresa alemã prestadora de serviços de propriedade do conglomerado Bertelsmann. Os agentes têm uma ampla competência, revendo o conteúdo de meia dúzia de países. 

 "Dois agentes vendo o mesmo post devem ter a mesma decisão", diz Karsten König, responsável pela parceria da Arvato com o Facebook. 

Leia mais: Como funcionava a manipulação russa no Facebook

 Quando Nils se candidatou a um emprego no centro, a primeira pergunta que o recrutador lhe fez foi: "Você sabe o que vai ver aqui?". 

 Nils já havia visto de tudo: tortura infantil, mutilações, suicídios. Até assassinato: uma vez assistiu a um vídeo de um homem arrancando o coração de uma pessoa viva. "Você vê toda a feiura do mundo aqui", disse ele. 

 A questão é profundamente pessoal para Nils. Ele tem uma filha de 4 anos. "Estou fazendo isso por ela também", disse. 

Chegada de imigrantes serve de teste

 A chegada de quase 1,4 milhão de imigrantes à Alemanha testou a determinação do país em manter um controle rígido sobre o discurso de ódio. A lei sobre o tema foi estabelecida há muito tempo, mas a aplicação no reino digital era desordenada antes da nova legislação. 

 Posts chamando os refugiados de estupradores, homens das cavernas e escória sobreviveram por semanas. Muitos nunca foram excluídos. Pesquisadores relataram que o discurso de ódio observado triplicou no segundo semestre de 2015. 

Leia mais: Vazamento de dados do Facebook é ainda maior do que se imaginava

 Billen, o secretário de Estado encarregado da nova lei, ficou alarmado. Em setembro de 2015, ele reuniu executivos do Facebook e outros sites de redes sociais para criar uma força-tarefa no combater ao discurso de ódio. Meses depois, o Facebook e outras empresas assinaram uma declaração conjunta prometendo "examinar o conteúdo sinalizado e bloquear ou excluir a maioria dos postos ilegais dentro de 24 horas". 

 Mas o problema persistiu. Nos 15 meses que se seguiram, pesquisadores independentes contratados pelo governo em duas ocasiões atuaram como usuários comuns e denunciaram posts ilegais. Durante os testes, descobriram que o Facebook havia excluído 46%, e 39% na segunda. 

 Eles sabiam que eram uma plataforma de comportamento criminoso e de incitação para cometer crimes, mas se apresentaram a nós como um lobo na pele de ovelha", disse Billen. 

 Em março de 2017, o governo alemão perdeu a paciência e começou a trabalhar na legislação. Nascia a Rede de Aplicação da Lei, estabelecendo 21 tipos de conteúdo "manifestamente ilegais" e exigindo que as plataformas de redes sociais agissem rapidamente. 

 

The New York Times News Service/Syndicate – Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização por escrito do The New York Times.
0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]