Como você se sentiu com essa matéria?

  • Carregando...
censura
Big Techs adotam seus próprios critérios para remoção de conteúdos e contas, mas juridicamente não são responsáveis pelos conteúdos.| Foto: Pixabay

A exclusão de conteúdos e perfis das redes sociais, principalmente quando apresentam visões, fatos ou opiniões relacionadas ao conservadorismo, tem se tornado cada vez mais comum. Na maior parte das vezes, isso acontece por iniciativa das próprias plataformas, as chamadas Big Techs. Essa prática tem suscitado inúmeras discussões sobre a real natureza dos serviços prestados por empresas como Google, Facebook, Twitter, entre outras, e como elas impactam a sociedade e a democracia. A questão principal é saber se essas plataformas podem ou não excluir usuários e conteúdos a seu bel-prazer, sob quais critérios, ou se devem se submeter a alguma legislação que regulamente suas ações.

>> Faça parte do canal de Vida e Cidadania no Telegram

No entender da advogada e doutora em Direito das Relações Sociais, Thaís G. Pascoaloto Venturi, não há dúvidas sobre a questão. Atualmente, as Big Techs têm atuado, sim, como produtoras de conteúdo, ou publishers, mas a legislação atual ainda não reconhece essa condição e nem as responsabilidades correspondentes.

De acordo com o Marco Civil da Internet, por exemplo, os provedores de conexão à internet – e por extensão as plataformas de redes sociais – não são responsabilizados civilmente por danos decorrentes de conteúdo gerado por terceiros. Conforme o texto da lei, essa medida foi tomada pelos legisladores “com o intuito de assegurar a liberdade de expressão e impedir a censura”, ou seja, para não permitir que conteúdos fossem excluídos indevidamente.

Antes do Marco Civil da Internet, era possível a uma pessoa que fosse alvo de um vídeo ou postagem ofensiva solicitar extralegalmente a retirada do material do ar, sem precisar esperar uma ordem judicial. Conforme a legislação atual, por outro lado, o caminho legal para conseguir a exclusão de um vídeo ou publicação ofensiva feitas nas redes sociais é procurar a Justiça e obter uma ordem judicial – normalmente uma liminar – determinando a exclusão do conteúdo. O autor da ação também pode, dependendo dos danos causados pelo conteúdo e extensão da publicação, solicitar ressarcimento do autor da postagem por danos morais.

Mas a plataforma não pode ser responsabilizada pelo conteúdo. Apenas quando descumprir uma ordem judicial é que passaria a ser coautora do conteúdo ofensivo, podendo responder judicialmente por ele. Entretanto, o que vê hoje são as plataformas excluindo conteúdos e contas usando seus próprios critérios.

“É óbvio que essa conduta pode ser perigosa. Elas [as Big Techs] justificam isso falando em conteúdos ofensivos, condutas que consideram inadequadas, mas é claro que por trás disso há ideologia e interesses privados”, analisa Thaís. Por outro lado, quando lhes convêm, as plataformas podem escolher não retirar certos conteúdos do ar, a menos que sejam acionadas judicialmente. Por isso, a advogada defende que é necessário debater e definir qual é a verdadeira natureza dessas empresas para evitar o cerceamento da liberdade de expressão, mas também garantir a responsabilização das Big Techs quando necessário.

Papel das Big Techs extrapola a função comercial

A advogada ressalta que cada vez mais as plataformas vêm assumindo um lugar de disseminação de informações, e com isso devem ser pensadas também a partir do seu papel social e não apenas comercial. “As redes sociais têm um papel de interesse público, mas atuam com interesses privados e de mercado. Veículos de comunicação como rádios e TVs possuem regras definidas pela Constituição. Quando se trata de internet, não há regras, só as das plataformas. Precisamos rediscutir esse modelo”, defende.

Ela lembra que o poder de excluir contas e conteúdos é concedido às plataformas pelos próprios usuários, ao concordarem com os termos de uso de serviços como Facebook, YouTube, Instagram e Twitter. Trata-se de um contrato firmado entre uma empresa privada e uma pessoa física, mas sem a possibilidade de discussão entre as partes. Assim, nenhum usuário pode discutir ou negociar os itens de um termo de uso.

Ao se analisar os termos de uso do YouTube, por exemplo, é possível observar que a plataforma se coloca como isenta diante dos conteúdos publicados. “O Conteúdo é de responsabilidade da pessoa ou da entidade que envia o material ao Serviço. O YouTube não tem nenhuma obrigação quanto à hospedagem ou veiculação de Conteúdo”, diz o documento. Ainda assim, mais adiante, a empresa nega essa posição neutra ao atribuir a si mesma o poder de julgar e escolher os conteúdos. “Se acreditarmos que qualquer Conteúdo viole este Contrato ou pode causar danos ao YouTube, nossos usuários ou terceiros, podemos remover ou excluir o Conteúdo a nosso próprio critério”, especifica outro trecho dos termos de uso.

Quem cria os critérios das Big Techs

Um dos pontos alegados para justificar a autonomia das redes sociais na remoção de conteúdos é a suposta luta contra a disseminação de fake news. No caso da pandemia de Covid-19, por exemplo, houve uma enxurrada de exclusões de vídeos no YouTube que traziam conteúdos com viés mais crítico em relação a medidas sanitárias, eficiência de vacinas e tratamentos, entre outros temas.

Em agosto deste ano, um dos executivos do YouTube, Neil Mohan, divulgou um relatório onde destaca que - de fevereiro de 2020 a agosto de 2021 - cerca de 1 milhão de vídeos sobre a Covid-19 foram removidos da plataforma. “Nós refletimos o mundo ao nosso redor, mas sabemos que também podemos ajudar a moldá-lo. E é por isso que tornamos a interrupção da disseminação de informações incorretas um de nossos compromissos mais profundos”, disse o executivo. Mas não basta remover “o mais rápido possível” os conteúdos que foram julgados inadequados pela plataforma, é preciso “aumentar o alcance dos bons conteúdos”, ressalta o relatório.

Isso significa que o YouTube e outras redes sociais - por meio de ferramentas automatizadas - promovem determinados conteúdos em detrimento de outros para oferecer, nas palavras de Neil Mohan, “resultados otimizados para a qualidade, não para o quão sensacional o conteúdo pode ser”. E quem determina quais são esses bons conteúdos?

Falso consenso

Em relação à Covid-19, explica o relatório, o que vale é o “consenso de especialistas de organizações de saúde como o CDC [Centros de Controle e Prevenção de Doenças dos EUA] e a OMS [Organização Mundial de Saúde] para rastrear a ciência à medida que ela se desenvolve”. Ou seja, conteúdos de que algum modo contrariem ou simplesmente questionem as premissas da OMS são, no mínimo, tachados de “maus”, e estão sujeitos também à exclusão ou suspensão. Em síntese, isso implica em cercear a divulgação de qualquer informação diferente das da OMS, restringindo o acesso das pessoas a outros pontos de vista, pesquisas e discussões sobre a Covid-19.

Até mesmo o executivo do YouTube reconhece que as remoções podem ter um papel negativo sobre a liberdade de expressão. “As remoções são um instrumento contundente e, se usadas amplamente, podem enviar uma mensagem de que ideias controversas são inaceitáveis (...) Eu, pessoalmente, acredito que estamos melhor como sociedade quando podemos ter um debate aberto”, defendeu.

Deixe sua opinião
Use este espaço apenas para a comunicação de erros
Máximo de 700 caracteres [0]