• Carregando...
Empresas de tecnologia estão no centro de um debate sobre liberdade de expressão | Unsplash
Empresas de tecnologia estão no centro de um debate sobre liberdade de expressão| Foto: Unsplash

Na última semana, o Facebook, o Google e a Apple removeram de suas plataformas vídeos e podcasts do proeminente teórico da conspiração Alex Jones (uma exceção foi o Twitter, que não fez o mesmo). Essa ação pode, entre outros, ter incentivado o aumento de downloads do aplicativo de Jones. Além disso, muitas pessoas estão questionando a atividade – e com razão. Mas neste texto eu gostaria de focar nas questões governamentais relacionadas a essa situação. 

As empresas de tecnologia têm o direito de gerenciar os discursos explicitados em suas plataformas – o Facebook tem praticado uma "moderação de conteúdo" há pelo menos uma década. A questão que permanece é: como elas deveriam gerenciar a liberdade expressão de seus usuários? 

Atores privados e os limites da liberdade de expressão 

A pergunta tem uma resposta simples e plausível. As empresas de tecnologia são negócios. Elas deveriam maximizar seu valor para seus acionistas. Os administradores da plataforma são agentes dos acionistas e têm, portanto, o poder de agir a favor dos acionistas nessa e em outras questões. (Por outro lado, se a decisão de banir Jones tiver sido determinada pelo ânimo político, eles estariam evitando os seus deveres e impondo custos de agenda aos acionistas). Como atores privados do mercado, os administradores não estão limitados pela Primeira Emenda da Constituição dos EUA – que proíbe o Congresso de limitar a liberdade de expressão e da imprensa. As empresas de tecnologia podem e devem remover o conteúdo de Alex Jones se acreditam que ele faz com que usuários se afastem das plataformas, prejudicando assim os acionistas da empresa. Fim da história. 

Leia também: Medida do Facebook acende debate sobre limites de atuação de empresas e do Estado

Para muitos liberais, essa história vai ser convincente. Mas outras pessoas que não tenham uma inclinação a respeitar os julgamentos econômicos privados, podem não se convencer. Eu vejo dois limites na lógica dos negócios como uma maneira de administrar mídias sociais: liberdade de expressão e medo. 

As elites dos EUA valorizam a liberdade de expressão de uma maneira abstrata, além dos limites legais do governo. Os administradores das plataformas estão livres da Primeira Emenda, mas não das expectativas culturais da sociedade. No fim, o medo tem prevalecido sobre a liberdade de expressão nas dificuldades das empresas de tecnologia. 

A direita acredita que os administradores das plataformas são expressamente de esquerda e que respondem a valores da esquerda. As empresas de tecnologia estariam tentando expulsar a direita das plataformas e jogá-la território político selvagem (ou pior). 

Leia também: CEO do Twitter admite “tendência esquerdista”, mas diz que isso não influencia a política da empresa

A esquerda teme que pessoas como Alex Jones tenham acesso a uma mídia de massa, o que pode levar a audiência a apoiar vitórias eleitorais de políticos autoritários. Mas a situação é mais complexa: se a esquerda provar que os medos da direita de ser expulsa das plataformas são verdadeiros, a direita poderia contra-atacar e forçar as plataformas a eliminarem seus inimigos, uma vitória que poderia levar a esquerda para um território político selvagem (ou pior). O poder cultural da esquerda pode ser deposto pelo poder cultural da direita e vice-versa. 

A questão da legitimidade 

Essa é a base do dilema das plataformas: proteger a liberdade de expressão para evitar a incitação da violência aumenta o sentimento de medo, enquanto tentar diminuir o sentimento de medo ofende a liberdade de expressão. Como lidar com esse dilema? 

As plataformas precisam de legitimação para sua administração. Em outras palavras, elas precisam que os usuários aceitem o direito que elas têm de gerenciar (incluindo o poder de exclusão). A legitimação é o que confere autoridade para as decisões dos administradores dessas plataformas. Max Weber distinguiu três tipos de autoridade, se baseando em diferentes maneiras de ganhar legitimidade. Duas das três parecem irrelevantes nesse caso. Usuários provavelmente não aceitariam moderação do conteúdo porque o Mark Zuckerberg é uma pessoa especial com poderes incomuns (autoridade carismática), assim como também não aceitariam o poder do Facebook porque as coisas sempre foram feitas dessa maneira (autoridade tradicional). O que o Weber chamou de autoridade racional parece ser a única escolha para essas plataformas. Em outras palavras, elas precisam de um processo que se pareça com as regras impostas legalmente (não as que gerenciam os funcionários de tecnologia). 

Leia também: Empresas recusam serviços com base no discurso dos usuários. Quais os limites?

O Facebook parece tentar estabelecer uma autoridade racional, usando, por exemplo, os Padrões da Comunidade que guiam a liberdade de expressão. Por que essa "lei básica" deveria ser aceita por usuários? Uma resposta seria a lógica da troca. Quando você usa o Facebook sem pagar nada, você dá a eles acesso a informações e seu consentimento quanto a lei básica instituída por eles. Isso se parece com a teoria do consentimento tácito que perturbou os argumentos do contrato social para as autoridades políticas. De qualquer forma, o próprio Facebook aceita comentários de grupos e indivíduos – desde que sejam da parte interessada, claro – sobre os Padrões da Comunidade. A empresa queria mais do que uma troca simples. 

Mas os Padrões da Comunidade respeitam a cultura da liberdade de expressão? o Facebook baniu discursos que incluem "ataques diretos a pessoas baseados no que chamamos de características protegidas – raça, etnia, nação de origem, filiação religiosa, orientação sexual, casta, sexo, gênero, identidade de gênero e doenças ou deficiências sérias". O discurso banido aqui é, frequentemente, chamado de "discurso de ódio". A lei básica deles, portanto, contraria a doutrina dos EUA de liberdade de expressão. O discurso de ódio é protegido pela primeira emenda, mas não pelo Facebook. 

Eu concluo que ou o padrão do Facebook viola a cultura de liberdade de expressão ou reflete uma diferença entre a cultura de liberdade de expressão (que não inclui o discurso de ódio) e a doutrina americana proposta na Primeira Emenda. No segundo caso, a percepção do Facebook dessa diferença vai aumentar ainda mais a distância entre a cultura e a legislação. 

A ideia do Facebook de discurso de ódio pode ser uma exceção limitada e estável para uma plataforma geralmente aberta. Mas os padrões de comunidades para redes sociais são tidas como "documentos vivos" que podem mudar com o tempo. E discurso de ódio é um termo em si ambíguo. Talvez as menções ao livro The Bell Curve, no qual o psicólogo Richard J. Herrnstein e o cientista político Charles Murray fazem uma relação entre raça e inteligência, sejam retiradas do Facebook por serem entendidas como um ataque aos afro-americanos. Remover o conteúdo de Alex Jones não gera um medo grande em qualquer conservador sensato, mas banir Charles Murray iria gerar esse medo. Isso sem falar da vasta gama que existe entre os dois. A doutrina americana de liberdade de expressão faz com que não seja necessário criar essas limites entre o que é ou não aceitável, mas o Facebook está disposto a fazer isso. 

A deixa para os políticos 

O contexto político importa na hora de se aplicar padrões. De certa forma, o Facebook é menos como um tribunal e mais como uma sessão legislativa: é importunado por interesses organizados que querem convencer o Facebook a remover certo tipo de conteúdo. Como com o legislativo, os que estão organizados são aqueles que têm voz – e a política reflete o que os legisladores ouvem. 

No que concerne a moderação de conteúdo, pessoas que se inclinam para a esquerda estão organizadas e inseridas no sistema. Essa observação se aplica aos funcionários das empresas de tecnologia, aos especialistas acadêmicos que são procurados para dar conselhos sobre o assunto e aos grupos organizados que guiam as decisões sobre o que deve ser removido das plataformas. Por outro lado, a direita está do lado de fora e menos organizada, mais ou menos impedida de ter oficiais que reclamem sobre as plataformas. Mas quanto tempo será necessário para que a conversa barata da direita dê espaço para ações organizadas? Essa diferença entre a parte de dentro e a parte de fora das empresas não é boa para a liberdade de expressão. E também não é boa para a legitimação da moderação de conteúdo. 

Legalmente, as empresas de mídias sociais tem direito amplo para policiar suas plataformas como quiserem. Assim que deveria ser. Mas elas precisam legitimar essa autoridade. Se não fizerem isso, políticos eleitos podem um dia sentir a necessidade de agir para pedir justiça ou aliviar medos. E, como sempre, isso não será benéfico para a liberdade de expressão ou para o estado mínimo.

©2018 FEE Foundation for Economic Education. Publicado com permissão. Original em inglês

Tradução por Gisele Eberspächer

0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]