• Carregando...
Presidente do STF, Dias Toffoli, se rendeu à tese do ministro Alexandre de Moraes sobre o compartilhamento de dados financeiros para fins de investigação.
Dias Toffoli (à esq.) é relator de uma das ações que pode rever Marco Civil da Internet; Alexandre de Moraes (à dir.) defende regras mais amplas de moderação das redes sociais| Foto: Fabio Rodrigues Pozzebom/Agência Brasil

A decisão da Câmara de adiar a votação do projeto de lei das “fake news” deverá apressar no Supremo Tribunal Federal (STF) o julgamento de duas ações que, pela via judicial, vai impor algumas das regras de regulamentação das redes sociais previstas na proposta. Segundo apurou a Gazeta do Povo, o ministro Dias Toffoli, relator de uma dessas ações, poderá pautar o caso em junho para julgamento, caso o Congresso não avance com a matéria neste mês de maio.

Essa possibilidade foi comunicada pelo presidente da Câmara, Arthur Lira (PP-AL), defensor da regulamentação, junto a líderes partidários, na tentativa de convencê-los a aprovar o projeto. Quando percebeu que não havia votos suficientes, ele resolveu adiar a votação.

Para ocorrer de forma rápida, a regulamentação das redes pelo STF poderá ocorrer em julgamento realizado no plenário virtual, no qual os integrantes da Corte proferem votos de forma remota, sem discussão presencial, ao longo de uma semana. Em julgamentos assim, o próprio relator da ação pode marcar a data, sem necessidade de que isso seja feito pela presidente do STF, a ministra Rosa Weber, que pauta as ações julgadas no plenário físico.

Toffoli considera que já existe maioria de ao menos 6 votos, entre os 11 ministros da Corte, favoráveis a uma revisão de uma regra do Marco Civil da Internet que, fora algumas exceções, retira das plataformas digitais a responsabilidade pelo conteúdo postado por seus usuários.

Trata-se do artigo 19 da lei, segundo o qual as empresas de tecnologia só podem ser punidas por uma postagem ofensiva – pagando indenização à vítima da ofensa –, caso descumpram uma ordem judicial de remoção daquele conteúdo. Significa que caberá ao juiz, após ser acionado pela vítima, averiguar se de fato determinada postagem viola a honra ou a imagem da pessoa ofendida. O objetivo da norma é proteger a liberdade de expressão e a reservar ao Judiciário o papel de avaliar se publicações feitas pelos usuários das redes são ou não ilícitas.

O STF, no entanto, tem sido provocado a determinar que, em algumas situações específicas, a plataforma também poderá responder – e portanto, ser punida – independentemente de ordem judicial caso mantenha no ar conteúdos que incentivem “atos antidemocráticos”, que representem ofensas ou supostas ameaças a autoridades e instituições; que divulguem “fatos sabidamente inverídicos” ou “gravemente descontextualizados” sobre o processo eleitoral; que contenham “discursos de ódio”, que promovam racismo, homofobia, preconceito de origem, raça, sexo, cor e idade; bem como divulguem ideologias “odiosas”, como nazismo e fascismo.

Esses termos, apesar de vagos, já vêm sendo usados pelo ministro Alexandre de Moraes como base para remover, mediante provocação ou mesmo por sua própria iniciativa, postagens que ele considera ilícitas, ou “contrárias ao Estado Democrático de Direito”, no âmbito dos inquéritos das fake news e das milícias digitais, focados sobretudo em investigar políticos, influenciadores e jornalistas de direita e apoiadores do ex-presidente Jair Bolsonaro.

As mesmas expressões foram usadas, por exemplo, na decisão desta terça-feira (2) na qual Moraes determinou que o Google, a Meta (dona do Facebook, Instagram e WhatsApp), o Spotify (tocador de música e podcasts) e a produtora de vídeos Brasil Paralelo apagassem todos os anúncios, textos e informações publicadas num blog institucional do Google críticos ao projeto de lei das fake news. Ele ainda mandou a Polícia Federal interrogar os executivos das empresas, dizendo que elas teriam ampliado o alcance das críticas à proposta em discussão no Congresso.

Dentro do STF, Moraes é um dos maiores defensores da regulamentação das redes sociais. Na própria decisão, ele escreveu que “é urgente, razoável e necessária a definição – LEGISLATIVA e/ou JUDICIAL –, dos termos e limites da responsabilidade solidária civil e administrativa das empresas; bem como de eventual responsabilidade penal dos responsáveis por sua administração” (as letras maiúsculas e grifadas são da própria decisão). Era o recado claro de que, caso o Congresso não legisle, o próprio Supremo poderá regulamentar as redes.

Além de fiscalizar o conteúdo de postagens, Moraes também tem imposto multas pesadas e prazos apertados para cumprimento de suas decisões por parte das empresas. Esses procedimentos foram criados por ele no Tribunal Superior Eleitoral (TSE), e na semana passada, foram propostos, também por ele, para serem incorporadas ao PL das Fake News. Outro interesse do ministro e que também é objeto da proposta do Congresso, é desvendar como as plataformas distribuem o conteúdo, promovendo certas postagens e reduzindo o alcance de outras, a depender do perfil do usuário. Na decisão contra Google e Facebook, ele requisitou explicações sobre como elas usaram seus algoritmos para impulsionar conteúdos críticos ao projeto de lei.

Do que tratam as ações em andamento no STF

As ações que podem revisar a regra do Marco Civil da Internet estão prontas para julgamento. Além do caso relatado por Dias Toffoli, há outra ação sob relatoria de Luiz Fux – a diferença é que esta foi proposta antes da lei, editada em 2014. Mas o tema é o mesmo: a possibilidade de punir as plataformas pelo fato de deixarem no ar conteúdos considerados ofensivos.

As ações em discussão no STF foram ajuizadas pelo Google e pelo Facebook. Elas basicamente recorreram de outras decisões judiciais que impuseram a elas multas, de R$ 10 mil cada, por causa de postagens ofensivas a pessoas inseridas nas plataformas por terceiros.

No primeiro caso, uma professora de Belo Horizonte acionou a Justiça em 2010, após se deparar com um grupo, criado no antigo Orkut, cheio de comentários de alunos contra ela. No segundo caso, uma dona de casa do interior de São Paulo notou que, em 2014, alguém criou um perfil falso com seu nome e foto no Facebook que disparava xingamentos contra seus familiares.

Nos dois processos, as empresas concordaram em remover essas postagens após uma ordem judicial, mas não a pagar pelo tempo em que elas permaneceram no ar antes de sua avaliação pelo Judiciário, daí o recurso ao STF.

Nos últimos anos, porém, a discussão se ampliou e agora se cogita responsabilizar diretamente as plataformas não apenas por conteúdos ofensivos à honra de uma pessoa, mas também aqueles considerados nocivos ou danosos a autoridades, instituições, minorias sociais, ou mesmo políticas públicas.

O que há de comum entre as ações no STF e o PL das Fake News

A hipótese de responsabilização das empresas por manter no ar conteúdos desse tipo está prevista no PL das Fake News. Ele diz que elas seriam obrigadas a adotar um “dever de cuidado”, de modo que atuem de “diligentemente para prevenir ou mitigar práticas ilícitas no âmbito de seus serviços”.

Pelo texto da proposta, para não serem punidas com multas ou até suspensão de suas atividades, as plataformas deverão provar ao poder público, com relatórios e dados internos, que se esforçam para combater a disseminação de conteúdos de terceiros que possam configurar crimes contra o Estado Democrático de Direito, terrorismo, racismo, violência contra a mulher, infração sanitária, instigação ao suicídio e violência contra crianças e adolescentes.

Algo semelhante poderia ser feito no âmbito das ações no STF. O Marco Civil da Internet já prevê que as empresas podem ser punidas, independentemente de ordem judicial, caso mantenham no ar conteúdo que viole direitos autorais ou divulguem imagens íntimas não consentidas (os conhecidos “nudes” ou cenas de sexo não autorizadas). Há bastante interesse da maior parte dos ministros em abrir novas exceções, de modo que as próprias plataformas sejam punidas caso não removam, por iniciativa própria, aqueles outros conteúdos. Bastaria que fossem notificadas extrajudicialmente por usuários ou terceiros sobre eles.

É o que defenderam recentemente, numa manifestação enviada à Corte, professores e pesquisadores da FGV Direito Rio, instituição bastante influente em discussões sobre direito digital. Como o Supremo não pode reescrever a lei, a ampliação das hipóteses de responsabilização direta das redes seria feita por meio de uma técnica decisória conhecida como “interpretação conforme a Constituição”. Na prática, sem mexer no texto legal, o STF decide como determinada regra – no caso, o artigo 19 do Marco Civil da Internet – deve ser aplicada.

“A ampliação do poder político-econômico das grandes empresas de plataformas digitais e o aprimoramento de suas técnicas de moderação de conteúdo justificam a necessidade de imposição de maiores deveres de diligência”, diz a manifestação da FGV Direito Rio. Assim como o texto do PL das Fake News, os autores dizem que elas devem prevenir “riscos sistêmicos” consistentes na violação de liberdades e direitos fundamentais que possam conflitar com a liberdade de expressão dos usuários.

O que dizem as plataformas no STF

Nos recursos junto ao STF, Google e Facebook alegam que já removem, por iniciativa própria, uma série de outros conteúdos que, além de ilegais, também ferem seus termos e condições de uso, sobretudo de incitação à violência e, recentemente, também aquelas que lançam suspeitas sobre as urnas eletrônicas – política adotada após pressão do Tribunal Superior Eleitoral (TSE) no ano passado. Mas consideram que o ideal é que o Judiciário avalie e aponte o que deve ser removido, de forma específica, caso a caso.

Se essa tarefa for imposta a elas, o risco é que, diante da obrigação de retirar do ar conteúdos proibidos com termos vagos, subjetivos e mutáveis, a depender do contexto –  tais como “antidemocráticos”, “extremistas”, “odiosos”, etc. – a tendência é que, para eliminar qualquer risco de serem punidas com multas pesadas, elas passem a apagar uma enorme quantidade de conteúdos que possam ser interpretados assim, mesmo que sejam perfeitamente lícitos – como uma crítica a alguma autoridade ou política pública por exemplo –; daí vem o risco de censura numa eventual revisão do Marco Civil da Internet.

“Trocar a segurança do artigo 19 por um regime de responsabilização baseado em critérios abertos ou pouco precisos levaria a um cenário extremamente problemático, com uma série de consequências negativas. Incentivaria as plataformas a presumir a ilegalidade de todo conteúdo controverso, porque essa é a forma mais racional de evitar o risco de responsabilidade civil. Desestimularia o comportamento responsável das pessoas, na medida em que a conta de sua irresponsabilidade seria transferida para as empresas. E incentivaria uma enxurrada de novas ações judiciais de indenização contra as plataformas, muitas vezes motivadas pela facilidade de litigar sem custos”, disse, em recente audiência pública sobre o tema no STF o advogado e representante do Google Guilherme Sanchez.

Na mesma audiência, em nome do Facebook, o advogado Rodrigo Ruf Martins alertou que eventual revisão do artigo 19 do Marco Civil da Internet levaria as plataformas a um aumento expressivo de remoção de “conteúdos críticos tão importantes para o debate público e para a democracia”. “Eles acabariam removidos, mesmo sem violar a lei ou as políticas, mas como forma de mitigação de riscos jurídicos. O efeito inibidor já é conhecido e poderia levar ao comprometimento do exercício da liberdade de expressão e tornaria a internet no Brasil menos dinâmica e inovadora”, afirmou.

0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]