• Carregando...
Audiência STF sobre Marco Civil da Internet reuniu ministros da Corte e do governo Lula
Audiência STF sobre Marco Civil da Internet reuniu ministros da Corte e do governo Lula| Foto: Carlos Alves Moura/STF

Ministros do Supremo Tribunal Federal (STF) e do Executivo se uniram nesta terça-feira (28) em defesa de uma regulamentação das redes sociais que obriguem as plataformas a remover, por conta própria, de forma mais abrangente e sem necessidade de ordem judicial, conteúdos tidos como “antidemocráticos”, “extremistas” e que reproduzam “discursos de ódio”.

Nesta semana, a Corte realiza audiência pública para discutir, com especialistas, autoridades e entidades do setor, duas ações judiciais que buscam rever uma regra legal que, com algumas exceções, praticamente imuniza as redes sociais por aquilo que seus usuários publicam.

Trata-se do artigo 19 do Marco Civil da Internet, pelo qual as empresas só podem ser punidas caso a Justiça determine a retirada de um conteúdo e elas não cumpram essa ordem, – por exemplo, com indenização por danos morais a uma pessoa ofendida por uma postagem que permaneça no ar.

A lei foi aprovada em 2014 pelo Congresso após amplo debate na sociedade civil. O objetivo expresso do dispositivo é “assegurar a liberdade de expressão e impedir a censura”. A ideia é que a Justiça decida que uma postagem é ilícita, e assim, determine sua exclusão da plataforma, embora isso não impeça que a própria empresa remova, por iniciativa própria, conteúdos nocivos que contrariem suas regras de uso.

A maioria delas já atua nesse sentido para excluir, espontaneamente, material que contenha violência, fraude ou pornografia infantil. Nos casos em que uma pessoa tenha partes íntimas expostas sem seu consentimento – divulgação de “nudes” ou sexo, por exemplo –, a empresa pode ser responsabilizada se mantiver o conteúdo, mesmo sem ordem judicial, bastando para isso uma notificação da vítima; trata-se da única exceção da regra do Marco Civil da Internet.

O governo Lula, parlamentares aliados e ministros do STF agora propõem que as plataformas também passem a remover voluntariamente, sem intervenção do Judiciário, uma série de outros conteúdos que, segundo essas autoridades, atentam contra o regime democrático, as instituições e os direitos fundamentais. Ou seja, querem que as empresas sejam punidas só pelo fato de manter no ar esse tipo conteúdo, sem necessidade de ordem judicial.

Contudo, representantes do governo não debateram em profundidade se há categorias de conteúdos evidentemente ilícitos, como no caso de violência, fraude ou pornografia infantil, que as empresas poderiam identificar sem intervenção judicial. A opção dos participantes foi não deixar muito claro qual conteúdo que deve ser retirado espontaneamente pelas empresas.

A dificuldade está em definir exatamente o que caracteriza um conteúdo assim, e como as plataformas vão filtrá-lo – para muitas, trata-se de uma avaliação muito subjetiva, que elas não têm condição de fazer, por envolver conceitos genéricos, imprecisos e abertos, diferente de uma imagem de nudez, por exemplo. O risco é tomar uma crítica legítima a uma autoridade como se fosse uma ameaça à instituição a que ele pertence, excluindo um conteúdo lícito.

Bastaria que uma pessoa, empresa ou órgão denuncie diretamente à plataforma – por meio de uma notificação extrajudicial – que determinado conteúdo é ofensivo ou nocivo, para que ela então se veja forçada a remover aquele material, sob pena ser responsabilizada.

Caso isso ocorra, para escapar das punições, muitas empresas já cogitam remover tudo que eventualmente possa ser interpretado como negativo sobre alguém. O dano à liberdade de expressão dos usuários seria gigantesco. Sobre isso se deu o debate nesta terça na audiência pública do STF. A revisão da regra do Marco Civil é debatida dentro de ações na Corte, a serem julgadas futuramente; e também no Congresso Nacional, no âmbito do projeto de lei das fake news, já aprovado no Senado e atualmente em discussão na Câmara dos Deputados.

Como ministros do STF se posicionam

No início da audiência, vários ministros defenderam a necessidade de rever o Marco Civil da Internet, de modo a criar mais obrigações para as empresas na fiscalização do que vai ao ar.

Relator de uma das ações no STF, Dias Toffoli disse que a lei de 2014 não contemplou todas as situações possíveis. Mencionou as fake news que, para ele, não são apenas “conteúdos falsos”, mas “utilização maliciosa da ampla capacidade de difusão de conteúdos na rede para disseminar materiais inverídicos, capazes de causar algum prejuízo público intencional”. O enfrentamento do que chama de “notícias fraudulentas”, acrescentou, tem mobilizado o Congresso, o Tribunal Superior Eleitoral (TSE) e também outros países.

Na ação que ele relata, uma mulher que não usava o Facebook pediu à empresa para remover um perfil falso, em seu nome, que proferia ofensas contra outras pessoas. A plataforma manteve a conta no ar, pois não havia uma ordem judicial para isso. A mulher processou a empresa e obteve da Justiça indenização de R$ 10 mil. O Facebook recorreu ao STF.

Presente na audiência, Gilmar Mendes disse que conteúdos postados pelas pessoas na internet não afetam apenas a esfera privada, mas também a vida política do país. Mencionou, em seguida, a invasão e depredação das sedes dos Três Poderes em 8 de janeiro deste ano. Segundo ele, o ataque “guarda conexão direta com esse uso abusivo da internet”. “O sistema jurídico precisa encontrar meios e modos de lidar com essa temática. É urgente que encontremos solução, tanto na perspectiva judicial, quanto legislativa”, afirmou. O ministro também definiu como "quase heroico" o empenho do STF no combate às chamadas fake news nos últimos anos.

Vice-presidente do STF, Luís Roberto Barroso diz que há consenso que “a desinformação, discursos de ódio, assassinatos de reputações e teorias da conspiração que circulam nas redes se tornaram sérias ameaças à democracia e aos direitos fundamentais”. Emendou que notícias falsas têm sido utilizadas para o extremismo político, “fomentando a polarização e a intolerância, em última análise gerando violência”, dando como exemplo o 8 de janeiro.

Barroso disse que o desafio é enfrentar o fenômeno sem afetar a liberdade de expressão, que, para ele, é um “direito fundamental precioso, essencial para a democracia, que permite a circulação de ideias; para a busca da verdade possível numa sociedade plural; e para que as pessoas tenham a possibilidade de manifestar a sua personalidade”.

Para ele, desinformação, mentira deliberada, discurso de ódio, ataque à democracia e incitação à prática de crime violam esses fundamentos que justificam a proteção à liberdade de expressão e, por isso, devem ser combatidos. “A dificuldade não se encontra em tentar impedir esse tipo de comportamento, mas sim em identificá-lo, evitando todo excesso”.

Alexandre de Moraes, que preside o TSE, foi mais direto. “O modelo atual é absolutamente ineficiente. Destrói reputações, dignidades, fez com que houvesse aumento no número de depressão e suicídio entre adolescentes. Sem falar na instrumentalização das redes sociais para o 8 de janeiro”, afirmou. O ministro argumentou depois que, como “depositários de informações”, as redes sociais não podem deixar de ser responsáveis pelo conteúdo.

“Alguém que aluga um depósito para uma terceira pessoa não pode ser responsabilizada por tudo que ela faça lá. Mas a partir do momento em que ela tem total consciência que o depósito é usado para contrabando, tráfico de entorpecentes, para sequestro, o dono não pode ficar renovando o aluguel, fingindo que nada ocorreu. É a mesma coisa em relação às big techs. Se sabe que está ocorrendo algo errado, uma providência deve ser tomada”.

Para ele, atentados contra as instituições são coisas objetivas e devem ser retiradas das redes sem necessidade de ordem judicial. “Mensagens e tweets dizendo ‘vamos invadir e quebrar o Supremo, o Congresso’ é objetivo. Tem que ser combatido, da mesma forma que discurso de ódio nazista, racista, fascista é algo objetivo que deve ter o mesmo tratamento que é dado, via inteligência artificial e algoritmos, para pornografia infantil, pedofilia e direitos autorais”, disse.

O que defendem os membros do governo

Ministros e secretários do atual governo seguiram a mesma linha, mas ampliando o que consideram que deva ser banido pelas redes por iniciativa própria. Alguns se concentraram em justificar a necessidade de maior regulação.

Foi o caso de Flávio Dino, ministro da Justiça e que confeccionou uma proposta sobre o tema, mas que até hoje não foi submetida ao Congresso nem divulgada. Na audiência, ele disse que a liberdade de expressão deve sim ser regulada, para “fixar limites entre uso e abuso”. Afirmou que o algoritmo usado pelas redes sociais – que define o direcionamento dos conteúdos, conforme perfil e comportamento do usuário – é “humano”. Por ser elaborado pelas empresas, também deve ser transparente para usuários e reguladores.

“Não tratamos apenas de modelo de negócio. Mas estamos falando do controle da subjetividade da sociedade, do controle do espaço público. Estamos falando do próprio delineamento das sociedades contemporâneas”, finalizou, refletindo sobre o poder das redes sociais para influenciar condutas individuais, pela forma como gere o que as pessoas veem.

O advogado-geral da União, Jorge Messias, defendeu o endurecimento da regulação das redes pela evitar os “ataques antidemocráticos” e a “infodemia”, termo usado pela Organização Mundial da Saúde para classificar informações falsas sobre a pandemia de Covid.

“Inegável é a necessidade de se impor maior responsabilidade e se exigir proatividade das plataformas digitais na inibição de ilícitos – a partir de parâmetros claros, como a manifesta prática de crimes”, disse. Afirmou que as empresas tornaram-se “verdadeiras instâncias de poder de fato”, por lucrar com coleta e exploração de dados pessoais e comportamentais.

Silvio Almeida, ministro dos Direitos Humanos, defendeu a necessidade de conter a disseminação de ofensas e ameaças. Disse que os ataques recentes em escolas dos Estados Unidos e do Brasil foram “de alguma forma planejados e estimulados pelas redes sociais”.

Em nome da Secretaria de Comunicação Social da Presidência, João Brant, responsável por Políticas Digitais, buscou demonstrar que as empresas não coíbem de forma suficiente conteúdos danosos. Citou o Facebook, que não retirou postagens denunciadas por usuários com contestações à eleição do presidente Luiz Inácio Lula da Silva, e o Tik Tok, que teria deixado no ar vídeos com incentivo ao suicídio de jovens.

“O modelo de responsabilização cria distorções e incentivos problemáticos. Direitos autorais estão hoje mais protegidos que a ordem democrática. Por vezes, indivíduos foram vítimas, em outras tantas, foi a sociedade como um todo”, disse, criticando a omissão das empresas.

Estela Aranha, assessora especial do Ministro da Justiça, chamou a atenção para a forma como as redes podem promover o extremismo criando “bolhas”. “Cada usuário tem seu perfil e a empresa faz toda a mediação do que chega a ele e não somente intermedeia as informações que passam pela plataforma”, em referência à seleção automatizada dos conteúdos.

Ela defendeu mais transparência sobre os algoritmos e um “dever de cuidado” das redes, conceito que designa o estabelecimento, pelas próprias redes, de regras claras e abertas para coibir conteúdos que atentem, por exemplo, contra o regime democrático.

Isis Menezes Taboas, assessora do Ministério das Mulheres, defendeu também que as redes retirem do ar conteúdos misóginos. Após citar postagens machistas de influenciadores digitais encontradas nas redes, disse que elas “repercutem sobremaneira na vida concreta, material, política, profissional e pessoal de incontáveis mulheres”. “Trata-se de um novo e perigoso mecanismo de promoção da violência patriarcal”, afirmou.

O que dizem as empresas donas das redes sociais

Representantes das principais redes sociais que funcionam no Brasil buscaram demonstrar que já atuam de forma proativa para retirar das plataformas conteúdos com informações falsas, incitação à violência e que questionam o processo eleitoral ou o resultado das urnas.

O advogado Rodrigo Ruf Martins, do Facebook, negou inércia da plataforma nesses temas. Lembrou que, no ano passado, a empresa fez uma parceria com o TSE para rotular 74 milhões de postagens, para certificar o resultado oficial das eleições. Além disso, informou ter removido, sem decisão judicial, 3 milhões de conteúdos com conteúdo violento.

Ele argumentou que esse esforço beneficia os anunciantes, “que jamais desejariam vincular suas marcas a conteúdos impróprios”. Por fim, alertou que a revisão do Marco Civil da Internet, para que elas sejam punidas caso não retirem postagens por denúncias diretas, sem análise e julgamento pela Justiça, levaria as plataformas a um aumento expressivo de remoção de “conteúdos críticos tão importantes para o debate público e para a democracia”.

“Eles acabariam removidos, mesmo sem violar a lei ou as políticas, mas como forma de mitigação de riscos jurídicos. O efeito inibidor já é conhecido e poderia levar ao comprometimento do exercício da liberdade de expressão e tornaria a internet no Brasil menos dinâmica e inovadora”, afirmou.

Em nome do Google, o advogado Guilherme Sanchez também mostrou números para provar que a plataforma age sem ordem judicial para remover conteúdos que contrariam suas regras. No ano passado, o YouTube apagou aproximadamente 1 milhão de vídeos com desinformação, assédio, discurso de ódio, violência infantil, de acordo com Sanchez. No período, a empresa recebeu só 1,7 mil ordens judiciais.

“Conteúdos ilícitos e enganosos não nos trazem benefícios econômicos. Por conta disso que gastamos tempo e recursos consideráveis para moderar esses conteúdos. Além de ser responsável, é a coisa certa. Nosso modelo não se sustenta no extremismo”, afirmou.

Pelo Twitter, a advogada Jacqueline Abreu argumentou que a atual regra protege a liberdade de expressão dos usuários porque não obriga a plataforma a controlar previamente tudo o que é publicado. “Nunca se exerceu a liberdade de expressão como hoje, dando-se a capacidade a pessoas comuns, inclusive de grupos historicamente desfavorecidos, que não tinham visibilidade a capacidade de exercer a liberdade de opinião, crítica e de criação”, disse.

Ela também disse que o Twitter não tem interesse em permitir ou promover identidades falsas, discurso violento e propagação de ódio. Para ela, em casos mais difíceis, que exigem análise dos limites da liberdade de expressão, o foro adequado de decisão é o Judiciário, não as empresas.

No ano passado, o Twitter foi acionado em 247 processos judiciais para remover conteúdo, mas em 72 o juiz do caso deferiu a medida para remoção de conteúdo, em 70 não. “Em metade dos casos, Judiciário entendeu que deveria se permitir o contraditório e dilação probatória antes de se avaliar se aquele conteúdo era infringente ou não. Essas controvérsias continuarão existindo”, afirmou a advogada.

Outras plataformas, que usam conteúdo postado por usuários, também alertaram para os riscos de rever a necessidade de ordem judicial para remoção. É o caso do Wikipedia, enciclopédia online alimentada por voluntários, e o Mercado Livre, site em que pessoas e empresas podem vender seus produtos.

0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]