Ouça este conteúdo
O Supremo Tribunal Federal (STF) começará a julgar na próxima quarta-feira (27) duas ações que podem afetar drasticamente a liberdade de expressão nas redes sociais e na internet. Os ministros vão analisar a constitucionalidade do artigo 19 do Marco Civil da Internet, que estabelece que as plataformas só podem ser responsabilizadas na Justiça por conteúdos ofensivos postados pelos usuários caso descumpram uma ordem judicial de removê-los.
Essa regra foi aprovada na lei de 2014 justamente com o objetivo de assegurar a liberdade de expressão e impedir a censura na internet. A ideia era impedir que alguém que se sentisse ofendido por alguma publicação pudesse pressionar a rede social ou site a retirar aquele conteúdo a partir de um pedido direto à plataforma. No limite, as empresas de tecnologia poderiam ser pressionadas a remover críticas legítimas e lícitas a partir desses pedidos.
Por isso, o caminho escolhido foi delegar esse julgamento ao Judiciário, que, ouvindo a defesa de quem postou aquele conteúdo, verificaria se ele deveria ser preservado, em respeito à liberdade de expressão do emissor, ou se sua mensagem configurava um crime (como injúria, difamação e calúnia) e, por isso, deveria ser removida, em respeito à honra da pessoa afetada.
O próprio Marco Civil da Internet estabeleceu duas exceções a essa regra, no sentido de obrigar as plataformas a remover conteúdo a partir de uma notificação direta das partes afetadas, sem necessidade de decisão judicial: em caso de divulgação de cenas de nudez ou sexo sem autorização da pessoa envolvida; ou em caso de violação de direitos autorais.
Passados 10 anos da lei, o que se discute agora é a ampliação dessas hipóteses excepcionais. De lá para cá, parte do Judiciário, da academia e do atual governo passaram a considerar que as plataformas também deveriam remover, a partir de provocação direta, conteúdos ofensivos que configurem crimes de discriminação e racismo, pornografia e abuso infantil.
Mas, dentro dessas exceções, há pressão, principalmente de ministros e políticos, para retirada imediata de conteúdos mais subjetivos, como “discurso de ódio”, “desinformação” e “ataques às instituições”. O temor de defensores da liberdade de expressão é que conteúdo crítico, legítimo e lícito às autoridades seja propositalmente confundido ou transformado em crimes contra o Estado Democrático de Direito e, com isso, seja censurado sumariamente.
A pressão pela remoção desses conteúdos subiu nos últimos anos, principalmente por iniciativa do STF, a partir do momento em que os ministros, seus atos, declarações e decisões passaram a ser criticados de forma dura e massiva nas redes sociais. Inicialmente por causa do desmonte da Lava Jato e depois pela oposição da Corte ao governo do ex-presidente Jair Bolsonaro (PL).
O inquérito das fake news, aberto em 2019, e outras diversas investigações que ele originou, delegadas a Alexandre de Moraes por seus colegas, foram a forma encontrada para combater não apenas ameaças e ofensas aos ministros, mas também serviram de instrumento para inibir os críticos. Entre os primeiros alvos estavam um procurador da Lava Jato e a revista Crusoé; a partir de 2020, políticos ligados a Bolsonaro, e depois ele mesmo, viraram alvo das investigações.
As manifestações de rua contra a Corte, ocorridas por incentivo de Bolsonaro desde 2020, fermentaram o anseio dos ministros por uma atualização do Marco Civil da Internet. Para eles, boa parte das críticas eram alimentadas nas redes sociais, com mentiras, distorções e ameaças. Em 2020, após vários apelos nesse sentido, nasceu no Congresso o Projeto de Lei 2630, também conhecido como PL das Fake News ou PL da Censura.
A versão inicial, do Senado, mais enxuta, buscava definir e coibir a desinformação na internet. Na Câmara, o texto foi desenvolvido e passou a estabelecer regras e procedimentos para que as redes sociais adotassem políticas de combate a “riscos sistêmicos” – nome dado à disseminação maciça de publicações nas redes que pudessem configurar crimes contra o Estado Democrático de Direito; atos de terrorismo ou preparatórios; induzimento a suicídio; incitação à prática de crimes contra crianças; racismo; violência contra a mulher; e infração sanitária.
Contra isso, as plataformas deveriam adotar um “dever de cuidado”, nome dado a um conjunto de providências para remover, reduzir o alcance e coibir a viralização desses conteúdos. Teriam de provar essa obrigação com relatórios periódicos de transparência e demonstração das medidas adotadas; caso contrário, poderiam ser punidas por um órgão regulador do governo. No ano passado, a cúpula da Câmara tentou aprovar o projeto, mas a pressão contrária da sociedade e das plataformas digitais, por risco de censura, fez a Casa recuar, em razão do receio de derrota na votação.
Em 2022, a desconfiança contra as urnas eletrônicas, semeada por Bolsonaro e seus aliados, principalmente por meio das redes, fez o TSE adotar uma regulamentação própria com a finalidade de preservar o processo eleitoral; na prática, os ministros acabaram usando a resolução para coibir propagandas duras contra Luiz Inácio Lula da Silva, sob a alegação de que teriam “fatos sabidamente inverídicos” ou “gravemente descontextualizados”.
Em 2023, a invasão e depredação do STF, do Palácio do Planalto e do Congresso por eleitores de Bolsonaro revoltados com a condução do processo eleitoral pelo TSE fez os ministros do STF pressionarem ainda mais o Congresso por uma nova regulamentação das redes. O governo Lula juntou-se a isso, principalmente na figura do ex-ministro da Justiça Flávio Dino, hoje integrante do STF. Ainda assim, o PL da Censura foi rejeitado. Agora, a regulamentação virá via STF.
O recente atentado a bomba em frente à Corte deu ainda mais força aos ministros que defendem um controle maior sobre o que trafega nas redes, especialmente porque o autor dos ataques sinalizou nelas que iria fazer algo contra o tribunal.
Maioria dos ministros do STF quer mais responsabilidade das redes sociais
Há consenso entre a maioria dos ministros de que a regulamentação se justifica não apenas por uma suposta omissão das redes em coibir “ataques” às instituições – o termo, genérico e de significado aberto, não é fortuito, na medida em que possibilita abarcar críticas variadas e mesmo legítimas, a depender do caso.
Existe também o entendimento de que as plataformas lucram e se beneficiam do discurso agressivo. Seja porque recebem pagamentos diretamente dos produtores de conteúdo para impulsionar esses materiais; seja porque mensagens deles viralizam ao ponto de serem remunerados com recursos de publicidade.
Fora isso, ministros e estudiosos do tema compreendem que conteúdos de viés radicalizado, principalmente de direita, ganham projeção rapidamente, prendem a atenção e alimentam as plataformas com informações de seus usuários. Dados de navegação e preferências das pessoas são um ativo valioso para as plataformas segmentarem propaganda e mais conteúdo. Esses são alguns dos principais argumentos que devem permear os votos dos ministros para abrir mais exceções à obrigação das redes de removerem conteúdos indesejados.
O que propôs o governo ao STF na moderação de conteúdo das redes
Nos últimos meses, cientes de que uma regulamentação virá pelo STF, partes afetadas e interessadas têm buscado influenciar a decisão. Em setembro, o governo Lula, por meio da Advocacia-Geral da União (AGU), enviou ao STF uma proposta para obrigar as redes sociais, sem necessidade de decisão judicial, a adotar um “dever de precaução" e remover conteúdos, canais, perfis ou contas que publicarem conteúdos que violem “direitos da criança e adolescente, a integridade das eleições, a defesa do consumidor, e a prática de ilícitos penais, desinformação e outras situações que importem em violação à legislação”.
O órgão utilizou uma definição da União Europeia para caracterizar a desinformação: “qualquer forma de informação falsa, imprecisa ou enganosa que seja criada, apresentada e promovida com a intenção deliberada de causar danos públicos ou obter lucros”. Para definir discurso de ódio, a AGU recorreu ao conceito das Nações Unidas: “qualquer tipo de comunicação oral, escrita ou comportamento, que ataca ou usa linguagem pejorativa ou discriminatória com referência a uma pessoa ou grupo com base em quem eles são, ou seja, com base em sua religião, etnia, nacionalidade, raça, cor, descendência, gênero ou outro fator identitário”.
Argumentou que, com essa proposta, a moderação de conteúdo pelas plataformas seria mais efetiva para preservar direitos fundamentais. “Longe de representar uma ameaça à liberdade de expressão, ela reforça a integridade das informações veiculadas no mundo virtual, contribuindo para a proteção dos direitos fundamentais, do regime democrático e da própria liberdade de expressão”, escreveu na manifestação o advogado-geral da União, Jorge Messias.
O que dizem as empresas de tecnologia no STF sobre a regulamentação
No processo, o Facebook – que recorreu ao STF contra sua responsabilização num caso concreto, envolvendo a criação de um perfil falso e ofensivo – contestou a proposta do governo. Argumentou que a própria plataforma já exclui, por conta própria, conteúdos danosos e ofensivos a minorias, crianças e instituições, bem como ao processo eleitoral, conforme seus termos de uso. Mas se vigorasse a proposta do governo, haveria o risco de exclusão de conteúdos por mera insatisfação e provocação direta de pessoas, gerando o risco de censura generalizada.
“A obrigação de remover conteúdos em atendimento a demandas de terceiros, sob pena de responsabilização, poderia ser utilizada para silenciar vozes dissidentes, censurar opiniões legítimas ou simplesmente remover conteúdos em nome de interesses comerciais ou políticos, sem a devida verificação da ilicitude”, afirmou a rede social, ao argumentar a favor de preservar a atual regra do Marco Civil da Internet, que delega à Justiça o papel de verificar o que é ou não ilícito e o que deve ou não ser removido. Do contrário, esse julgamento ficaria a cargo de particulares, entes privados, ou até mesmo das próprias plataformas.
"Nos casos em que há disputas sobre a veracidade ou a conveniência do conteúdo, o que pode incluir debates legítimos, críticas ou opiniões (inclusive as mais ácidas), é essencial que o Judiciário permaneça como mediador imparcial. Ele garantirá que os direitos à livre manifestação e informação sejam protegidos contra remoções arbitrárias ou abusivas.”
O Facebook ainda argumentou que a proposta do governo, de obrigar a remoção de conteúdos com “violação à legislação”, usa um termo muito aberto. “Flexibilizações desse tipo podem gerar um efeito inibitório sobre a liberdade de expressão (chilling effect), com plataformas digitais removendo conteúdos de maneira excessivamente cautelosa para evitar possíveis responsabilidades legais, o que, na prática, equivaleria a uma forma de censura privada.”
Caso o STF opte por abrir mais exceções à regra geral, de obrigação de retirada sem necessidade de decisão judicial, o Facebook propôs que isso se limite a conteúdos “de natureza evidentemente ilícita e de inequívoca aferição, como exploração sexual infantil, terrorismo, racismo, e abolição violenta do Estado Democrático de Direito”.
PGR quer mudar Marco Civil da Internet no STF e Senado quer preservar a lei
A Procuradoria-Geral da República (PGR) propôs uma tese que desobrigue as empresas de tecnologia de exercer controle prévio sobre o conteúdo gerado nas plataformas – o que inviabilizaria seu funcionamento. Mas defendeu que, “independentemente de ordem judicial”, elas atuem com “devida diligência, a fim de observar os direitos fundamentais, prevenir sua violação e reparar danos decorrentes de condutas de usuários”. Deveriam, na visão da PGR, coibir “manifestações ilegais desidentificadas, baseadas em fatos sabidamente inverídicos ou de conteúdo criminoso”. Várias plataformas alegam que já exercem essa fiscalização.
O Senado defendeu a manutenção do Marco Civil da Internet em sua atual redação. Citou decisão do Superior Tribunal de Justiça (STJ), segundo a qual o atual mecanismo busca “evitar o abuso por parte dos usuários notificantes, o monitoramento prévio, a censura privada e remoções irrefletidas”. Qualquer alteração ou nova exceção a essa regra, acrescentou o Senado, deveria partir do Legislativo, e não do Judiciário.
“É certo que a circulação de ideias, notadamente nas plataformas digitais, pode ter a sua regulação aprimorada, notadamente para coibir o exercício abusivo da liberdade de expressão, mas é importante que esse debate ocorra no espaço plural e representativo do Parlamento, a fim de que os diferentes caminhos constitucionalmente possíveis sejam ponderados para a solução adequada da matéria. No Estado Democrático de Direito, a desinformação, o discurso de ódio e o ataque ao regime e às instituições democráticas são combatidos com mais informação e mais democracia, sendo excepcionais as soluções que resultem direta ou indiretamente no cerceamento da liberdade de expressão”, diz o parecer do Senado.
O julgamento no STF começará na quarta-feira (27), a partir das 14h. Antes dos ministros votarem, poderão se manifestar no plenário as partes – advogados de Facebook, Google, e pessoas afetadas por publicações ofensivas – além de AGU, PGR e entidades interessadas. Os ministros relatores são Dias Toffoli e Luiz Fux, que votam primeiro.