Plataforma afirma que decisões emitidas pelo TSE e STF foram cumpridas, mas que configuravam censura.| Foto: Antônio Lacerda/EFE
Ouça este conteúdo

Quando uma plataforma como Twitter, TikTok ou Instagram deve ser responsabilizada pelo conteúdo postado por seus usuários? Essa é a questão central que os ministros do Supremo Tribunal Federal enfrentarão em um julgamento que poderá redefinir o cenário da internet no Brasil. Previsto para o fim deste mês, o julgamento revisitará o artigo 19 do Marco Civil da Internet, a principal lei que regula o ambiente online no país. Dependendo do resultado, o Supremo poderá transformar o regime de responsabilidade das plataformas digitais, mudando significativamente a experiência e a liberdade no ambiente online.

CARREGANDO :)

Nos primeiros anos da internet, os sites eram estáticos, limitando os usuários ao consumo passivo de informações. A Web 2.0 revolucionou essa dinâmica ao permitir que os próprios usuários publicassem, comentassem e compartilhassem conteúdo, com redes sociais e plataformas colaborativas como Wikipedia e YouTube. Essa nova fase, surgida no início dos anos 2000, permitiu a criação e o compartilhamento dinâmico de conteúdo, mas também trouxe questões complexas: quem é responsável por conteúdos ofensivos, difamatórios ou ilegais postados por terceiros? E se o volume de conteúdo é imenso, como monitorá-lo? Qual a responsabilidade das plataformas para impedir a circulação de conteúdos prejudiciais?

Em um país onde a liberdade de expressão está longe de ser consolidada, o modelo atual de responsabilidade após ordem judicial funciona como uma salvaguarda contra a censura privada e a intimidação de vozes independentes

Publicidade

O debate sobre a responsabilidade das plataformas é complexo e amplo. Em um extremo, teríamos a isenção total de responsabilidade das plataformas; no outro, as plataformas seriam responsabilizadas por tudo que hospedam. Nenhuma dessas alternativas parece adequada para a internet atual, onde tanto usuários quanto plataformas desempenham papéis ativos.

Antes do Marco Civil da Internet (2014), o Brasil não tinha um regime jurídico específico que regulamentasse a responsabilidade das plataformas de internet por conteúdos de terceiros. A questão era interpretada com base no Código Civil, o Código de Defesa do Consumidor e na jurisprudência, o que resultava em uma abordagem imprevisível e variada. A responsabilidade das plataformas oscilava entre o modelo de responsabilidade objetiva (onde a plataforma poderia ser responsabilizada pelo simples fato de hospedar o conteúdo) e o modelo de responsabilidade subjetiva (que exigia uma análise caso a caso sobre a negligência da plataforma em monitorar e remover o conteúdo). Em alguns casos, tribunais exigiam que as plataformas monitorassem ativamente o conteúdo, e em outros, que atuassem apenas mediante denúncia ou notificação, conhecido como “notice-and-take-down”.

No sistema de “notice-and-take-down”, as plataformas são responsabilizadas pelo conteúdo dos usuários desde que fossem notificadas sobre sua suposta ilicitude. A lógica é simples: como as plataformas não podem monitorar todo o conteúdo, passariam a ser passíveis de responsabilização quando tomassem ciência do ilícito. Esse modelo, porém, mostrou-se problemático para a realidade brasileira. Pressionadas pelos advogados, as plataformas passam a remover conteúdos não por serem ilegais, mas para evitar conflitos e litígios, o chilling effect.

Para fortalecer a liberdade de expressão e proteger o debate público, o Congresso aprovou em 2014 o Marco Civil da Internet, que estabeleceu o modelo de responsabilidade somente após ordem judicial específica. Esse modelo preserva um equilíbrio fundamental para a democracia, especialmente em um país como o Brasil, onde a liberdade de expressão ainda carece de uma cultura de respeito. Nesse sistema, as plataformas só são responsabilizadas se, após uma decisão judicial, optarem por manter no ar o conteúdo ilegal. Casos excepcionais, como a exposição de imagens íntimas, mantêm a notificação simples para proteção rápida.

Com o julgamento da constitucionalidade do artigo 19, esse equilíbrio poderá mudar. Defensores de uma flexibilização argumentam que as plataformas não deveriam esperar uma decisão judicial para remover conteúdos que claramente violem normas de convivência social, como discursos de ódio, fraudes ao consumidor, desinformação e conteúdos prejudiciais a crianças e adolescentes. Instituições como ABERT, IDEC e Instituto Alana defendem que, nesses casos, as plataformas devem agir proativamente para proteger os usuários e impedir a circulação de informações prejudiciais.

Publicidade

Mais além, há ainda o risco da adoção de um modelo de responsabilização objetiva e monitoramento ativo. Esse modelo exigiria que as plataformas – sob risco de responsabilização – implementassem sistemas automatizados e equipes dedicadas para identificar e remover conteúdos considerados prejudiciais antes mesmo de qualquer notificação ou decisão judicial. Afora a inviabilidade técnica para a análise contextual das nuances interpretativas, críticos alertam que essa prática colocaria o controle da expressão pública nas mãos de big techs. Em países com governos autoritários, essa lógica tem sido usada para reprimir dissidências e triangular uma censura não tão disfarçada a conteúdos desinteressantes ao regime em vigor. Para o Brasil, onde o direito à expressão é ainda vulnerável, entregar esse poder a plataformas agnósticas aos interesses democráticos seria extremamente arriscado.

Embora esta discussão devesse ser travada no âmbito parlamentar, enxerga-se legítimo estabelecer um sistema de responsabilidade graduada, conforme a gravidade do conteúdo e a viabilidade técnica ou ética da atuação das plataformas. Em casos de risco iminente à vida, por exemplo, é razoável flexibilizar o artigo 19 e permitir a remoção de conteúdo mediante pedido da polícia ou Ministério Público. Exceções como o monitoramento ativo para a remoção de conteúdos indiscutivelmente prejudiciais e facilmente identificáveis, como a pornografia infantil, também podem ser admitidas – e as plataformas já realizam esse tipo de controle. Da mesma forma, a notificação extrajudicial parece ser um bom modelo para violações à intimidade, como já é previsto no artigo 21 do Marco Civil. Mas essas exceções devem ser tratadas como o que são: exceções a uma regra principal, que deve permanecer.

Em tempos de polarização política, exigir monitoramento ativo ou regredir ao notice-and-take-down, sem manifestação judicial, é uma ameaça para a livre circulação de discursos controversos. A análise de contextos e nuances políticas devem ser objeto de decisão judicial. Escolhas tão relevantes para a democracia não podem estar nas mãos dos departamentos jurídicos das grandes plataformas, mas sim do Estado-Juiz.

A realidade brasileira demanda cautela. Em um país onde a liberdade de expressão está longe de ser consolidada, o modelo atual de responsabilidade após ordem judicial funciona como uma salvaguarda contra a censura privada e a intimidação de vozes independentes. A internet precisa ser um espaço de liberdade e pluralidade, não um ambiente onde a expressão pública esteja sob constante ameaça.

Do nosso lado, o Instituto Sivis – através de Voxius, seu novo centro para assuntos de liberdade de expressão – deve trabalhar para que tenhamos tanto um Legislativo, como um Judiciário mais alinhado aos valores pró-liberdade de expressão.

Publicidade

Henrique Zétola é diretor executivo do Instituto Sivis; Jamil Assis é diretor de relações institucionais do Instituto Sivis.

Infográficos Gazeta do Povo[Clique para ampliar]