A disputa ainda não concluída entre a rede social X, do bilionário Elon Musk, e o ministro Alexandre de Moraes, do Supremo Tribunal Federal, é um caso evidente em que uma das chamadas big techs se tornou vítima do arbítrio estatal: Moraes impôs à empresa ordens injustas e inconstitucionais e aplicou-lhe punições após as determinações de censura não serem cumpridas. Este e outros casos – como as ameaças de Executivo e Judiciário às big techs que manifestaram sua opinião sobre o PL 2.630/20 –, por mais escandalosos que sejam, no entanto, não podem nos fazer esquecer que há muitas outras ocasiões em que as empresas de tecnologia são os algozes, e por vezes o são de uma forma bastante kafkiana, apelando a segredos que em nada ficam devendo aos inquéritos abusivos relatados por Moraes no STF. Um desses episódios envolveu recentemente frei Gilson Azevedo, carmelita que é uma das principais personalidades católicas na internet.
Frei Gilson tem milhões de seguidores no Instagram e no YouTube, as principais redes que ele usa para promover devoções religiosas, e não poucos católicos se levantam de madrugada para rezar acompanhando as lives do frade. No entanto, no último dia 17 de setembro, o religioso foi avisado de que o Instagram havia bloqueado suas lives (mas não as demais publicações) por quase um mês; para isso, a rede alegava uma violação de suas diretrizes, sem dar qualquer outro detalhe a respeito. O religioso, então, procurou o Instagram, que no dia 19 respondeu dizendo ter havido um “engano”; no entanto, frei Gilson continuou impossibilitado de realizar as lives, e no domingo, dia 22, ainda foi surpreendido com outro bloqueio, desta vez de suas comunidades no WhatsApp – que, assim como o Instagram, pertence à Meta, também dona do Facebook. Na noite do mesmo dia 22, houve o desbloqueio completo, tanto para as lives no Instagram quanto das comunidades no WhatsApp.
Se as big techs querem selecionar os conteúdos que desejam permitir ou restringir com critérios que vão além das normas legais, têm a obrigação de informar corretamente seus usuários quando qualquer tipo de moderação é aplicada
“O que nos deixa perplexos é que nunca nos dizem exatamente o que foi transgredido”, afirmou o frade em uma das publicações em que avisava seus seguidores sobre o bloqueio. As hipóteses vão de uma punição em resposta a uma outra publicação, sobre aborto e defesa da vida, até uma precaução contra golpistas que estariam retransmitindo as lives e pedindo doações como se fossem dirigidas ao religioso. No entanto, sem uma informação da própria plataforma, qualquer hipótese se torna especulação. E aqui está o grande problema da forma como as big techs agem com os usuários de seus serviços, famosos ou anônimos: a completa falta de transparência nos critérios de moderação e nas ações de bloqueio de contas, perfis ou ferramentas específicas, como as lives.
É evidente há muito tempo que as big techs têm a pretensão de selecionar os conteúdos que desejam permitir ou restringir em suas plataformas com critérios que vão além das normas legais (afinal, não se discute que as plataformas têm o direito, e até a obrigação, de apagar publicações criminosas). Mas, se elas querem fazê-lo – e não há nenhum problema per se nesta pretensão, desde que as empresas sejam legalmente responsabilizadas por isso, embora esta seja outra discussão que não nos interessa repetir neste momento –, têm a obrigação de informar corretamente seus usuários quando qualquer tipo de moderação é aplicada. Simplesmente afirmar que houve uma “violação das diretrizes da comunidade” sem esclarecer qual foi a publicação moderada, nem de que forma essa publicação desrespeitou qualquer regra da plataforma, é manter o usuário na ignorância completa – sem falar no caráter arbitrário de aplicar uma punição antes mesmo que este usuário possa se defender ou solicitar uma revisão.
O Brasil, no entanto, está totalmente carente de uma regulamentação bem construída, que respeite a liberdade de expressão e vede a censura, enquanto impõe às big techs o dever básico de transparência para com os usuários, que são os consumidores do serviço que elas oferecem. O mínimo que se deveria esperar nesses casos seria a informação clara sobre que conteúdo ensejou moderação, e as razões pelas quais ele foi considerado “transgressor” de regras internas da mídia social, com o devido direito de defesa e recurso – devidamente analisado por seres humanos, e não por ferramentas de inteligência artificial. Mais que isso, o ideal seria que as regras fossem amplamente divulgadas, tornando-se acessíveis a todos os usuários, não apenas os que eventualmente sofram moderação, para que as pessoas possam escolher conscientemente se desejam consumir aquele serviço. Se há temas “tabus” ou posições que, mesmo lícitas, não podem ser defendidas em determinada mídia social porque seus donos assim desejam, todos têm o direito de sabê-lo, inclusive para poder boicotar a empresa, pressioná-la a rever suas políticas ou até acioná-la judicialmente se algum dos critérios de moderação revelar algum tipo de discriminação.
Se há algo que pode e deve ser exigido das empresas de tecnologia – inclusive com força de lei –, não é a obediência cega e irracional a ordens injustas de censura, mas o dever de transparência em suas políticas de moderação. Uma big tech pode não querer que algo seja dito em suas plataformas, mesmo sem configurar crime, mas isso precisa ser tornado público. Para cada frei Gilson, cujo caso teve ampla repercussão e que recuperou suas lives no Instagram bem antes do prazo imposto pela plataforma, há milhares de brasileiros impedidos de publicar sem nem mesmo saber o motivo pelo qual estão sendo censurados, e esta é uma situação que não pode perdurar.