Ouça este conteúdo
Contas em redes sociais do frei Gilson, um dos maiores influenciadores católicos do Brasil, sofreram bloqueios nos últimos dias, primeiro no Instagram e depois no WhatsApp, sem explicações claras. Ele só teve o acesso restaurado no domingo (22), após grande mobilização dos seguidores.
Apesar do retorno, os motivos por trás da suspensão não ficaram claros. A Meta, responsável pelas duas plataformas, foi questionada pela Gazeta do Povo, mas recusou-se a comentar o assunto.
De acordo com o especialista em redes e cibersegurança Filipe Augusto da Luz Lemos, professor pesquisador por cortesia da Universidade de Syracuse, casos desse tipo podem ser resultado tanto de avaliação feita por humanos como de ações automatizadas de algoritmos, que podem reagir a uma onda de denúncias feitas por usuários ou responder automaticamente a comportamentos considerados suspeitos.
Um conteúdo cristão pode ter padrões de linguagem, imagens ou temas que são gatilhos para robôs suspeitarem de violação de políticas da rede, como a vedação ao que as plataformas chamam de "discursos de ódio".
O viés woke das Big Techs não é uma novidade, e não são raros os relatos de censura por parte das redes contra quem aborda temas como família, moral e identidade fazendo oposição a esse viés. O X, sob a gestão de Elon Musk, tornou-se a alternativa mais popular no mundo de rede social que preza por uma liberdade de expressão mais ampla.
Para os cristãos brasileiros, o caso do frei Gilson é sintomático de como a suspensão do X é uma questão que vai além da liberdade de crítica ao Supremo Tribunal Federal e às instituições do país.
Em temas de moral social, para os quais as outras redes sociais têm um pacto com o wokismo, a ausência do X pode significar uma barreira maior à visão de mundo cristã e conservadora.
As outras grandes redes têm um histórico de censura contra conteúdos cristãos. O canal do Centro Dom Bosco, por exemplo, que tem conteúdos católicos e conta com mais de 500 mil inscritos, já chegou a ser deletado do YouTube em 2023 sem aviso prévio.
Em novembro de 2022, um casal dono de perfis conservadores populares no Instagram relatou à Gazeta do Povo como vinha sofrendo com censura e shadow ban – mecanismo da plataforma que reduz drasticamente o alcance de publicações.
Em 2018, Franklin Graham, uma das maiores figuras evangélicas dos Estados Unidos, teve sua conta no Facebook temporariamente suspensa. O motivo foi um post de 2016 em que criticava a chamada "lei dos banheiros", que permitia o uso de banheiros públicos conforme a identidade de gênero. O Facebook alegou que a publicação violava suas regras de discurso de ódio, mas acabou pedindo desculpas e restaurando a conta de Graham após repercussão negativa.
Frei Gilson pode ter sido derrubado por viés algorítmico das redes
Filipe Lemos explica que há basicamente três caminhos para a derrubada de um conteúdo de rede social: remoção automática pelo algoritmo, avaliação por um humano a partir de uma acusação do algoritmo ou avaliação após recebimento da denúncia de um usuário.
"A gente não sabe, no caso do frei, se foi o algoritmo ou se foi avaliação por humano. O algoritmo, quando considera que definitivamente há alguma coisa problemática, age sozinho em cima do conteúdo. Se ele tem alguma dúvida, passa para uma avaliação de um humano. E a terceira possibilidade é que um humano receba uma denúncia de um usuário, avalie e retire o conteúdo."
Lemos sugere que as contas do frei Gilson podem ter sido derrubadas pelo que os programadores de chamam de "falso positivo" do algoritmo. Segundo ele, as Big Techs costumam exceder nos cuidados automatizados com certos conteúdos porque podem remediar os falsos positivos depois, simplesmente trazendo o conteúdo de volta.
"É melhor para eles remediar isso do que ter os falsos negativos, que seria identificar que o conteúdo não tinha problema nenhum, quando na verdade tinha", explica.
Mas o que poderia ter levado o algoritmo a pensar que o conteúdo violava as políticas da rede? Embora não seja possível saber ao certo, já que a própria Meta não quis se manifestar sobre o caso, é comum que temas polêmicos ativem o gatilho do algoritmo – que, por seu viés woke, decide derrubar o conteúdo.
"São empresas que têm viés, já admitiram que têm viés – político, inclusive", recorda Lemos.
Para ele, um elemento peculiar do caso foi a censura quase simultânea em duas redes distintas, ainda que vinculadas ao mesmo conglomerado. "São empresas diferentes, são separadas. Elas têm até pontos juntos dentro da Meta, mas são separadas. Tem que ver por que aconteceu automaticamente tanto no Instagram quanto no WhatsApp", observa.