Em fevereiro de 2023, o jornalista Glenn Greenwald disse no X que “qualquer pessoa que alegue ser ‘especialista em desinformação’ ou ‘especialista em extremismo’ é uma fraude”. Um ano depois, ele repetiu a mensagem: “inventaram essa especialidade de um dia para o outro, tiraram do nada, se proclamaram: ‘sou um especialista em desinformação, aprendi a identificar a desinformação melhor que você’. De onde veio essa especialidade? É uma especialidade falsa, que não existe”.
Novos estudos e casos informativos tendem a corroborar a opinião do jornalista, que atua a favor da liberdade de expressão e acusa os acadêmicos da área de trabalharem pela censura. Os “especialistas” exageram a quantidade de desinformação à qual internautas são expostos, erram ao colocar a culpa nos algoritmos e se enganam a respeito das causas da polarização.
É falso que as pessoas são expostas a muita desinformação, e que a exposição está crescendo
Em 5 de junho, a revista científica Nature publicou o artigo “Desentendimento dos danos da desinformação online”, que identifica três enganos comuns com frequência cometidos pelos especialistas em desinformação, “incluindo em artigos escritos por cientistas sociais proeminentes”.
O trabalho é de autoria de Ceren Budak, da Faculdade de Informação da Universidade de Michigan (EUA), e quatro colegas de outras instituições, incluindo o setor de pesquisa da Microsoft.
Os cientistas afirmam estar preocupados com a prevalência dessas crenças falsas a respeito dos perigos da desinformação, pois “elas podem moldar a ação das plataformas, legisladores e reguladores”. É o que está acontecendo com projetos de lei e regulações propostas no Brasil, Canadá, Irlanda, Reino Unido, Austrália e Alemanha.
A primeira crença falsa comum é que a exposição do usuário médio das redes sociais à desinformação (conteúdo falso, danoso ou de ódio) é grande ou que está crescendo. Budak e colegas afirmam que essa crença está sendo disseminada por estatísticas enganosas, distorção da cobertura de ciência na imprensa pelo sensacionalismo e o hype de comunicados escritos para a imprensa para divulgar estudos acadêmicos.
Como exemplo de estatística enganosa, os autores mencionam que o New York Times reclamou em 2020 que um vídeo de Joe Biden editado de forma enganosa recebeu 17 milhões de visualizações nas redes sociais. O número ignora a escala do engajamento total nas redes sociais: as 20 postagens mais vistas no Facebook nos EUA no primeiro trimestre de 2023, por exemplo, atingiram 776,3 milhões de visualizações, e esse número é apenas 0,04% de visualizações de conteúdo desta plataforma no país no mesmo período.
Outro exemplo de estatística enganosa foi utilizado na teoria da conspiração progressista de que Donald Trump foi eleito presidente dos Estados Unidos em 2016 por causa da interferência de agentes russos online. A Agência de Pesquisa em Internet declarou que a desinformação russa teria alcançado até 126 milhões de cidadãos americanos. Tal número, contudo, representava apenas 0,004% do conteúdo que os americanos viram no Facebook.
Um estudo mostrou que os 490 sites de notícias classificados como os menos confiáveis alcançavam apenas 5,9% das visitas da audiência americana na Internet. Até mesmo nas eleições presidenciais americanas de 2016, evento histórico que mais impulsionou as atividades dos especialistas em desinformação, as fontes não confiáveis só representavam 6,7% dos links políticos compartilhados no Twitter.
“Acreditamos que as conclusões da pesquisa acadêmica são claras”, concluem os cientistas, “a exposição à desinformação tem porcentagem baixa na dieta informacional das pessoas e está concentrada numa minoria”. Eles citam 23 estudos corroborando essas conclusões.
É falso que polarização e extremismo são culpa dos algoritmos
Virou um clichê de análise a alegação de que os algoritmos das redes sociais colocam as pessoas em bolhas com filtros ideológicos. Mais estudos são necessários, mas o melhor que foi conduzido até o momento, com usuários do Facebook e do Instagram que deram consentimento para participar, teve um resultado misto: sim, os usuários recebem do algoritmo mais conteúdo com o qual concordam. Porém, comparado a um grupo que via conteúdo sem filtro em ordem cronológica, o grupo com o algoritmo viu menos conteúdo de sites pouco confiáveis.
Além disso, o desligamento do algoritmo em favor do conteúdo cronológico simples não muda as preferências ou crenças das pessoas. Na verdade, são as crenças das pessoas que acabam moldando o algoritmo: são autoras da “bolha”, não vítimas dela.
Outro estudo, com robôs treinados com o histórico de vídeos que pessoas reais preferiam ver no YouTube, mostrou que o algoritmo levava a conteúdo menos polarizado, não mais. Somente 0,4% das recomendações do YouTube vão para canais classificados como extremistas.
“Dados de comportamento indicam que as pessoas que consomem muito conteúdo falso, pouco confiável ou de outra forma potencialmente danoso já são muito atentas a esse conteúdo e o buscam ativamente”, comentam Budak e colegas. Há diferentes estudos corroborando isso, como um que mostrou que o banimento da rede social Parler (a favorita dos apoiadores de Trump antes de ele criar a Truth Social) das lojas de aplicativos depois da invasão do Capitólio em 6 de janeiro de 2021 não alterou em nada os hábitos de consumo de conteúdo heterodoxo: os usuários simplesmente mudaram para sites similares.
É falso que as redes sociais estão esgarçando o tecido social
Especialistas como o psicólogo social Jonathan Haidt têm acusado as redes sociais de deteriorar a saúde mental de crianças e adolescentes. Haidt chama por tarjas de aviso dos potenciais danos, como as colocadas em maços de cigarro, e pelo aumento da idade mínima dos usuários, hoje comumente de 13 anos.
Mas essas conclusões (contestadas por outros especialistas) são para essa faixa vulnerável, não para a população em geral. A revista The Atlantic, de linha editorial progressista, foi mais generalizante em 2022: “Facebook, Twitter, YouTube e outras plataformas grandes estão dissolvendo a cola da confiança, da crença nas instituições e histórias compartilhadas que segurava uma grande e diversa democracia secular”.
Há correlações, mas Budak e colegas duvidam das sugestões de forte conexão causal. Por exemplo, “a diminuição no uso do Facebook não teve efeito mensurável na polarização nos EUA”, e na Bósnia levou a menos avaliações positivas de pessoas consideradas de um grupo diferente — se a inimizade entre grupos fosse ao menos em parte culpa do Facebook, o contrário deveria ter acontecido com a diminuição de uso.
A melhor alternativa contra fake news não veio dos especialistas em desinformação, mas de Elon Musk
Budak e seus coautores pensam que “as redes sociais certamente são responsáveis por alguns problemas no mundo”, mas, se a mera disponibilidade de desinformação nas redes sociais, mesmo se pequena, puder levar a problemas, “então é ainda mais importante corrigir tais falsas percepções no discurso público”.
A ascensão das agências de checagem acreditadas pelo Poynter Institute poderia ser vista como um passo nessa direção. Contudo, com frequência essas agências exibiram extremo viés político que viola as diretrizes do instituto, sem qualquer ação da entidade a respeito — foi o caso da Agência Lupa, em 2021, que emprestou seu espaço para propagar desinformação na forma de uma lista politicamente correta de expressões a serem evitadas formulada por uma ONG convidada. E as agências firmaram uma parceria com as redes sociais da Meta que nos últimos anos foi na direção da censura, da sinalização de conteúdo seguida de remoção.
Bem diferente dessa iniciativa é o programa Notas da Comunidade, da rede social X de Elon Musk, figura crítica do progressismo tratada com desconfiança por muitos “especialistas em desinformação”. Como noticiou a Gazeta do Povo, o programa, que não envolve censura, mas adição de contexto a conteúdo enganoso, foi elogiado por uma importante revista científica da Associação Médica Americana.
Mau comportamento e trave nos olhos dos “especialistas”
Joan Donovan é considerada “uma das principais especialistas em desinformação do mundo”, como colocou em junho o jornal The Chronicle of Higher Education, especializado no mundo acadêmico.
Apesar de pouco histórico acadêmico, Donovan foi recrutada pela Escola de Governança John F. Kennedy, da Universidade Harvard, em 2018. Nos anos seguintes, ela se tornou a voz da pesquisa em desinformação, com aparições na imprensa e depoimentos ao Congresso americano.
Em meados de 2023, ela foi dispensada e sua equipe dissolvida. Em um documento de 248 páginas, ela alega que foi vítima do lobby da Meta, empresa-mãe do Facebook, Instagram e WhatsApp, dentro de Harvard.
O Chronicle e outros veículos como The Washington Post, The Boston Globe, NBC e NPR partiram em defesa de Donovan. Até que, no perfil de junho, o primeiro publicou uma devassa completamente desabonadora da história alegada pela especialista. “Donovan não apresentou provas de que a Meta estava por trás de sua demissão”, afirmou o Chronicle. “Várias de outras alegações são enganosas, inverídicas ou contraditas pelas pessoas diretamente envolvidas”.
“Donovan foi incansável em soar o alarme sobre a ‘infodemia’ do coronavírus em notas para a Organização Mundial da Saúde”, diz o jornal, “para revistas científicas e em audiências da Câmara dos EUA. Congressistas imploraram a Biden para adicioná-la em sua força-tarefa da Covid”.
Um dos contatos recorrentes de Donovan, até em aparições públicas de especialistas em desinformação, é Renée DiResta, ex-diretora do Observatório da Internet de Stanford. A universidade está fechando o observatório este ano. Os Twitter Files mostraram que a entidade trabalhou pela censura durante as eleições presidenciais americanas de 2020 e a pandemia, sinalizando para remoção até informações verdadeiras. O trabalho de censura teve participação de grandes atores, como uma agência de cibersegurança do Departamento de Segurança Interna, criado para combate ao terrorismo.
A imagem que emerge do perfil de Donovan no Chronicle é sobretudo de uma ativista, membro de banda de punk rock, com certo desdém por protocolos de publicação científica e métodos rigorosos de pesquisa. No mínimo uma má escolha de seus colegas para ser uma das faces mais importantes para demonstrar a importância de seu trabalho acadêmico de combate à suposta desinformação.
O que alguns chamam de “especialidade em desinformação” pode ser, como sugeriu Glenn Greenwald, um simples erro de pensamento de se considerar imune a um risco que só vitimiza outras pessoas. Esse erro de pensamento, ou viés cognitivo, tem nome: é o efeito da terceira pessoa. Além da crença de que se é mais imune que os outros à desinformação, o efeito também consiste em subestimar a capacidade dos outros de ter uma dieta informacional adequada e escapar dos enganos. Em linguagem bíblica: é a “trave nos olhos” à qual o evangelista Mateus faz referência.
O livro Not Born Yesterday (“Não nasci ontem”, em tradução livre, 2020), do cientista cognitivo francês Hugo Mercier, teve a missão de mostrar que a pessoa comum não é tão crédula e irracional como pensam muitos especialistas. “Aqueles que tentam persuadir as massas, dos demagogos aos publicitários, de pregadores a chefes de campanha política, quase sempre fracassam de forma patética”, afirmou Mercier. “A supostamente toda poderosa máquina de propaganda nazista mal afetou seu público — não conseguiu nem fazer os alemães gostarem dos nazistas”.
Presciente, o livro comentou o pânico das elites que explicaram o sucesso de campanhas “populistas” como a de Trump e do Brexit como um resultado das fake news. “Essa explicação erra a respeito da direção da causalidade”, afirma Mercier. “Não é porque a população tem crenças falsas que ela toma más decisões”, mas é para justificar as supostas más decisões que a população adota as supostas crenças falsas.
Agora que se sabe que algumas das crenças dos especialistas em desinformação são falsas, seguindo Mercier pode-se concluir que sua pressão pela censura foi a má decisão em busca de crenças falsas para se sustentar.
- Encontro em Londres denuncia máquina de censura internacional, inclusive no Brasil
- Laboratório pró-censura de Stanford será fechado
- Cármen segue Moraes e nomeia delegado da PF para chefiar combate à “desinformação”
- Onde foram parar as agências de checagem?
- Quem checa os checadores? Agência espalha desinformação sobre expressões racistas