Horas depois do massacre de Las Vegas, o feed de notícias do Facebook de Travis McKinney se encheu de teorias da conspiração. A polícia estava mentindo. Havia vários atiradores no hotel, não apenas um. O xerife estava encobrindo a verdade para que os donos dos cassinos pudessem preservar seus negócios.
Os rumores políticos brotaram logo depois, como ervas daninhas digitais. O assassino era contra Trump, um ativista antifascista, disseram alguns; outros fizeram a afirmação oposta: era um terrorista da direita radical. As duas narrativas sem confirmação se misturavam ao fluxo normal das conversas, notícias e selfies.
"Essas histórias estavam vindo de toda a minha rede de 300 ou 400" conhecidos e seguidores, afirma McKinney, de Suffork, na Virgínia, e algumas das publicações eram de seu círculo de amigos mais íntimos.
Mas ele sabia que havia apenas um atirador. Instrutor e fornecedor de serviços de defesa, McKinney estava ouvindo um equipamento da polícia de Las Vegas por meio de um aplicativo. "Eu entrei na rede e tentei contradizer algumas dessas bobagens", diz.
Nas próximas semanas, executivos do Facebook e do Twitter vão comparecer a comitês do congresso para responder a perguntas sobre o uso de suas plataformas por hackers russos e outras pessoas para disseminar informações e desvirtuar as eleições. Durante a campanha presidencial de 2016, o Facebook vendeu mais de US$100 mil em espaços de propaganda para uma empresa ligada ao Kremlin, e o Google, mais de US$4.500 para contas possivelmente conectadas ao governo russo.
Agentes com ligações com o governo russo criaram uma série infinita de contas e sites falsos e compraram vários anúncios no Google e no Facebook, espalhando alegações duvidosas que pareciam ter a intenção de criar uma divisão em todo o espectro político – um "corte cultural", nas palavras de um especialista.
Psicologia por trás
No entanto, a psicologia por trás das plataformas de mídias sociais – em primeiro lugar a dinâmica que os tornam vetores tão poderosos da desinformação – é pelo menos igualmente importante, dizem especialistas, principalmente para aqueles que acham que jamais serão enganados. Apesar de todas as suspeitas sobre os motivos e a ética das empresas que administram as redes sociais, é a interação da tecnologia com nossas inclinações psicológicas comuns e em geral inconscientes que nos torna tão vulneráveis à desinformação, e isso normalmente não está nas manchetes.
O ceticismo a respeito das "notícias" on-line serve como um filtro decente na maioria das vezes, mas nossos preconceitos inatos permitem que sejam ignorados, de acordo com pesquisadores – especialmente quando são apresentados com o tipo certo de notícia selecionada pelo algoritmo.
Numa época em que a desinformação política abunda, e está sendo solicitada, "o Facebook, o Google e do Twitter funcionam como mecanismos de distribuição, uma plataforma para fazer circular informações falsas e ajudá-las a encontrar um público receptivo", explica Brendan Nyhan, professor de Governo do Darmouth College (e contribuinte ocasional da coluna Upshot do The Times).
Primeiro, diz Colleen Seifert, professor de Psicologia da Universidade de Michigan, "as pessoas têm uma visão benevolente do Facebook, por exemplo, como curador, mas na verdade a rede possui motivações próprias. O que ela realmente faz é manter você ligado no site. Promove a curadoria das notícias e das informações que vão incentiva-lo a continuar conectado".
Esse tipo de curadoria age como um campo fértil para notícias falsas envolvendo simultaneamente dois padrões de ciências sociais pré-digitais: o mito urbano como ideia viral; e as tendências individuais, as coisas em que acreditamos de maneira subconsciente e automática.
O primeiro processo é, em grande parte, conduzido pelos dados, segundo os especialistas, e construído com os algoritmos das mídias sociais. A ampla circulação de rumores bizarros, facilmente destruídos – o chamado Pizzagate, por exemplo, a falácia de que Hillary Clinton tinha uma gangue que promovia sexo com crianças em uma pizzaria de Washington – não é totalmente dependente da febre partidária (apesar dessa ter sido sua origem).
Por um lado, o senso comum de que esses rumores circulam porque a maioria das pessoas conduzem suas vidas digitais em câmaras de eco ou "casulos de informação" é exagerado, diz Nyhan. Em um artigo que ainda não foi publicado, Nyhan e seus colegas avaliaram as pesquisas relevantes, incluindo análises de sites de notícias dos partidos e dados da Nielsen, e descobriram o oposto. A maioria das pessoas consome notícias de maneira mais ampla do que o que pensamos; elas não estão confinadas em suas bolhas quentinhas que contêm apenas a indignação que aceitam.
Mas eles não precisam estar fechados em seus nichos para que as notícias falsas se espalhem rapidamente, sugere a pesquisa. Os algoritmos das redes sociais funcionam, de certa maneira, como a seleção evolucionária: a maioria das mentiras e dos rumores falsos não se espalha, mas os raros que possuem "mutações" atraentes de mitos urbanos encontram tração psicológica e então se tornam virais.
Não há uma fórmula precisa para esse atrativo digital. O ponto, argumentam os especialistas, é que o próprio absurdo da mentira do Pizzagate pode ter impulsionado sua proeminência precoce, independentemente da situação política daqueles que o compartilharam.
"Minha experiência é que, uma vez que essas coisas começam a entrar no circuito, as pessoas apenas compartilham sem necessariamente parar para ler", conta McKinney. Eles estão só participando da conversa, diz ele, sem pensar em ir mais fundo em sua fonte.
As redes sociais digitais são "perigosamente efetivas na hora de identificar publicações virais mais bem adaptadas para sobreviver, e essas tendem a ser os rumores e as teorias da conspiração mais difíceis de corrigir", explica Nyhan.
Uma razão é o ritmo rápido do compartilhamento, diz ele: "As redes fazem a informação se espalhar tão depressa que ela ultrapassa a habilidade dos verificadores dos fatos. A desinformação se espalha amplamente antes que possa ser rebaixada nos algoritmos".
Controvérsias
O grau em que o Facebook e outras plataformas funcionam como "marqueteiros" da desinformação, da mesma maneira como vendem sapatos e maquiagem, é controverso. Em 2015, três cientistas comportamentais que trabalhavam no Facebook incitaram o debate com um artigo publicado no importante periódico Science.
Os autores analisaram o feed de notícias de 10 milhões de usuários nos Estados Unidos que postaram suas visões políticas e concluíram que "as escolhas dos indivíduos desempenharam um papel mais forte na limitação à exposição" a notícias e comentários contrários do que as próprias hierarquizações do algoritmo do Facebook – que avalia quão interessantes as histórias podem ser para usuários individuais, com base nos dados que eles mesmos fornecem.
Alguns críticos externos atacaram o estudo dizendo que servia ao interesse da empresa, enquanto outros afirmaram que a análise era sólida e sem viés aparente.
A outra dinâmica que funciona em favor da proliferação de desinformação não está embutida no software, mas no hardware biológico: as tendências cognitivas do cérebro humano.
Do ponto de vista puramente psicológico, os sutis preconceitos individuais são pelo menos tão importantes quando as hierarquizações e as escolhas quando se trata de espalhar notícias falsas ou mentiras russas – como a falácia que afirmava que um muçulmano em Michigan recolhia o pagamento do bem estar social para suas várias esposas.
Simplesmente entender o que uma notícia ou comentário está dizendo requer uma suspensão temporária da descrença. Mentalmente, o leitor precisa por algum tempo aceitar os fatos colocados como possivelmente verdadeiros. Uma conexão cognitiva é feita de modo automático: Clinton-criminosa sexual, Trump-nazista, muçulmano-bem estar social.
E refutar essas afirmações falsas exige que a pessoa primeiro as articule mentalmente, reforçando uma conexão subconsciente que dura muito mais tempo do que se presume.
Ao longo do tempo, para muitas pessoas, é essa conexão inicial falsa que fica mais forte, não as retratações ou as correções: "Obama era muçulmano? Acho que eu me lembro disso".
Em uma análise recente das tendências que ajudam a espalhar a desinformação, Seifert e outros autores relataram essas e outras conexões cognitivas automáticas que podem reforçar as informações falsas.
Confiança na indicação de amigos
Outra delas é a repetição: apenas ver a manchete de uma notícia várias vezes no Facebook a torna mais crível, antes mesmo que seja lida com cuidado, mesmo que se trate de uma história falsa que está sendo repassada por amigos como uma brincadeira.
E, como os vendedores já sabem há tempos, as pessoas tendem a valorizar a informação e os julgamentos dados pelos bons amigos sobre todas as outras fontes. É uma tendência psicológica com consequências significativas agora que quase dois terços dos norte-americanos recebem pelo menos parte de suas notícias por meio das mídias sociais.
"Suas ligações nas redes afetam como você avalia a informação. Damos mais peso a aquelas que vêm das pessoas que conhecemos", explica Seifert.
A natureza casual, social e sensacional de olhar as mensagens e participar de trocas digitais permite que essas tendências operem sem controle, diz Seifert.
Parar para se aprofundar e determinar qual a fonte verdadeira de uma história mal contada pode ser complicado, mesmo para os céticos motivados e, mentalmente, é um trabalho difícil. As tendências ideológicas e as escolhas do que vamos ver são fatores conscientes que entram em jogo apenas depois que os preconceitos cognitivos automáticos já percorreram seu caminho, encorajados pelos algoritmos e pela natureza social das interações digitais.
"Se eu não tivesse uma evidência direta de que todas essas teorias estavam erradas" por causa das informações da polícia, diz McKinney, "poderia ter levados essas histórias um pouco mais a sério".
Número de obras paradas cresce 38% no governo Lula e 8 mil não têm previsão de conclusão
Fundador de página de checagem tem cargo no governo Lula e financiamento de Soros
Ministros revelam ignorância tecnológica em sessões do STF
Candidato de Zema em 2026, vice-governador de MG aceita enfrentar temas impopulares