Serviços à venda hoje na internet permitem transformar um desconhecido numa celebridade por US$ 2,6 mil, promover uma passeata com cerca de 20 mil pessoas — indignadas com uma ofensa inexistente — por US$ 200 mil ou destruir a reputação de um jornalista bem estabelecido por US$ 55 mil. Usar a web para influenciar importantes decisões políticas ou econômicas sai mais caro: US$ 400 mil.
Os números vêm de simulações realizadas pelo grupo de segurança digital Trend Micro, que publicou, no mês passado, um relatório mapeando diversos serviços de disseminação de notícias falsas e manipulação de redes sociais disponíveis nos mercados russo, chinês, no Oriente Médio e em áreas com acesso mais natural à web de língua inglesa, como a Índia. Esses serviços não são necessariamente clandestinos: muitos deles apenas se aproveitam, ainda que de forma abusiva, de ferramentas oferecidas pelas próprias redes sociais, e dos chamados “mercados cinzentos” que, embora sejam formalmente legais, violam os termos de uso determinados pelos fornecedores originais dos recursos utilizados.
“Mídias sociais têm um efeito muito forte no mundo real”, diz o relatório, intitulado “The Fake News Machine” (“A Máquina de Notícias Falsas”). “Elas não podem mais ser desprezadas como ‘coisas que acontecem na internet’. O que acontece dentro do Facebook, Twitter e outras plataformas de mídia social pode mudar o rumo de nações”.
Em comentário sobre relatório, o editor da revista MIT Technology Review, Jamie Condliffe, escreve que os montantes revelados mostram que os grupos interessados em coibir a disseminação de notícias falsas têm uma batalha difícil pela frente, notando que “moldar a opinião pública usando conteúdo falso é muito barato: os números são, no fim, uma bagatela se comparados aos orçamentos de publicidade de muito conteúdo legítimo”.
Pagamento por cliques
A análise identificou serviços como o russo VTope, uma plataforma de trabalho coletivo onde os participantes ganham “pontos” por completar tarefas como clicar em, ou compartilhar, certas notícias e vídeos, ou promover certos perfis. Os pontos podem, depois, ser trocados por promoções de interesse próprio. “Pontos podem ser comprados sob a forma de cupons disponíveis no site, mas também estão disponíveis em mercados underground”, diz o relatório.
Um concorrente do VTope é o SMOFast, que alega ter 500 mil usuários registrados, “capazes de fornecer tráfego (e estatísticas) de visitantes reais para certas plataformas”. Outros serviços oferecidos incluem o “povoamento” de grupos em redes sociais, com contas de pessoas reais e robôs, envio de solicitações de amizade, cliques de “dislike” e promoção de vídeos no YouTube.
Na China, o Sistema Boryou Influenciador de Opinião Pública alega ser capaz de monitorar 3 mil websites e fóruns online, publicando postagens e comentários, automaticamente ou de forma manual. Outra empresa chinesa, ftx9, vende a postagem de conteúdo determinado pelo cliente, mas assinado por grandes influenciadores digitais.
Há ainda companhias que vendem visualizações de postagens, e seguidores. É possível comprar 5 mil seguidores na rede social chinesa Weibo por US$ 66. Em várias partes do mundo, serviços oferecem postagens de notícias e comentários falsos, baseados em gabaritos preestabelecidos – com inclinação positiva ou negativa, por exemplo – às centenas ou milhares.
Contramedidas
O relatório faz uma análise do comportamento dessas repassadoras de notícias falsas, notando que, enquanto o tráfego normal das redes sociais tem um caráter descentralizado, as manipulações seguem uma estrutura de “guru e seguidores”, onde uma fonte única é replicada por diversas outras – muitas das quais geram pouquíssimo conteúdo próprio, limitando-se a reemitir o que foi postado pelo “guru”. Mas nem todas as contas de seguidores são robôs.
“Uma campanha de propaganda bem planejada é projetada para parecer um caso de pressão dos pares – robôs fingindo ser humanos, contas-guru que adquiriram boa reputação nas mídias sociais – essas coisas podem fazer a história plantada pela campanha de propaganda parecer mais popular do que realmente é”, aponta o relatório.
“Uma vez que a campanha tenha convencido uma parcela suficiente do público, outros efeitos entram em ação. Quando o ‘efeito manada’ opera, as pessoas começam a acreditar numa coisa só porque ela é popular, num ciclo que se perpetua”.
Para além de solução baseadas em regulamentação e tecnologia, os analistas da consultoria lembram que “numa época de pós-verdade, em que é fácil fabricar notícias, mas difícil checá-las, cabe essencialmente aos usuários discernir melhor a veracidade das histórias que leem e evitar a proliferação maior das notícias falsas”.
Eles apresentam uma lista de sinais de alerta, como manchetes exageradas, ausência de data, do nome do autor ou de fontes. Sugerem, ainda, que os leitores confiram o conteúdo completo da notícia para determinar se ele corresponde ao título ou não se trata de uma sátira, vejam se os comentários são postados por pessoas reais ou robôs e façam buscas com as imagens apresentadas, para ver se não foram alteradas.
Limite humano
Mas esses conselhos podem acabar neutralizados pelos limites naturais da atenção humana. Estudo publicado no fim de junho em Nature Human Behavior, intitulado “Limited individual attention and online virality of low-quality information” (“Atenção individual limitada e viralidade online da informação de baixa qualidade”) testa um modelo teórico de difusão de informações por uma rede. O modelo leva em conta a qualidade da informação, a quantidade de informação e a capacidade de atenção dos integrantes.
“Investigamos a disseminação de qualidade num modelo estilizado de rede social online, onde agentes individuais preferem informação de qualidade, mas têm limitações comportamentais para administrar um fluxo pesado de informações”, escrevem os autores. “Medimos a relação entre a qualidade de uma ideia e a probabilidade que ela tem de se tornar prevalente no nível sistêmico”.
Embora o modelo tenha revelado que é possível existir um equilíbrio virtuoso entre carga informacional, diversidade do conteúdo e discernimento dos usuários, os autores ressaltam que “a sobrecarga de informação e a atenção limitada contribuem para uma degradação do poder de discernimento do conjunto”.
Quando o sistema é calibrado com dados que refletem a situação de carga informacional e de atenção prevalentes no mundo real, “as mídias sociais revelam uma correlação fraca entre qualidade e popularidade (...) nessas condições realistas, o modelo prevê que a informação ruim tem tanta probabilidade de viralizar” quanto a boa.
O artigo aponta que um modo de melhorar o poder das redes em separar o joio do trigo seria coibir o uso de robôs. “Nossos resultados sugerem que um modo de aumentar o discernimento das mídias sociais online seria reduzir a carga informacional”. Um modo de reduzir essa carga estaria na eliminação de contas “fantasmas” administradas por software.
Deixe sua opinião