Ouça este conteúdo
Depois de sucessivos escândalos, o Facebook, que agora se chama Meta, anunciou esforços específicos para combater desinformação nas eleições de países que não falam inglês. Trabalhar nesse tema exige que você construa toda uma estrutura de inteligência artificial voltada para o idioma e também para suas particularidades regionais.
Conforme uma delação feita recentemente no Congresso dos Estados Unidos, o Facebook investe nos idiomas dos países que estão mais próximos de impor sanções para os danos que ele causa. Não é o caso do Brasil. Aqui as autoridades ainda não compreendem a complexidade das operações de desinformação, em especial nas eleições, e estão focadas em derrubar post e censurar conteúdo.
Basta financiar duas ou três iniciativas que são baratas para o Facebook e celebradas pela mídia afirmando combater desinformação sem apresentar resultados e fazer um pouco de marketing.
Por esse foco, a plataforma sabe que estão muito longe de tocar em questões realmente importantes para os negócios. Então não precisa gastar dinheiro investindo pesado no que realmente combate desinformação. Basta financiar duas ou três iniciativas que são baratas para o Facebook e celebradas pela mídia afirmando combater desinformação sem apresentar resultados e fazer um pouco de marketing.
É uma forma de ganhar tempo e distribuir investimentos. Quando um país começa a chegar perto de regulamentar de forma a tornar mais caro causar prejuízo à democracia do que investir em inteligência artificial de combate à desinformação, o investimento é feito.
Aqui é preciso separar operações de desinformação de imprecisões, falhas ou mentiras. São coisas diferentes com diferentes níveis de sofisticação. Desinformação é utilizada até em operações de guerra, também pode ser feita só com verdades, é intencional e organizada.
No debate político brasileiro, muita gente importante traduz de maneira errônea fake news como notícia falsa ou mentira. Isso iguala fenômenos muito diferentes, com desdobramentos e soluções absolutamente diferentes.
O Facebook é uma das plataformas que aderiu a compromissos oficiais de combate à desinformação nas eleições com o TSE. O problema dessa história é que não cumprir não traz consequências. Então ele não cumpre. E eu desconfio que ninguém vai mover uma palha para cumprir. Além de colocar a assinatura, fez seu marketing, criando uma página específica sobre o que faz para combater desinformação nas eleições e dizendo quais países são prioritários. O Brasil é um deles.
VEJA TAMBÉM:
“Investimos amplamente em equipes e tecnologias para dar mais segurança às eleições. Desde 2016, triplicamos o tamanho das nossas equipes que trabalham nas questões de segurança e proteção para incluir mais de 35 mil pessoas. Além disso, criamos a central de operações eleitorais para importantes eleições nos EUA, no Brasil, na Índia, na Europa e em outras partes do mundo. Também realizamos melhorias significativas para reduzir a disseminação de desinformação e oferecer mais transparência em relação aos anúncios sobre temas sociais, eleições ou política”, diz o Facebook.
Pois bem, a ONG internacional Global Witness resolveu testar. O ambiente digital pré-eleitoral do Brasil é muito semelhante ao que foi verificado em Myanmar, Etiópia e Quênia. Os três países tiveram confrontos físicos decorrentes dessa tensão social. No Quênia, houve um processo de desconfiança da urna eletrônica, que foi substituída por cédulas de papel. Daí começaram a desconfiar das cédulas de papel. Agora, desconfiam da contagem. Teve observador internacional do mundo todo, o resultado é apertado e ninguém se arrisca a bater o martelo em quem seja o vencedor. Ninguém reconhece a derrota.
Em todos esses países, o Facebook foi incapaz de detectar operações de desinformação amplas nas eleições, que depois foram levantadas por pesquisadores. No Brasil, provavelmente ocorre o mesmo. A ONG Global Witness resolveu fazer um teste sobre o empenho do Facebook em combater desinformação em português. Começou com o básico do básico. E a falha foi vergonhosa.
Esqueça essas operações amplas de desinformação simultâneas em várias plataformas, usando fatos verificáveis e conexões duvidosas entre eles. Vamos ao básico do básico: informação que você paga para o Facebook distribuir e sinaliza que é de política. Segundo a Big Tech, existe um rigor maior sobre esse material. Moralmente é o mínimo, já que eles aprovam antes e lucram diretamente com a distribuição. “Para veicular um anúncio sobre temas sociais, os anunciantes primeiro devem passar pelo nosso processo de autorização, que inclui o fornecimento de informações sobre a identidade e a localização deles. Anúncios sobre temas sociais, eleições ou política incluem os rótulos ‘Pago por’ para mostrar quem é o responsável pelo anúncio.”, diz o site da empresa.
Adultos brasileiros continuam acreditando que Big Techs combatem desinformação, mesmo sendo quem mais lucra com isso e o único setor econômico que lucra com isso.
A ONG resolveu testar e montou 10 anúncios em português. Primeiro verificou todas as políticas de uso do Facebook para garantir que burlaria com certeza. Metade eram anúncios com mentiras deliberadas e a outra era desacreditando as urnas eletrônicas. Nesse rigoroso processo, para poder fazer anúncios políticos pagos, você teria de verificar a conta, ou seja, fornecer sua identidade para o Facebook. Tomaram o cuidado de fazer de uma conta não verificada.
Um exemplo de mentira foram anúncios com a data errada da votação ou locais errados de votação. São fatos e facilmente verificáveis, não há desculpa. A política do Facebook diz que não permite anúncios que possam induzir o eleitor a erro que o leve a não votar. Os anúncios e pagamentos foram feitos do Quênia e de Londres, pagos em moeda local deles. A ONG não preencheu a informação de quem paga o anúncio que, segundo o site do Facebook, é algo obrigatório. Todas as exigências mais básicas foram burladas. A ONG ficou por alguns dias esperando que os anúncios fossem rejeitados. Para surpresa da Global Witness, sem que houvesse nenhuma nova ação, o Facebook aprovou todos e colocou em circulação.
Foi a própria Global Witness que tirou imediatamente os anúncios do ar e procurou o Facebook para entender o que aconteceu. A resposta foi simplesmente sensacional: “estamos e sempre estivemos profundamente comprometidos em proteger a integridade das eleições no Brasil e em torno do mundo”. Sinceramente, me faltam até comentários. Não houve nenhuma intervenção do Ministério Público Eleitoral nem do Tribunal Superior Eleitoral depois do evento.
Adultos brasileiros continuam acreditando que Big Techs combatem desinformação, mesmo sendo quem mais lucra com isso e o único setor econômico que lucra com isso. Nessas horas, não tenho certezas e uma única dúvida me martela a cabeça: que tipo de ficção será capaz de superar nossa realidade?