Ouça este conteúdo
Todas as vezes em que você ouvir falar em controle de conteúdo pelas redes sociais tenha a certeza de que há uma pegadinha na história. Sem anúncio prévio, o Facebook iniciou a "Redirect Initiative", um projeto que teria o propósito de evitar engajamento com conteúdo extremista na plataforma.
>> NOVIDADE: faça parte do canal de Vida e Cidadania no Telegram
As redes sociais têm sido muito cobradas pelos governos, já que há mais de 5 anos a maioria dos atentados terroristas nos Estados Unidos e Europa tem sido cometida por pessoas que se radicalizaram via redes sociais. A proposta é mais uma que envolve pessoas sérias no combate ao extremismo e faz promessas maravilhosas que não tem como entregar.
A ação foi percebida por usuários dos Estados Unidos, Austrália, Reino Unido, Alemanha e Indonésia. Ao navegar normalmente no Facebook, começaram a receber mensagens sobre extremismo. Duas eram as mais comuns:
"Você está preocupado porque alguém que você conhece está se tornando um extremista? Nos preocupamos em prevenir o extremismo no Facebook. Outros na sua situação receberam suporte confidencial."
"Grupos violentos tentam manipular sua raiva e decepção. Você pode agir agora para proteger a si mesmo e aos outros."
Clicando no botão "Get Support", o usuário dos EUA entra em contato com especialistas de uma organização muito séria e respeitada, a "Life After Hate", Vida após o Ódio. Fundada por um ex-extremista, reúne grandes especialistas em recuperar a sanidade de quem encontra refúgio em algum tipo de extremismo, seita ou processos autodestrutivos. Até aí, tudo maravilhoso. O problema é o critério do Facebook para decidir o que é ou não extremismo. Ninguém sabe.
O programa foi testado com 25 usuários - que serviram de cobaias sem saber, o que beira a criminalidade - entre novembro de 2019 e março de 2020. Um relatório produzido pela consultoria Moonshot garante que o resultado foi um sucesso. A tela com a oferta de ajuda especializada aparecia todas as vezes em que alguém fez ativamente uma busca identificada como conteúdo extremista.
No período avaliado, foram 57523 buscas feitas e apenas 2288 clicaram no banner. Foram 55235 que continuaram com as buscas. Dos que clicaram no banner, 2034 fecharam o site e 254 continuaram, dos quais apenas 25 pediram ajuda. Com esses 25, a ajuda foi um sucesso, por isso o programa foi considerado um sucesso.
Eu não duvido que as organizações especializadas na recuperação de extremistas o façam se colocadas em contato com eles, mas não parece o que está sendo feito no caso. O Facebook não informa o que definiu ser extremismo e acaba de ser denunciado por aprovar veiculação de propaganda paga de terroristas separatistas da Irlanda do Norte. Além disso, se o resultado aparece na busca, quem coloca lá é o Facebook, não o usuário. Por que oferecer o resultado se diz que é extremismo?
Agora vamos ao processo para detectar extremismo online. Cientificamente, ele ainda está em construção. Anteontem, foi publicado na revista Nature um estudo que uniu 8 universidades de diversos países e especialistas em ciências sociais, comunicação, tecnologia da informação, ciência política e métricas exatamente sobre o tema. No mundo inteiro, o desafio é descobrir como tirar conclusões válidas cientificamente de um material que não foi coletado de forma científica.
O estudo "Meaningful measures of human society in the twenty-first century" (Medidas significativas da sociedade humana no século XXI) tem o foco em como extrair dados que tenham validade científica de um material que não foi produzido com essa finalidade. Por exemplo, como atestar que um grupo online é extremista por postagens de internet com a finalidade de recrutamento ou socialização entre os membros. Antes que tivéssemos internet, os estudos eram por observações vindas de infiltração nos grupos, não da coleta de conversas aleatórias.
A publicação científica mais recente sobre como obter dados com validade científica a partir de postagens em redes sociais aponta que: "Para pesquisas baseadas na Internet, tanto as características básicas da população quanto os mecanismos subjacentes que estruturam o comportamento do usuário em plataformas digitais permanecem relativamente mal compreendidos. Muitos conceitos básicos permanecem difíceis de medir, mesmo em plataformas online que oferecem acesso fácil aos dados para os pesquisadores. Apesar dos milhares de artigos baseados em dados do Twitter nos últimos anos, estudiosos de mídia social ainda acham que identificar as características demográficas de usuários individuais continua sendo um grande desafio. Além disso, os pesquisadores ainda não conseguem distinguir com segurança humanos de não humanos (por exemplo, bots, contas coletivas ou organizações), embora tenha havido avanços importantes nessa direção".
Aqui entramos na área do negacionismo científico. O que diz a ciência? O que está no parágrafo acima: ainda é um grande desafio identificar comportamentos do usuário nas plataformas digitais, estamos progredindo nisso. Foram anos de pesquisa e mais de um ano só na revisão antes da publicação. Analisando o comportamento de 25 usuários em 3 meses o Facebook garante que consegue identificar e reverter comportamento extremista. Deve ser milagre.
Assuntos relativos a espiritualidade e transcendência sempre me encantaram. Resolvi investigar qual a metodologia que o Facebook usa para conseguir identificar o que nem a ciência consegue: comportamento individual a partir de postagens em redes sociais. Descobri: é uma seleção de palavras-chave.
"A seleção de palavras-chave foi um esforço colaborativo entre os parceiros de entrega individuais e o Facebook. Ambos os parceiros de entrega forneceram ao Facebook uma longa lista inicial de termos potenciais, que o Facebook então submeteu a testes extensos de certificação e qualidade. Várias equipes no Facebook revisaram cada palavra-chave para verificar, entre outras coisas: se havia significados alternativos; quanto do conteúdo está relacionado ao extremista violento ou à rede baseada no ódio em questão; e se o termo tinha significados diferentes em diferentes geografias", informa o relatório feito pelo Facebook.
Ou seja, o Facebook diz textualmente que está avisando sobre envolvimento com extremismo ou exposição a conteúdo extremista, mas não está fazendo isso. Sem nenhuma base linguística, sociológica ou antropológica, uma consultoria particular decidiu em meses que determinadas palavras-chave indicam extremismo. Qual o embasamento? Achismo. Pode parecer fazer sentido, mas não tem pé nem cabeça e afeta milhões de pessoas.
Quando essa história chegar no Brasil, bato aposta que vai ter um monte de colegas meus, jornalistas, comemorando o fim do extremismo nas redes. A gente é de humanas, sei bem como é traumático esse processo de ter de aprender exatas para continuar atual. Até hoje não me recuperei psicologicamente disso. Havia escolhido jornalismo justamente para não precisar jamais fazer conta. Grata por lerem meu desabafo. Prossigo com a explicação.
Um outro caso muito parecido teve um desfecho completamente patético alguns anos atrás. O Instagram, que é uma empresa do Facebook, estava virando um quadro de anúncio de garota de programa e anunciou medidas contra a comercialização de sexo e a pornografia. Foi aplaudido no mundo todo. A idade dos usuários começa aos 13 anos, aquilo realmente não pode estar ali. Daí, eles censuraram um cotovelo.
O caso anedótico do cotovelo censurado como se fosse um seio nu ilustra exatamente a lambança que pode virar essa história de sinalizar "extremismo". A plataforma diz publicamente que não permite mais pornografia, mas programa os algoritmos da sua inteligência artificial para identificar determinadas imagens. Elas podem ou não ser pornografia. Serão derrubadas imagens que não são e mantidas imagens que são. A premissa está errada.
Essa história de sinalizar postagens de "extremismo" é a mesma coisa. O Facebook anuncia isso, mas está fazendo algo diferente. A sinalização é feita sobre postagens que contenham determinadas palavras e elas podem ou não ser extremistas. Serão derrubadas algumas que não são e mantidas outras que são. Aliás, o Facebook acaba de aprovar publicidade paga de extremistas.
A ONG britânica Global Witness, que é dedicada a uma multiplicidade de causas desde 1993, fez um experimento interessantíssimo. Inspirada numa investigação que detectou páginas de recrutamento de terroristas separatistas da Irlanda do Norte, resolveu colocar anúncios pagos no Facebook incitando violência política. Anúncios políticos, segundo o Facebook, passam por uma revisão especial e individual, muito mais profunda que desses posts sinalizados como extremismo.
Pois bem, eles conseguiram colocar no ar, direcionado exatamente ao público mais crítico dos terroristas de extrema-esquerda remanescentes do IRA um anúncio incentivando violência física. "Votar não funcionou, leve para as ruas", ao lado de um carro queimado. Sendo numa região crítica de ataques terroristas, fica evidente que é extremismo. Mas observe as palavras, não tem nada extremista aí. Passou no crivo do Facebook. A ONG retirou o anúncio assim que conseguiram aprovar.
Uma apuração feita pelo Tech Transparency Project mostrou que dezenas de milícias armadas extremistas recrutaram jovens na mesma área via Facebook durante anos. Não precisa ser um gênio para ver que a imagem abaixo não é chamado para um grupo de estudos bíblicos. Mas quais são as palavras? "Nós estamos em todos os lugares". Para o Facebook, não tem extremismo, só tem se tiver as tais palavras que ele inventou que são necessárias. O Estado Islâmico conseguiu recrutar mais de 40 mil jovens pelo Facebook.
Pode parecer que as redes sociais só dão cabeçada, mas é exatamente o oposto. Certa vez, diante de uma situação delicada para mim no STF, um ministro muito querido deu um conselho valioso. "Filha, confie na incompetência humana. Se tem algo que jamais te deixará na mão, é a incompetência". Recomendo. Não falha nunca. Enquanto a imprensa, formadores de opinião, autoridades e políticos acreditarem que plataformas não controlam o conteúdo que ativamente distribuem, teremos essas patacoadas.
A grande briga é para não haver nenhum tipo de regulamentação internacional, algo que as Big Techs empurrarão com a barriga enquanto podem. Esta semana, o Facebook atingiu o valor de Market Cap de US$ 1 trilhão após uma decisão judicial favorável nas investigações antitruste nos Estados Unidos. Mas há inúmeros projetos no mundo inteiro equilibrando a atuação deste segmento, estamos em plena transformação e as empresas vão resistir.
Há quem veja as Big Techs como maldosas. Pode até ser. Mas, verdade seja dita, enquanto houver otário, malandro não morre de fome. O primeiro problema público com algoritmo do Facebook e testes psicológicos sem consentimento das cobaias humanas foi em 2010. Em 2021 ainda tem político e jornalista defendendo derrubada de post, derrubada de perfil e acreditando que redes sociais lutam contra desinformação. Ser otário é um luxo caro.
Eu não sei quem é o mais antigo sábio político que recomendou dividir para governar. Mas é capaz de, no futuro, acharem até alguém que escreveu isso em pintura rupestre numa caverna. Continua funcionando e funcionará até o final dos tempos. Ao colocar políticos, jornalistas e público em bolhas, brigando uns contra os outros em seus próprios países, as Big Techs conseguem ganhar mais tempo até que se tenha consenso sobre qual tipo de regulamentação é conveniente. Tempo é dinheiro.
Ontem, o governador do Rio Grande do Sul, Eduardo Leite, assumiu publicamente que é homossexual. Não deu dois minutos para que a foto do governador sem camisa tomando chimarrão virasse um hit no whatsapp. Ganhou fãs incondicionais em todos os matizes políticos pela coragem de se assumir homossexual durante um mandato de governador de Estado, algo inédito no Brasil.
Infelizmente, o ex-deputado Jean Wyllys, que é o responsável pela emissão da carteirinha de certificação dos políticos gays brasileiros, não aprovou a saída do armário e disse poucas e boas no Twitter. Adivinha quem endossou? O grande intelectual brasileiro Felipe Neto. Até gay que nunca militou saiu em defesa do governador. O que o Twitter considerou discurso de ódio? Defender Eduardo Leite.
Trago o exemplo para mostrar que a tese terraplanista de que o controle de palavras identifica discurso de ódio tem consequências importantes na democracia. As redes sociais dizem combater desinformação, fake news, discurso de ódio e agora extremismo. Esse discurso acaba colando porque não são feitas as perguntas necessárias. Mas o que elas fazem é proibir algumas palavras segundo critérios que inventam, o que desequilibra debates políticos importantes.
Alessandro Alvarenga, designer mineiro reconhecido internacionalmente, quis dar uma alfinetada no ex-deputado pelas postagens ressentidas. Casado há anos com um psicólogo, não milita politicamente embora seja muito bem informado e tenha ideologia. É o primeiro homossexual a ter uma união estável reconhecida post-mortem no Estado de Minas Gerais, abrindo caminho para que vários outros homossexuais garantissem seus direitos civis.
O designer não pôde fazer sua postagem e ainda teve sanções a todas as atividades de sua conta no Twitter. A rede social considerou que o post dele era discurso de ódio. "Você não pode promover a violência contra outras pessoas, ameaçá-las ou assediá-las com base em raça, etnia, orientação sexual, sexo, identidade, gênero, religião, idade ou deficiência séria.", diz o comunicado. Até fiquei pensando o que seria deficiência não séria e qual o limite do que pode. Mas, enfim, ele não tem "lugar de fala" para dizer o que disse?
Veja agora uma série de postagens que o Twitter não só permitiu que fossem feitas livremente, mas que também analisou após denúncia e garantiu que não são discurso de ódio nem violam as diretrizes da plataforma. O post acima não pôde ser feito porque considera-se que é uma violência, ameaça ou assédio. Já os posts que você vê abaixo não são nada disso, segundo o Twitter.
Durante muito tempo, também fui da turma que imaginou tratar-se de perseguição ideológica. Faz sentido porque o marketing das plataformas é todo lacrador. Mas plataformas de esquerda também são injustiçadas. Outro dia, o jornalista Bob Fernandes teve vídeos derrubados e sanções por reproduzir declarações oficiais do presidente Jair Bolsonaro. A ideologia das Big Techs chama-se dinheiro. Essa coisa de apego a princípios é mania de gente que, vira e mexe, vai parar no cheque especial.
Qual a diferença entre o que foi considerado discurso de ódio e o que não foi? As expressões usadas. Segundo o terraplanismo das plataformas, que não tem nenhum fundamento científico, determinadas palavras significam necessariamente determinados comportamentos humanos.
A postagem com a palavra "viado" é discurso de ódio necessariamente. Já as expressões "tem de sentar o dedo no gatilho", "depois paga no filho", "larga o aço nas fuças dela", "caridade do fiofó" e "está querendo levar umas pirocadas" provavelmente não estão no rol escolhido pela plataforma como marcador de discurso de ódio, violência ou assédio porque não são tão óbvias.
Não faz nenhum sentido na vida real. Mas é possível entender como se chega a essa distorção lendo o relatório da consultoria Moonshot que considera um sucesso a Redirect Initiative do Facebook. Em um universo de mais de 50 mil mensagens rotuladas, 25 buscaram ajuda de grupos contra extremismo e o apoio foi útil. Ou seja, é um sucesso em 0,05% do total dos casos sinalizados e isso não é exatamente uma iniciativa de sucesso, embora eu fique feliz pelas 25 pessoas que encontraram paz.
Agora chegamos ao ponto nevrálgico dessa história toda. As plataformas são ou não são responsáveis pela moderação de conteúdo? Vivemos uma situação insustentável, uma meia-gravidez. Quando convém, a plataforma modera o conteúdo seguindo regras que inventa e justifica de forma completamente lunática. Quando cobrada por danos reais, diz que apenas hospeda conteúdo e não modera. É necessária uma decisão e vários governos estão trabalhando nisso.
O que nós, cidadãos, podemos fazer diante de toda essa situação? Quando analisamos, parece que viramos mais que reféns, que somos fantoches, estamos de mãos atadas. É natural que as pessoas queiram protestar nas redes, expressar o que pensam, construir plataformas próprias, brigar pela liberdade. Temos de ter em mente que viver um momento histórico é um privilégio altamente incômodo que nos foi dado pelo destino.
O poder político e o poder econômico, que realmente podem fazer diferença nesse jogo com as Big Techs, já estão se movimentando em todo o mundo. É um processo de acomodação e nós estamos bem no meio dele. A maldição da pandemia de COVID-19 acelerou tudo. Toda mudança é incômoda e essa também é rápida demais, então temos a sensação de impotência e a tendência de ver com mais nitidez perdas do que ganhos.
A internet trouxe a cada um de nós possibilidades que jamais imaginamos. Temos de admitir isso, vivemos um milagre da tecnologia. Cada um de nós tem hoje diante de si possibilidades de desenvolvimento pessoal e profissional que não imaginávamos ser possíveis quando éramos crianças. Temos na palma da mão informações que transformam nossa existência. Décadas atrás, precisávamos fazer anos de esforço para conseguir essas mesmas coisas.
Nesse momento de disputa de poder entre as Big Techs, o poder político e o poder econômico tradicional, qual é o poder do cidadão comum? Informação sobre o funcionamento das redes e sobre o comportamento humano. Tudo o que é difícil para um ser humano é fácil para as máquinas - e vice-versa. Autoconhecimento e valores são a nossa força agora.
Os algoritmos nos dão exatamente o que pedimos. Essa é a beleza e a desgraça deles. Precisamos aprender a pedir o que queremos e parar de cair em manipulações emocionais e divisionismos. É uma fase de adaptação que as Big Techs tentarão esticar o máximo possível, mas que terá um ponto final. Creio que o melhor conselheiro para este momento é Paulinho da Viola em "Argumento".
Faça como o velho marinheiro
Que durante o nevoeiro
Leva o barco devagar
Você pode não entender nada de tecnologia, de internet nem de redes sociais, mas entende de gente e, principalmente, das pessoas que você ama. Estamos diante de oportunidades que nunca imaginamos e também de problemas que parecem filme de ficção científica. Nesses momentos, convém evitar paixões e soluções fáceis para problemas difíceis.