Encontre matérias e conteúdos da Gazeta do Povo
Madeleine Lacsko

Madeleine Lacsko

Reflexões sobre princípios e cidadania

Redes sociais

YouTube brasileiro é o mais tóxico do mundo, mostra estudo da Mozilla Foundation

imagem ilustrativa
Pesquisa com 37 mil usuários em 91 países mostra que algoritmo do YouTube privilegia vídeos tóxicos. (Foto: NordWood Themes/Unsplash)

Ouça este conteúdo

No mundo, o brasileiro é quem mais se arrepende de ter clicado para ver um vídeo no YouTube. É o que mostra o levantamento inédito YouTube Regrets, feito pela Mozilla Foundation usando dados de mais de 37 mil usuários voluntários em todo o mundo. O arrependimento é por ter clicado num vídeo pensando que seria interessante, mas passar por uma experiência tóxica ou desagradável.

>> NOVIDADE: faça parte do canal de Vida e Cidadania no Telegram

Usuários de 91 países instalaram uma extensão chamada YouTube Regrets no navegador e, quando arrependiam-se de ter clicado em um vídeo, acionavam essa extensão, que coletava todos os dados da experiência. O grosso do conteúdo tóxico não é buscado pelo usuário, é empurrado pelo YouTube. O fenômeno é ainda mais forte nos países que não falam inglês.

É importante notar que existe uma diferença entre o que você busca ativamente no YouTube e o que o YouTube decide ser importante distribuir para as pessoas sem que elas tenham pedido claramente. Quando as pessoas fazem uma busca por um vídeo, a sinalização de arrependimento ou de material tóxico é residual.

Ocorre que a maioria das visualizações no YouTube, 70% dos vídeos, ocorre por sugestão da própria plataforma. São aproximadamente 700 milhões de horas de vídeo visualizadas a cada dia. Entre esses vídeos recomendados pelo algoritmo do YouTube, o índice de arrependimento ao ter clicado é 40% maior que entre os vídeos buscados ou recebidos de terceiros.

Não caiamos no erro de minimizar os vídeos que as pessoas se arrependem de ter visto. Vai bem além de radicalização política ou divergência de opinião. Falamos de desenhos animados pornográficos oferecidos para crianças, cenas de violência e morte com personagens semelhantes ao que elas buscaram e glamurização de doenças como anorexia, por exemplo. A maioria, em tese, nem é permitida pelo próprio YouTube, mas ele recomenda até para crianças.

Os vídeos sugeridos pelo algoritmo são aqueles que ficam numa miniatura ao lado dos vídeos que estamos assistindo ou a reprodução automática de um vídeo na sequência. Todos nós já passamos pela experiência de buscar algo ameno, como animais ou culinária, e receber sugestões de pautas políticas, teorias conspiratórias, violência e sexualização.

É uma escolha da plataforma oferecer esses vídeos e ela tem consequências sobre quem não compreende bem o funcionamento da internet ou pessoas com vulnerabilidades emocionais, sobretudo crianças, adolescentes e idosos. Não se sabe exatamente por que o algoritmo recomenda vídeos cada vez mais extremos nem qual o critério, as plataformas não informam.

Pela lógica da indústria, a conclusão é de que se oferece o conteúdo sob medida para cada um dos usuários ficar mais tempo usando produtos da mesma plataforma. Como nossos dados - movimento dos olhos, das mãos, 24 horas de gravação do microfone por dia, por exemplo - são coletados o tempo todo, a Inteligência Artificial prevê o tipo de conteúdo com o qual teremos mais interação e nos fará ficar mais tempo na plataforma.

Um exemplo real coletado pela Mozilla Foundation é a história de um casal que estava na sala com a netinha de 8 anos. A menina estava vendo no tablet deles um vídeo sobre crianças que tinham alguma doença mas eram felizes e faziam coisas sensacionais. No dia seguinte, ela começou a entrar em pânico sobre o fato de alguém na família ter câncer ou a água e a comida que eles consomem serem cancerígenas.

Ao ouvir a neta de 8 anos dizer aos pais que não queria comer nem beber nada porque estava com medo de câncer, os avós questionaram onde ela ouviu aquilo. A menina contou que, após o vídeo de superação das crianças, o YouTube sugeriu outros e ela clicou julgando ser uma sequência. Eram vídeos que mostravam consequências físicas do câncer, com imagens de pessoas desfiguradas e pele necrosada.

Um usuário relata que é fã de games e sempre vê esses canais, onde é comum que os apresentadores façam piadas sobre maconha. De repente, o algoritmo começou a mostrar para ele na tela inicial, nas recomendações e nos vídeos seguintes uma montanha de vídeos sobre maconha. Onde comprar, como fumar, os melhores tipos, enfim, uma enciclopédia de maconha em vídeo.

Uma pessoa que procurava vídeos de decoração começou a receber sugestões de vídeos com acidentes graves em canteiros de obras. Um usuário que cria cavalos começou a receber uma enxurrada de sugestões de cavalos copulando. Um estudante que pesquisou "calcanhar de Aquiles" em inglês (Achiles' heel) começou a receber uma enxurrada de outro tipo de "heel", salto alto, mulheres nuas fazendo pole dance.

“Quando as recomendações funcionam como desejado, elas ajudam os usuários a encontrar uma nova música para se apaixonar, descobrir seu próximo criador favorito ou aprender aquela ótima receita de paella. É por isso que atualizamos nosso sistema de recomendações o tempo todo - queremos ter certeza de estamos sugerindo vídeos que as pessoas realmente querem assistir.”, disse o YouTube sobre o algoritmo de recomendações em 2019. Não parece ser a experiência relatada pelos usuários.

No entanto, receber o conteúdo que mais ama é a experiência de um grupo bem preocupante, pedófilos e abusadores sexuais de crianças. É o que mostrou no ano passado uma reportagem investigativa do Huffington Post chamada "O YouTube é o paraíso dos pedófilos". Descobriu-se que vídeos familiares e inocentes com crianças em piscinas e tomando banho, por exemplo, são entregues pelo algoritmo a quem busca pornô infantil.

Tipos de vídeos que mais fazem as pessoas dizerem estar arrependidas de dar o play

Entre os tipos de vídeos que mais fazem as pessoas dizerem ter se arrependido de dar play o primeiro lugar absoluto é da desinformação. Juntando invenção de lorota geral com invenção de lorota sobre a pandemia, temos aproximadamente 1/3 dos vídeos sinalizados por quem participou do YouTube Regrets. Ninguém gosta de ser enganado.

Bom, mas se as pessoas sabiam ser mentira, então não tem problema nenhum, certo? Errado. Desinformação, a lorota a rodo e de propósito, é uma das técnicas mais antigas de manipulação de propaganda russa, largamente utilizada na época da União Soviética e aprimorada com a internet.

De tanto ver absurdo, as pessoas vão ficando exaustas de checar e não conseguir encontrar a verdade. Desistem pelo cansaço e a verdade deixa de ser importante. Não há duas pessoas, uma que vive na internet e outra que vive fora. As pessoas acabam adotando esse comportamento em todas as áreas da vida, então torna-se muito mais fácil que sejam manipuladas por esquemas organizados de propaganda.

O Brasil é o pais em que mais se reclamou de ver vídeos que não prestam, tem a maior taxa de reclamações por visualização de toda a pesquisa. Um dado interessante apontado é que o conteúdo tóxico é mais frequente em países que não são de língua inglesa. Tem uma explicação interessante. Como a sede do YouTube é no Vale do Silício, toda política é elaborada primeiro em inglês. As traduções e implementações são feitas conforme os governos cobram.

O relatório da Mozilla Foundation tem 4 conclusões principais:
● Cerca de 9% dos vídeos denunciados pelo projeto foram retirados do
YouTube, incluindo vários que antes eram recomendados e depois foram retirados por violar diretrizes e regras das próprias plataformas. Antes que fossem derrubados, esses vídeos tiveram 160 milhões de visualizações.
● As recomendações são desproporcionalmente responsáveis pelos arrependimentos do YouTube. 71% de todos os relatórios de arrependimento vieram de vídeos recomendados aos nossos voluntários, e os vídeos recomendados tinham 40% mais chances de provocar arrependimento do que os vídeos buscados.
● Vídeos que causam arrependimento tendem a ter um bom desempenho no YouTube. Vídeos denunciados têm 70% mais visualizações por dia do que outros vídeos assistidos por nossos voluntários.
● Recomendações lamentáveis geralmente não são provocadas. Em 43,3% dos casos onde temos dados sobre tudo o que um voluntário assistiu antes de um arrependimento, a recomendação feita pelo YouTube era completamente alheia aos vídeos anteriores que o voluntário assistiu.

O legislador brasileiro ainda está fazendo um debate que acabou em 2010, com a mudança dos algoritmos para privilegiar microssegmentação. Debate de forma apaixonada que postagem ou perfil deve ficar ou não nas redes sociais e a liberdade de expressão nas redes, coisa que não existe desde 2010 porque cada plataforma filtra o que vemos e decide como quer pela distribuição do nosso conteúdo. Outros parlamentos estão debatendo a questão das redes sociais já em 2021, é um alento.

O nosso vizinho, Chile, está fazendo uma nova Constituição e incluindo Direitos Neurais como Direitos Fundamentais. Em abril deste ano, o Congresso dos Estados Unidos promoveu um debate chamado "Algoritmos e amplificação: como as escolhas de design das plataformas de mídia social moldam nosso discurso e nossas mentes", reunindo representantes das Big Techs e cientistas. Aqui, tem congressista ainda falando em derrubar post como se fosse coisa moderna.

Neste encontro nos Estados Unidos houve uma questão crucial que é abordada no relatório YouTube Regrets da Mozilla Foundation e não tem resposta. Entre os vídeos mais extremos, mais prejudiciais e mais violentos que bombaram no YouTube, qual o percentual dos milhões de visualizações é espontâneo e qual o percentual de visualizações por recomendação ativa do YouTube aos usuários. Não foi respondido na época e não tem resposta até hoje.

A maioria dos vídeos é vista porque foi recomendada pela plataforma e, como mostra o relatório, em grande parte dos casos isso não tem nenhuma relação com os vídeos que o usuário consome. Quando você tem a viralização, por exemplo, de uma live de atentado terrorista, quantos dos acessos são espontâneos das pessoas e quantos são sugeridos ativamente pela plataforma que nem deveria transmitir aquilo? É a dúvida de muitos bilhões de dólares.

O Facebook, por exemplo, não respondeu essa pergunta nem ao próprio Oversight Board, um conselho externo que ele próprio criou. Na confusão do banimento das contas do ex-presidente Donald Trump, foi feito o questionamento. Quanto do sucesso de Trump nas redes é por estratégia dele e quanto é porque a rede impulsiona esse tipo de conteúdo pela sua estratégia de negócio? Sem resposta.

Aqui no Brasil, você viu outro dia imprensa e CPI da Covid todas serelepes com uma lista de influencers que teriam faturado uma bolada com vídeos negacionistas. O grande herói YouTube entregou a lista aos nossos parlamentares. Nos EUA, os 12 maiores produtores de conteúdo antivacina faturaram US$ 36 mi em 2020. As redes sociais faturaram US$ 1,1 BILHÃO com o conteúdo deles. A CPI nem perguntou qual o faturamento do YouTube com os tais vídeos e qual o percentual de visualizações feitas por recomendação da plataforma.

A Mozilla Foundation fez este estudo durante quase um ano para mostrar algo que o governo da Austrália já vem gritando aos quatro ventos, é preciso ter transparência nos algoritmos das rede sociais. Eles têm poder sobre a mente de muitas pessoas, estão causando prejuízos a famílias, negócios, instituições e democracias. Passou do momento de tratar como faz a nossa ignorantada metida a culta, fingindo que é só um bando de trouxa falando bobagem na internet.

E a gente se vira como até lá? O relatório traz dicas preciosas para nós e principalmente para repassar a crianças, adolescentes e idosos. A primeira é nunca clicar nas recomendações. Se você viu algo interessante, busque o nome daquilo e vá até o vídeo pela busca, não se deixe prender no labirinto.

A outra é ir até o controle de visualizações do YouTube e tirar do histórico os vídeos que te fizeram sentir mal ou dos quais você não gostou. Assim, eles deixam de ser base para a recomendação de mais vídeos semelhantes. Procure sempre interagir - dando like ou comentando - com o conteúdo que é do tipo que você queria ver mais.

Estamos nos anos 20. No século passado, foram o ponto de virada para o início de um maior controle e transparência das indústrias do tabaco e do amianto, que pareciam mais poderosas que governos e cientistas. Curiosamente, nos nossos anos 20, a sociedade está novamente diante do desafio de disciplinar gigantes econômicos.

Use este espaço apenas para a comunicação de erros