• Carregando...
Muitos dos conteúdos são postados em perfis aparentemente administrados por menores, o que dificulta o monitoramento
Muitos dos conteúdos são postados em perfis aparentemente administrados por menores, o que dificulta o monitoramento| Foto: Eli Vieira com Midjourney

O algoritmo do Instagram promoveu e conectou uma vasta rede de pedofilia através do aplicativo. A descoberta é do Centro de Política Cibernética do Observatório de Internet da Universidade de Stanford, que publicou os resultados de sua investigação no relatório "Dinâmica de material de abuso sexual infantil autogerado entre plataformas",  primeiramente reportado pelo The Wall Street Journal (WSJ) no dia 7 de junho. Segundo o relatório, "o Instagram é atualmente a plataforma mais importante para essas redes [de pedofilia], com recursos que ajudam a conectar compradores e vendedores".

Mas como é possível para empresa com o tamanho e os recursos que a Meta possui e que, sabidamente, detém dados confidenciais de seus usuários, não ter identificado que seu algoritmo atuava de forma nociva para a promoção da pedofilia? Atualmente, além do Instagram, a Meta controla o Facebook e o Whatsapp e, em 2022, as receitas com suas plataformas chegaram à US$ 116,6 bilhões (R$ 552 bilhões na cotação atual), 97,5% das quais por meio de anúncios e publicidade, com lucro bruto de US$ 91,36 bilhões (R$ 433 bilhões), segundo o site Macrotrends. De acordo com um especialista em redes sociais entrevistado pela Gazeta do Povo, que preferiu não se identificar, "o funcionamento de cada algoritmo é segredo da indústria, cada rede vai ter sua própria receita. E eles se confundem com seu próprio modelo de negócio".

Prática costumeira  

As práticas de monitoramento e restrição de conteúdos não são novidade entre as redes sociais. Em entrevista recente ao Lex Fridman Podcast, o dono da Meta, Marck Zuckerberg, admitiu que durante a pandemia a plataforma havia censurado publicações que levantavam suspeitas sobre as origens da Covid-19 e a eficácia das vacinas contra a doença, em resposta a solicitações do establishment da saúde. As declarações, veiculadas pela Gazeta do Povo, foram ao ar na mesma semana em que os resultados da investigação sobre pedofilia no Instagram foram publicadas pelo WSJ.

Em outro caso, durante entrevista ao podcast de Joe Rogan em agosto de 2022, Zuckerberg ainda afirmou que, em 2020, previamente às eleições norte-americanas, censurou publicações que falavam sobre os conteúdos do laptop de Hunter Biden [filho de Joe Biden envolvido em vários escândalos] por cinco ou sete dias no Facebook. O empresário afirmou que o impacto havia sido significativo, embora não soubesse precisar o número de pessoas atingidas pelas restrições.

As declarações de Zuckerberg aos podcasts não deixam dúvidas sobre o poder de censura e de supressão de conteúdos reconhecidos como "nocivos" pela empresa, especialmente em momentos nos quais ambos os temas acima citados tinham massiva repercussão em todo o mundo.

Questionada pela Gazeta do Povo sobre por que não foram capazes de detectar a promoção de redes de pedofilia, a rede afirmou que as pessoas por trás desse tipo de prática "costumam mudar suas táticas para fazer mal às crianças o tempo todo e, por isso, temos políticas e tecnologias severas para evitar que eles encontrem ou interajam com adolescentes em nossos aplicativos".

Conforme o especialista em redes, no caso da pesquisa de Stanford, "as hashtags identificadas são inclusive muito simples, não são codificadas, algumas até bastante explícitas. Seria facílimo reprogramar o sistema para impedir, em minutos, a própria circulação de certos conteúdos mediante uma censura imediata”, afirmou. Ele explicou que “o algoritmo é como uma receita de bolo: uma série de instruções muito precisas que modelam o comportamento do sistema e que, geralmente, pode ser traduzida em uma ou mais fórmulas matemáticas. E, como todo modelo matemático, os sistemas passam a reconhecer padrões, seja em texto puro ou em imagens”.

É o que ocorre, por exemplo, com imagens de seios humanos desnudos. Tanto Facebook, quanto o Instagram têm mecanismos para suprimir este tipo de imagem. Um exemplo até anedótico ocorreu com o Ministério da Cultura em 2015. Na ocasião, o Facebook bloqueou uma publicação ilustrada com uma foto de 1909, de um casal de índios botocudos, em que a índia está com os seios de fora. A imagem original pertence ao Instituto Moreira Salles, conforme divulgado à época pelo jornal O Globo em matéria sobre o tema. De acordo com o especialista, “os algoritmos do Instagram e do Facebook reconhecem seios, o que historicamente é um enorme problema para fotógrafos de nu artístico, por exemplo”.

Negócio    

Mas os padrões de imagens ou textuais não são os utilizados em maior escala pelos algoritmos das redes sociais. O padrão mais comum reconhecido por essas redes está nos metadados de cada post, que são a quantidade de curtidas, o volume de comentários e impressões, ou seja, a taxa de engajamento. “Quanto maiores forem esses valores, maior será o destaque obtido pelo conteúdo. É esse o modelo de negócio dessas redes: o que dá audiência é recomendado para usuários que normalmente não veriam uma determinada postagem. Portanto, uma mudança no algoritmo tem um impacto no próprio modelo do negócio”, explica.

E foi com base nesse modelo de promoção de conteúdos que o sistema de indicações do Instagram permitia que seus usuários, ao pesquisar hashtags explícitas, por exemplo, fossem conectados a contas que usavam esses termos para o anúncio e a venda de material de sexo infantil. Além disso, o relatório de Stanford ainda traz que "o estudo dessas dinâmicas é desafiador, mas necessário, principalmente em um ambiente em que os provedores das plataformas estão se desfazendo de programas de Confiança e Segurança (Trust and Safety)".

Conteúdo autogerado  

No Instagram, muitas das contas encontradas parecem ser operadas por menores, anunciando imagens e vídeos que eles próprias geram. Os perfis que oferecem esse tipo de material explícito podem utilizar “menus” de conteúdo, que incluem oferta de vídeos de crianças se automutilando e até “imagens de menores praticando atos sexuais com animais”. “Pelo preço certo, as crianças estão disponíveis para encontros presenciais”, relatou o WSJ.

Ainda segundo o relatório, vídeos e imagens de abuso sexual infantil criados e veiculados pelos próprios menores são um problema, já que a maior parte das políticas de segurança das plataformas visa material gerado e comercializado por adultos. "Às vezes, o material pode ser distribuído de forma voluntária (para um parceiro romântico), mas depois redistribuído ou postado publicamente, levando à redistribuição descontrolada de imagens", descreve. A essa questão, se somam os casos de “pornografia de vingança” (quando imagens íntimas são distribuídas por um dos parceiros sem o consentimento do outro) ou a materiais de abuso sexual fruto de extorsão, quando um menor é coagido à produção de conteúdo sexual ilícito que é, então, comercializado.

Problema em crescimento  

Os responsáveis pelo relatório, consideram que a criação e comercialização de conteúdo com exploração sexual de crianças e adolescentes é o mais prejudicial de todos os abusos generalizados da comunicação online. De acordo com o estudo "Acabando com a exploração e abuso sexual de crianças online", publicado pela Unicef em dezembro de 2021, uma em cada cinco meninas e um a cada 13 meninos foram abusados ou explorados sexualmente antes de chegar aos 18 anos. E essas são práticas que têm crescido em todo o mundo.

De acordo com reportagem publicada pela Gazeta do Povo sobre o tema, o número de deflagrações de crimes cibernéticos envolvendo abuso sexual infantojuvenil no Brasil teve aumento de 231% entre 2019 e 2022 – os números de 2023 ainda não estão fechados. E não é somente aqui que os números crescem. Segundo o site Statistics Canada, entre 2014 e 2020, a polícia relatou 39.767 incidentes de crimes sexuais online contra crianças no país. No mesmo período, a taxa de incidentes de exploração e abuso sexual infantil online relatados pela polícia teve um aumento de 262%, passando de 50 para 131 por 100.000 habitantes.

Não que nada esteja sendo feito: no ano passado, o site comparitech.com publicou um resumo dos esforços empreendidos pelas redes sociais para apagar esse tipo de conteúdo. A reportagem fala que, em geral, esse era um tema relegado a "cantos obscuros da Internet", mas que atualmente milhares de imagens e postagens contendo abuso infantil, exploração e nudez são removidas pelos maiores nomes das mídias sociais todos os dias.

Resposta da Meta  

Em resposta à Gazeta do Povo, a Meta afirmou que a exploração infantil é um crime terrível e que trabalha rigidamente para combatê-lo dentro e fora de suas plataformas e para apoiar os responsáveis pela aplicação da lei nos esforços para prender e processar os criminosos por trás disso. Conforme a empresa, foram contratadas equipes especializads focadas em entender a transformação dos padrões de atuação de quem administra e alimenta essas redes.

"Nós corrigimos, por exemplo, um problema técnico que impedia, de maneira inesperada, que denúncias de usuários chegassem a revisores de conteúdo, fornecemos orientações atualizadas para que eles identifiquem e removam contas com mais facilidade e também restringimos milhares de termos de pesquisa e hashtags no Instagram", afirmou. Entre 2020 e 2022, a Meta informou que essas equipes desmantelaram 27 redes abusivas e, em janeiro de 2023, mais de 490.000 contas que violavam as políticas de segurança infantil. "Estamos comprometidos em continuar o nosso trabalho para proteger os adolescentes e as crianças, barrar criminosos e apoiar as autoridades para levá-los à Justiça” - afirma um porta-voz da Meta.

Em entrevista ao podcast do Wall Street Journal o jornalista que primeiramente noticiou o relatório, Jeff Horwitz, comentou que o "maior choque para todos foi perceber o quanto isso pôde crescer e infectar a rede em uma escala tão grande". Ele disse que, em geral, as pessoas entendem que esse é um problema crônico. Mas que esperam que uma empresa do porte da Meta, com os recursos que possui, além da necessidade de garantir que suas plataformas sejam segura para anunciantes e crianças, jamais deixaria uma brecha desse tamanho.

0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]