As redes sociais podem ser responsáveis pela deterioração da saúde mental dos menores? Uma recente investigação do Reino Unido determinou que, em parte, sim. As plataformas devem assumir um compromisso para proteger os usuários menores e vulneráveis; e a regulação tem que exigir mais medidas.
Molly Russell, uma adolescente de Londres, se suicidou aos 14 anos em 2017. Uma revisão de suas redes sociais descobriu que a menina havia sido sugada para um buraco negro online de publicações relacionadas a depressão, autolesão e ansiedade.
O pai de Molly iniciou uma campanha para reivindicar uma maior proteção nas plataformas, e uma equipe forense presidida pelo advogado e médico Andrew Walker acaba de determinar que os conteúdos que a adolescente visualizou no Instagram e no Pinterest contribuíram para a sua morte.
É um dos poucos reconhecimentos oficiais — ainda que as empresas não tenham sido chamadas a juízo, mas apenas a comparecer a algumas sessões forenses — sobre o impacto negativo que as redes sociais podem ter na saúde mental, uma realidade que muitos dão por sabida, mas que outros são cautelosos na hora de estabelecer a causalidade.
Um fenômeno complexo
O que veio primeiro: o ovo ou a galinha? É a pergunta que se parece formular quando se fala do impacto das redes sociais nos adolescentes, porque os problemas de saúde mental — e em particular o suicídio — são um fenômeno complexo e multifatorial, e quase nunca pode ser relacionado a só uma causa.
Por exemplo, um estudo publicado no New Media & Society Journal em 2019 descobriu que as pessoas que viram conteúdo de autoagressão no Instagram mostraram "mais comportamentos relacionados à autolesão e ao suicídio". O estudo não era conclusivo quanto à causa: pode se dever à exposição em si mesma, ou ao fato de as pessoas que veem esse tipo de material já correm um risco maior e têm mais possibilidades de encontrar publicações de autolesão.
"Não há nenhum estudo definitivo que vincule de forma conclusiva as redes sociais com o risco de suicídio", diz Matt Navarra, especialista e consultor. Navarra trabalhou para o governo do Reino Unido como especialista em comunicação digital. "Há tantos elementos que contribuem com isso que é difícil estar seguro do nível de relação entre essas coisas", pondera.
No entanto, continua: "Creio que se pode afirmar que as redes sociais podem ter um efeito negativo na saúde mental dos usuários jovens e vulneráveis. Creio haver suficientes exemplos sugerindo que, pela maneira como os aplicativos são desenhados, pelo funcionamento do algoritmo e pela forma como opera a psicologia humana, há um nível de vício nesses plataformas que pode, em si mesmo, ser perigoso para certos grupos de usuários".
Ou seja, se você digitar a palavra "suicídio" em alguma rede social, o mais provável é que elas lhe redirecionem ou mostrem recursos de ajuda, o que é uma ferramenta muito positiva dessas plataformas.
No entanto, o algoritmo também está desenhado para fisgar o usuário, e faz isto tecendo uma pequena teia de aranha com o conteúdo que crê poder lhe interessar. Não só se move pelos interesses que o usuário mostrou de forma explícita, mas também por sinais mais sutis que acabam preenchendo o feed do usuário com publicações cada vez mais viciantes.
E isso é o que a investigação britânica concluiu que ocorreu no caso de Molly Russell, e que revela um problema mais profundo e global das redes sociais.
"O conteúdo que ela buscava e que lhe recomendavam essas plataformas foi claramente um fator que contribuiu para sua trágica morte, que poderia ter sido evitado se ela não estivesse usando essas plataformas, ou se houvesse mais filtros para proteger pessoas como Molly Russell. Creio que ainda é preciso investigar muito, mas o certo é que essas plataformas podem e devem fazer mais para proteger todos os seus usuários, mas sobretudo os mais jovens e vulneráveis", conclui Navarra.
O conteúdo prejudicial é facilmente acessível
A questão é que as publicações nocivas estão ao alcance de um clique. Uma pesquisa da Universidade da Geórgia concluiu que as publicações no Instagram relacionadas a autolesão aumentaram de 58.000, no começo de 2018 a mais de 110.000 em dezembro.
"Ontem me enfiei no Instagram e quis ver quanto tempo levava para aparecer uma imagem explícita com sangue e autolesões evidentes", explicou Amanda Giordano, autora principal do estudo e professora associada da Faculdade de Educação Mary Frances Early. "Demorou cerca de um minuto e meio."
Por que isso acontece? Além do funcionamento do algoritmo, as plataformas também têm problemas para saber se o usuário é menor de idade.
"Um dos muitos desafios dessas plataformas é que a verificação da idade é ineficaz na hora de registrar usuários menores de idade, ou de permitir que as redes saibam a idade real que a pessoa tem, para poder bloquear certos tipos de conteúdo", explica Navarra.
Por outro lado, tampouco são de todo eficazes os sistemas de moderação feitos para evitar a exibição de certos conteúdos.
"Os sistemas que existem são uma mescla de moderadores humanos e tecnologias de inteligência artificial, que não atuam com a eficácia que seria necessária", explica o especialista.
Isso não é novidade. Em setembro de 2021, o vazamento de alguns relatórios internos escandalizou muitos usuários após reconhecer que o Facebook (hoje Meta) sabia que sua rede Instagram é "tóxica" para os adolescentes e que os protocolos de proteção "estão falhando". Entre as conclusões, um dado revelador: entre os adolescentes que declaravam ter pensamentos suicidas, 13% dos usuários do Reino Undo e 6% dos Estados Unidos atribuíam o problema à referida rede social.
Responsabilidade de todos
À luz das descobertas do caso Molly Russell, Elizabeth Lagone, responsável pela política de saúde e bem-estar do Meta, declarou: "Lamentamos que Molly visse conteúdo que violava nossas políticas, e não queremos isso na plataforma."
Um executivo do Pinterest, outra plataforma na qual Molly passou muito tempo antes de sua morte, também disse que o site não era seguro quando a adolescente o utilizava.
No entanto, Navarra assegura que é a regulação que deve converter a proteção dos usuários em uma exigência para as plataformas, com um regime de sanções que as obrigue à mudança.
Embora o laudo pericial sobre o caso Russell seja recente, sua morte ocorreu em 2017, e as plataformas asseguram ter feito mudanças. Criaram novas políticas, um incremento de determinados aspectos dos sistemas de moderação e, sobretudo, ferramentas de gestão do tempo que os usuários passam nas plataformas.
No entanto, Navarra questiona a eficácia real dessas medidas e assegura que as plataformas continuam precisando de um controle de conteúdos mais estrito, que impeça casos como o de Molly Russell.
"Continuam a existir os mesmos algoritmos e continua havendo muitos usuários menores de idade que não deveriam poder acessar certos tipos de conteúdo. Não há nenhuma melhora no âmbito da verificação da idade, de modo que creio que houve mudanças, mas foram pequenas e sutis", conclui.
No entanto, os pais tampouco podem ser dispensados de sua responsabilidade de proteger os menores: "Creio que os pais têm um papel a desempenhar no que concerne aos usuários mais jovens quanto à alfabetização digital e à capacidade de ter uma relação saudável com os aparelhos eletrônicos e as redes sociais. Não podem confiar que as plataformas serão completamente seguras todo o tempo, e que os reguladores protejam seus filhos".
Por último, Navarra também crê que a responsabilidade individual posse forçar a mudança: "Creio que a relação das pessoas com as redes sociais mudou, e estão mais conscientes que nunca dos perigos e riscos. O apetite por essas plataformas, bem como o que se espera delas, está mudando para melhor, e isso levará a um ritmo de transformação mais rápido que todo o resto".
Já é difícil negar que as redes sociais possam prejudicar a saúde mental dos usuários menores e mais vulneráveis. É responsabilidade delas assegurar que as crianças estejam protegidas em suas plataformas, mas também é responsabilidade da sociedade refletir como se chegou a esse ponto e exigir as medidas que impulsarão a mudança.
ONDE PROCURAR AJUDA
CAPS e Unidades Básicas de Saúde (Saúde da família, Postos e Centros de Saúde)
UPA 24H, SAMU 192, Pronto Socorro; Hospitais
CVV - Centro de Valorização da Vida
Site: http://www.cvv.org.br
Email: atendimento@cvv.org.br
Telefone: 188
Instituto Vita Alere de Prevenção e Posvenção do Suicídio
Site: https://vitaalere.com.br/
email: contato@vitaalere.com.br
Associação Brasileira de Estudos e Prevenção de Suicídio - ABEPS
Site: https://www.abeps.org.br/
Email: faleconosco@abeps.org.br
Setembro Amarelo
Site: http://www.setembroamarelo.org.br/
©2022 ACEPRENSA. Publicado com permissão. Original em espanhol.
Como a eleição de Trump afeta Lula, STF e parceria com a China
Alexandre de Moraes cita a si mesmo 44 vezes em operação que mira Bolsonaro; acompanhe o Entrelinhas
Policial federal preso diz que foi cooptado por agente da cúpula da Abin para espionar Lula
Rússia lança pela 1ª vez míssil balístico intercontinental contra a Ucrânia
Deixe sua opinião