Ouça este conteúdo
Em audiência da Subcomissão de Comércio para a Proteção do Consumidor do Senado dos Estados Unidos, executivos do YouTube, TikTok e Snapchat foram cobrados nesta terça-feira (26) para que apoiem mudanças na legislação americana para aumentar a proteção a crianças e adolescentes nas redes sociais, mas evitaram se comprometer diretamente com as alterações e disseram que já vêm adotando políticas próprias para evitar danos a esse público.
Entre as mudanças sugeridas, estão a implantação de novas regras de privacidade para usuários menores de idade e proibição de anúncios específicos e reprodução automática de vídeos para crianças.
Segundo informações da Associated Press, o vice-presidente do TikTok e chefe de políticas públicas da empresa para as Américas, Michael Beckerman, disse que “sexo e drogas são violações dos padrões da comunidade” e já “não têm lugar no TikTok”.
Ele argumentou que a plataforma possui ferramentas, como gerenciamento de tempo de tela, para ajudar jovens e pais a moderar quanto tempo as crianças passam no aplicativo e o que elas veem. Também alegou que alguns recursos, como mensagens diretas, não estão disponíveis para usuários mais jovens e que a empresa reforçou suas políticas de privacidade para menores de 18 anos após recomendações de reguladores federais.
Quando parlamentares republicanos enfatizaram que a empresa pertence a um grupo chinês, Beckerman respondeu que todos os dados do TikTok são armazenados nos Estados Unidos, com backup em Cingapura.
Leslie Miller, vice-presidente de assuntos governamentais e políticas públicas do Google, proprietário do YouTube, argumentou que a empresa tem adotado sistemas de proteção e controle por parte dos pais, como limites de tempo, para limitar a visualização de conteúdo ao que seja adequado à idade de quem está assistindo.
Já Jennifer Stout, vice-presidente de políticas públicas globais do Snapchat, citou que a plataforma implantou medidas de detecção contra revendedores de produtos impróprios para determinados públicos e que a moderação de conteúdo é feita por humanos e não por meio de inteligência artificial, ao contrário de outras redes sociais.
As respostas dos executivos não convenceram os senadores. “Estamos vendo a mesma conversa, de novo e de novo e de novo e de novo”, disse o senador democrata Richard Blumenthal, presidente da subcomissão.
Durante audiência na mesma subcomissão, no início do mês, a analista de dados Frances Haugen, ex-funcionária do Facebook, pediu a criação de mecanismos legais para regulamentação da plataforma e de outras mídias sociais, para evitar a disseminação de conteúdo prejudicial à democracia e à saúde mental de adolescentes.
Antes da audiência, ela havia vazado informações para o Wall Street Journal que mostrariam que o Facebook sabe dos danos causados por seus aplicativos, mas não toma as medidas necessárias para resolver esses problemas, ao contrário do que prega em declarações públicas.
Nesta semana, um grupo de órgãos de imprensa, entre eles o Washington Post, iniciou uma série de reportagens chamada Facebook Papers, que aborda o “duplo padrão” da rede social para remoções de conteúdo.