O jornal The Guardian teve acesso a mais de 100 manuais, gráficos e planilhas internos que o Facebook usa para treinar os moderadores responsáveis por verificar conteúdo sensíveis como violência, discurso de ódio, pornografia e automutilação. O material aponta a dificuldade que a rede social, com quase dois bilhões de usuário, tem em resolver tais questões.
LEIA MAIS notícias de negócios e tecnologia
Pelas políticas atuais, a declaração “alguém atire no [presidente dos EUA] Trump” devem ser apagadas, mas “para pegar o pescoço de uma vadia, aplique toda a sua força no meio da garganta dela,” não. A justificativa é de que o primeiro caso diz respeito a um chefe de estado e o segundo não é encarado como uma ameaça crível.
O Facebook também orienta os moderadores a não apagarem imagens de violência a animais, exceto quando elas são sádicas ou celebram a violência. Algumas mais “extremas” podem ser marcadas como “perturbadoras.” A marcação também é usada para imagens e vídeos de mortes violentas e violência contra crianças que não envolvam abuso sexual. Nesses casos, o Facebook justifica que tais materiais servem para criar consciência nas pessoas, e reitera que eles são ocultos dos usuários menores de idade.
Vídeos de abortos também são permitidos, desde que não contenham nudez.
Segundo um dos documentos vazados, qualquer pessoa com mais de 100 mil seguidores em alguma plataforma social é considerada pública e, com isso, perde algumas proteções garantidas a indivíduos.
Pornografia e revenge porn
O revenge porn (ponografia de vingança, quando alguém usa imagens íntimas sem o consentimento do outro para difamar, humilhar ou se vingar) e a extorsão usando esse mesmo tipo de material são pontos críticos na atuação dos moderadores. Em outra reportagem do Guardian, o jornal revela que só em janeiro de 2017 quase 54 mil casos potenciais foram relatados, o que levou à desativação de mais de 14 mil perfis.
Um dos slides referentes ao revenge porn informa que devem ser apagados materiais do tipo que atendam a três critérios: imagens produzidas em local privado, pessoa nua, quase nua ou em atividade sexual, e falta de consentimento confirmada pelo contexto (comentários, por exemplo) ou fontes independentes.
Facebook censura foto da Guerra do Vietnã e sofre duras críticas
Os documentos revelam ainda que as diretrizes para nudez são flexíveis e podem mudar dependendo do contexto. Em 2016, após a famosa foto de Phan Thi Kim Phuc, da Guerra do Vietnã, ter sido censurada em uma publicação do jornal norueguês Aftenposten na rede social. Agora, imagens do tipo no contexto de guerras e do Holocausto não constituem mais infrações às diretrizes.
Um porta-voz do Facebook disse ao Guardian que “queremos que as pessoas possam discutir eventos globais e atuais... assim, o contexto em que uma imagem de violência é compartilhado às vezes pesa.”
Algumas frases de cunho sexual e que soam desagradáveis passam, na política atual, por serem assimiladas como parte de um “contexto bem humorado.” O Facebook informou que “permitimos expressões genéricas de desejo, mas não permitimos detalhes sexualmente explícitos.”
Equilíbrio
A reportagem do jornal britânico compara as políticas do Facebook para materiais sensíveis a transitar por um campo minado. Conciliar a tolerância de quase dois bilhões de pessoas a esses conteúdos é uma conta difícil de fechar. Para piorar, os moderadores têm uma carga de trabalho pesada: em média, cada denúncia é avaliada e resolvida em “apenas 10 segundos.” Uma das fontes que cederam os materiais disse que “o Facebook não consegue manter o controle do conteúdo. Ele ficou muito grande, muito rápido.”
O maior desafio para ser determinar o que deve ser apagado e o que mantido pelo valor noticioso ou para gerar “consciência.” Em paralelo, aumentam as pressões nos Estados Unidos e, principalmente, na Europa, para que o Facebook seja mais transparente nos critérios usados na moderação do conteúdo que é publicado em sua plataforma.