A partir de hoje, as principais empresas de tecnologia atuantes na União Europeia (UE) terão que se adequar plenamente às novas regras do bloco sobre moderação de conteúdo, privacidade do usuário e transparência. As medidas fazem parte do Digital Services Act (DSA) [Lei de Serviços Digitais, em livre tradução], aprovado em abril deste ano.
Com a iniciativa, a UE busca se consolidar como pioneira global na legislação para internet. Algumas das medidas, no entanto, são vistas como um disfarce para a censura e um ataque à liberdade de expressão.
Entre outras normas, a lei obrigada as Big Techs a monitorarem conteúdos online entendidos como “prejudiciais”, que podem ter seu alcance reduzido ou serem suprimidos. Além disso, as empresas terão que compartilhar relatórios sobre suas práticas de moderação e publicidade com as autoridades europeias.
Moderação de conteúdos e censura: um caminho sem volta
Um dos pontos mais controversos diz respeito aos conteúdos ilegais e à moderação dessas informações. A DSA responsabiliza as plataformas pelo conteúdo publicado por seus usuários.
A posição é oposta à adotada, por exemplo, pela Seção 230, nos EUA, e até mesmo pelo Marco Civil da Internet no Brasil, que salvaguardam as plataformas de serem responsabilizadas pelos conteúdos gerados por seus usuários, a não ser que haja decisão judicial.
Mas a abordagem que trata as redes como meras reprodutoras de conteúdo e que não exercem qualquer poder de edição e de moderação das informações nelas publicadas pode estar com os dias contados.
“É um caminho sem volta as plataformas se tornarem responsáveis pelo conteúdo dos usuários”, afirma André Marsiglia, advogado constitucionalista, professor e especialista em liberdade de expressão e direitos autorais.
“O argumento de que não gerenciam conteúdos não é crível. O ponto que merece melhor discussão é até onde essa responsabilidade deve ir, pois se as plataformas se sentirem acuadas, haverá retração na distribuição de conteúdo, resultando em censura”, disse.
As preocupações de Marsiglia não são infundadas. No início deste ano, o Comissário Europeu Thierry Breton chegou a afirmar que a nova legislação poderia levar não só à censura de informações, mas à própria supressão das atividades das plataformas online que “falhassem” em remover “conteúdo de ódio” publicado por seus usuários.
Breton se manifestou em resposta ao presidente francês, Emmanuel Macron, que responsabilizou as redes sociais pelas violentas manifestações que ocorriam na França naquele momento. Segundo Macron, as atividades estavam sendo convocadas e marcadas por meio das redes.
Michael Shellenberger, jornalista responsável pelos Twitter Files, que revelou a pressão do governo dos EUA para que a plataforma censurasse publicações e conteúdos de seus usuários, afirma que a DSA representa um “ataque agressivo à liberdade de expressão em todo o mundo”.
Em reportagem publicada na newsletter Public, ele diz que o risco é global e que vai “da Austrália à América do Norte e à Europa, onde a Lei dos Serviços Digitais exige que as empresas de Internet “resolvam qualquer risco que representem para a sociedade, incluindo a saúde pública, bem-estar físico e mental”.
Fake news e checagem de fatos: quem observa o observador?
A necessidade de checagem de fatos é uma das consequências diretas da responsabilização das redes e plataformas pelos conteúdos postados e promovidos, bem como da possibilidade de remoção de conteúdos ilegais.
Além do próprio monitoramento das plataformas, a nova legislação prevê que usuários possam avisá-las sobre publicações que entendam conter desinformação, para que sejam censuradas ou tenham seu alcance limitado.
Como será realizada a confirmação da veracidade ou não de tais conteúdos não está especificado na lei. Uma possibilidade é que seja feita pelas equipes das próprias plataformas em parceria com agências de checagem de fatos, por exemplo.
Para Marsiglia, esse é um dos pontos mais controversos da DSA e também o mais perigoso, já que a comprovação de que uma informação é verdadeira ou falsa não é, necessariamente, imediata, sendo necessária análise do contexto em que se está inserido.
“O que hoje é considerado inverídico ou fraudulento pode ser considerado verídico amanhã. O jornalismo mostra isso o tempo todo ao trazer para o debate notícias e dados que muitas vezes subvertem a realidade tal como a conhecemos”, afirma.
Mas a moderação e a checagem de fatos não dão lugar apenas a descompassos temporais na apuração das informações. Elas também podem levar à censura por questões políticas e ideológicas.
Conforme reportado por Shellenberger, a rede de televisão australiana Sky News descobriu, por exemplo, que o Facebook contratou ativistas como verificadores de fatos. Em vez de abordarem sua função de forma neutra e objetiva, eles acabaram censurando inimigos políticos.
Governo da UE pode interferir para promover informações fiáveis
Outro ponto delicado da nova lei é que ela abre a possibilidade para intervenção direta da Comissão Europeia na moderação de conteúdos.
O artigo 91 prevê que, em circunstâncias extraordinárias, como ameaças terroristas, catástrofes naturais e pandemias, a Comissão pode traçar estratégias que incluem o aumento dos recursos dedicados à moderação de conteúdos e de recomendações de algoritmos para a promoção de informações fiáveis.
Em um caso recente, ocorreu uma intervenção similar à propiciada pela DSA. O deputado norte-americano Jim Jordan, republicano do estado de Ohio, em uma investigação Comitê Judiciário da Câmara dos EUA, têm denunciado a intervenção da Casa Branca junto ao Facebook para supressão de conteúdos, alguns dos quais foram comprovados verídicos, no que está sendo chamado de Facebook Files.
Documentos internos cedidos pela rede social ao Comitê demonstram que oficiais do Governo de Joe Biden pressionaram executivos do Facebook para suprimir e reduzir o alcance de publicações que tratavam das origens do Covid-19, dos efeitos colaterais da vacina e que fizessem menção ao laptop do filho do presidente, Hunter Biden.
Publicidade, algoritmo e feeds cronológicos
A lei europeia ainda impõe novos parâmetros para publicidade, segundo os quais as Big Techs não podem utilizar dados sensíveis, como origem ética e orientação sexual, para o direcionamento de publicidade. Já para os menores de idade, a segmentação de anúncios é totalmente proibida.
As plataformas também precisam oferecer a seus usuários esclarecimentos sobre as indicações de conteúdo feitas pelos algoritmos. Nesse sentido, a Meta, por exemplo, ativou a possibilidade de que as postagens que aparecem nos feeds do Instagram e Facebook sejam visualizadas em ordem cronológica.
Desde que a lei foi aprovada, em abril deste ano, 19 empresas foram listadas para iniciar o processo de adaptação a seus parâmetros, que termina hoje. Elas foram selecionadas com base no volume de acesso na UE: todas têm acima de 45 milhões de usuários ativos.
Já as empresas digitais cujos serviços têm menor volume de acessos também terão que se adaptar. Mas a elas foi dado um prazo maior, até fevereiro do próximo ano para se mostrarem totalmente aderentes à nova legislação.
A resposta das Big Techs ao DSA
Nick Clegg, o presidente de assuntos globais da Meta, deu as boas-vindas à “ambição de maior transparência, responsabilização e capacitação dos utilizadores que está no cerne de regulamentos como a DSA”.
Em artigo publicado no blog da empresa, Clegg ainda afirma que a Meta defende um regime regulamentar que proteja os direitos das pessoas online, ao mesmo tempo que continua a permitir a inovação.
Na mesma linha, Laurie Richardson, vice-presidente de Confiança e Segurança do Google, afirmou que a empresa adaptou muitos de seus processos e alterou o funcionamento de alguns de seus serviços para cumprir os requisitos específicos da DSA.
“Aguardamos com expectativa o envolvimento contínuo com a Comissão Europeia e outras partes interessadas, incluindo especialistas técnicos e políticos, à medida que avançamos neste importante trabalho”, afirmou.
Redes como o Tik Tok, Spnapchat e X/Twitter também afirmaram que estão realizando suas mudanças para cumprir com as determinações da DSA. A Amazon, por exemplo, criou um canal para que clientes possam reportar informações errôneas sobre os produtos anunciados na plataforma.
A capacidade que a UE terá de fazer com que as normas sejam seguidas pelas empresas é uma das principais questões levantadas pelos defensores da legislação. As autoridades, contudo, parecem confiantes.
Quando a lei foi aprovada, Breton disse que “com a DSA, o tempo em que as grandes plataformas online se comportam como se fossem ‘grandes demais para se importar’ está chegando ao fim”.
O político tem razões para demonstrar tamanha confiança. A DSA estabelece que as empresas que não cumprirem as novas regras poderão ser multadas em até 6% do seu volume de negócios global, o que, para algumas delas, chega à casa dos bilhões de dólares.
A reprimenda financeira se soma à possibilidade, também levantada por Breton, de suspensão do funcionamento das empresas no bloco europeu. A severidade das punições não deixa de ser um "incentivo" para adequação das empresas à nova lei.
É errôneo comparar a legislação da UE à brasileira
A entrada em vigor da DSA e o cumprimento de suas regras pelas Big Techs pode influenciar legislações em outros países, incluindo o Brasil. Não raro, comparações são feitas entre a DSA e o PL 2630/2020.
“O PL 2630/20, das Fake News, e seus desmembramentos, possuem diversos pontos de encontro com a Lei de Serviços Digitais, dentre os quais a responsabilização jurídica das plataformas pelo conteúdo dos usuários e as multas agressivas, caso não policiem conteúdos distribuídos”, afirmou Marsiglia.
O advogado, no entanto, disse que no caso da UE houve uma discussão mais ampla entre as partes interessadas na nova legislação, o que não ocorreu aqui.
Segundo apurado com fontes ligadas às empresas, esse é um dos principais pontos que distinguem as duas legislações. No caso brasileiro, os relatos apontam que as Big Techs não foram chamadas para as negociações conforme se esperava em um devido processo democrático.
Prova disso é que, próximo à votação para a aprovação do PL na Câmara, versões com diferentes redações dos artigos eram divulgadas em cima da hora, minando a capacidade de resposta das empresas.
Conforme apuração, algumas versões do PL chegavam, inclusive, a estabelecer um estado de vigilância permanente, em que as Big Techs teriam que monitorar todo o conteúdo e reportar em tempo integral as informações para autoridades de investigação criminal.
Outro ponto sensível diz respeito aos órgãos e autoridades responsáveis pela execução da lei, o que gerou uma briga política aqui. Já a autoridade europeia e os órgãos encarregados estavam definidos desde o início das deliberações sobre a DSA.
Por fim, também foi levantado que, sem a participação mais próxima das Big Techs, a capacidade técnica para atender a algumas das soluções propostas pelo PL das fake news fica prejudicada. Muitas das ideias simplesmente não chegam a ser plausíveis do ponto de vista técnico.
“Uma nova legislação sempre acarreta tropeços e lacunas. O avanço é resultado do debate que ela proporciona. Algo que na Europa tem sido feito mais do que aqui”, afirmou Marsiglia. “Temos de entender que se as legislações não encontrarem pontos de equilíbrio melhores, a regulação da internet se tornará um notável instrumento de controle na mão de governos e autoridades”.
Como a eleição de Trump afeta Lula, STF e parceria com a China
Alexandre de Moraes cita a si mesmo 44 vezes em operação que mira Bolsonaro; assista ao Entrelinhas
Policial federal preso diz que foi cooptado por agente da cúpula da Abin para espionar Lula
Rússia lança pela 1ª vez míssil balístico intercontinental contra a Ucrânia
Deixe sua opinião