Ouça este conteúdo
O setor de tecnologia e estudiosos da regulação digital estão preocupados com o avanço de medidas que podem restringir a inovação no Brasil. No Supremo Tribunal Federal (STF), os votos proferidos até agora no julgamento do Marco Civil da Internet, além de impor às plataformas um regime de censura, propõem derrubar uma norma que tornou o Brasil atrativo para a inovação e fomentou a criação de startups no país e no exterior. No Congresso, a proposta de regulamentação da inteligência artificial (IA) também gera apreensão, com riscos de insegurança jurídica em relação a direitos autorais.
No julgamento do Marco Civil da Internet, os ministros Dias Toffoli e Luiz Fux, únicos que votaram até agora, defenderam a ampliação da responsabilidade dos provedores de aplicações de internet pelo conteúdo gerado por seus usuários, não se limitando às redes sociais.
O voto de Toffoli inclui a responsabilização de “marketplaces” (Amazon, Mercado Livre, Shopee, Shein, Aliexpress, OLX e outras lojas virtuais que conectam vendedores a compradores) e serviços de educação (como Coursera, Descomplica, Hotmart, Kiwify), principalmente.
No entendimento do ministro, os "marketplaces" devem ser responsabilizados se ofertarem produtos ilegais, como TVBox de captação clandestina de canais a cabo ou defensivos agrícolas proibidos no Brasil. Os serviços de educação, por sua vez, podem passar a ser diretamente corresponsáveis pelo conteúdo de cursos, na medida em que promovem e ganham comissão sobre as vendas.
Isso significa que, caso alguém veja, em algum curso, algo considerado ofensivo, as plataformas deverão remover o conteúdo assim que notificadas, sob pena de responderem na Justiça pelo material. Em caso de conteúdos que configurem crimes, elas responderão de forma imediata, sem necessidade de notificação. Atualmente, as plataformas de ensino só são penalizadas se descumprirem uma ordem da Justiça determinando a remoção de um conteúdo.
O voto de Toffoli destaca que a responsabilidade dos provedores de aplicações de internet deve considerar as atividades efetivamente realizadas por eles e o impacto dessas ações, incluindo intervenções algorítmicas ou automatizadas, no fluxo de informações.
Em outro trecho, o ministro deixa claro que, ao se associar a qualquer conteúdo, seja ao recomendá-lo, impulsioná-lo ou moderá-lo, a plataforma tem responsabilidade direta sobre ele, sendo dispensada a notificação.
“O provedor de aplicações de internet responde civilmente de forma objetiva e independentemente de notificação, pelos danos decorrentes de conteúdos gerados por terceiros, nas seguintes hipóteses: quando recomendem, impulsionem (de forma remunerada ou não) ou moderem tais conteúdos, havendo responsabilidade solidária com o respectivo anunciante ou patrocinador, quando se tratar de anúncios publicitários ou de material patrocinado”, propôs Toffoli.
Ele excluiu de seu voto apenas os serviços de e-mail (Gmail, Hotmail, etc.), programas de reuniões fechadas (como Zoom e Teams) e aplicativos de mensagem privada (WhatsApp, Telegram, Signal, desde que a comunicação se realize para número determinado de pessoas – grupos abertos estariam fora, portanto, devem ser monitorados, segundo a proposta do ministro).
Fux admitiu impacto nos custos dos serviços online
Em seu voto, Fux, que propôs ampliação de responsabilidade semelhante às plataformas, reconheceu que o artigo 19 – que isenta os provedores de aplicações de responsabilidade – também teve por objetivo fomentar a inovação tecnológica e o surgimento de novos serviços. Mesmo assim, votou pela flexibilização do texto, sem no entanto deixar claro se somente as redes sociais seriam afetadas ou todo o ecossistema digital.
Ele mesmo adiantou que, com a ampliação das responsabilidades, os custos vão aumentar – o que, na prática, resulta em encarecimento dos serviços.
“A essência da responsabilidade civil implica na criação de incentivos para que potenciais criadores invistam em segurança em nível eficiente, mediante a internalização dos custos dos danos que sua falta de cuidado pode causar às vítimas”, afirmou.
Moraes quer discutir IA e Barroso deve propor regras menos rígidas
Alexandre de Moraes, que ainda não votou no julgamento do Marco Civil da Internet, já adiantou que quer incluir regras sobre inteligência artificial na decisão final do STF, apesar de o Congresso ainda estar debatendo o tema. Na semana passada, o Senado aprovou o PL da Inteligência Artificial, de autoria do senador Rodrigo Pacheco (PSD-MG), mas a proposta, que também causa preocupação no setor de tecnologia, ainda precisa tramitar na Câmara dos Deputados.
“Acho que já devemos aproveitar o momento, até porque a questão das responsabilidade das redes inclui a inteligência artificial”, disse Moraes.
Na sessão de quarta passada (11), o presidente do STF, Luís Roberto Barroso, pediu vista do processo e prometeu levar seu voto na próxima quarta-feira (18). Com isso, ele, que deveria votar por último, poderá agora votar antes dos demais ministros. Tal manobra sinaliza que ele deve propor regras mais amenas para a responsabilização das redes.
STF pode estar criando uma das regulações mais complexas do mundo
Diversos especialistas, no entanto, têm manifestado preocupação com o rumo adotado até o momento. No início do julgamento, em sustentação oral, o advogado Marcel Leonardi, um dos maiores especialistas do país em direito digital, já havia alertado os ministros para os riscos de uma decisão dura para o empreendedorismo no setor de tecnologia.
“O artigo 19 representou essa tentativa de equilíbrio, uma construção sofisticada, que é crucial para o funcionamento da internet brasileira. Notei aqui, ao longo dos debates do julgamento, que algo parece ter se perdido: o fato de que é uma regra geral, não se aplica única e exclusivamente para grandes plataformas. Estamos falando de todo tipo de site, inclusive do poder público. E aí a gente está falando de cenários que não envolvem grandes empresas do setor. Estamos falando de sites de resenhas de produtos, de queixas de consumidores, até os sites de consulta pública do governo que permitem participação de usuários, de terceiros”, disse.
Ele acrescentou que a proposta de estabelecer um “dever de cuidado” – pelo qual as plataformas teriam de monitorar previamente todo o conteúdo, a fim de retirar o que possa ser considerado crime – iria prejudicar as empresas pequenas e em crescimento.
“Além dos riscos de censura prévia, isso forçaria empresas e sites pequenos, inclusive operados por startups, a ter a mesma régua de fiscalização que está se debatendo para as grandes plataformas”, disse.
O diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS Rio), Carlos Afonso Souza, doutor e professor da UERJ, diz que, se o voto de Toffoli prevalecer, o STF criará uma das regulações mais complexas do mundo.
“O Supremo pode transformar um regime de responsabilidade que é simples (embora precise de ajustes) no mais complexo sistema de responsabilização de agentes na Internet jamais criado por qualquer país. A nova diretiva sobre responsabilidade de produtos na União Europeia ou a Lei de Intermediários na Internet da Índia não chegariam aos pés do grau de complexidade que passaria a vigorar no Brasil”, diz.
Caio Miachon Tenorio, advogado e sócio no escritório Lee, Brock & Camargo Advogados, mestre e doutorando em Direito Político e Econômico pela Universidade Presbiteriana Mackenzie, diz que a regulação proposta por Toffoli geraria insegurança jurídica para investimentos.
“A declaração de inconstitucionalidade do artigo 19 do MCI afetaria negativamente a inovação ao gerar insegurança jurídica, essencial para empresas e investidores no setor de tecnologia. Sem um marco regulatório claro, os intermediários digitais enfrentariam incertezas sobre suas responsabilidades, o que desincentivaria investimentos e dificultaria a operação de startups e novos players no mercado”, disse.
Ele também afirmou que os custos cresceriam com maior judicialização. Como mostrou a Gazeta do Povo, o voto de Toffoli poderá aumentar exponencialmente as ações contra as redes sociais por remoção de conteúdo – pessoas que forem censuradas de forma indevida passarão a cobrar das plataformas indenizações.
“A ausência de um ‘safe harbor’ legal, como a limitação da responsabilidade dos provedores, aumentaria o risco de judicialização em massa, elevando custos operacionais e tornando inviável a gestão de plataformas digitais em larga escala”, diz Tenorio.
Ele alerta também que competitividade das empresas brasileiras do setor será prejudicada, uma vez que o Marco Civil da Internet é reconhecido internacionalmente por equilibrar liberdade de expressão, privacidade e responsabilidades no ambiente digital, reduzindo sua atratividade no mercado internacional. Por fim, Tenorio considera que o ambiente de startups, que depende de um ecossistema jurídico estável, seria gravemente afetado.
"A declaração de inconstitucionalidade do artigo 19 do Marco Civil da Internet representaria um retrocesso não apenas para a proteção de direitos fundamentais, mas também para o desenvolvimento da economia digital no Brasil”, afirma.
Com custos maiores para cobrir o risco, o preço dos serviços tende a aumentar. “É muito provável que os serviços oferecidos por plataformas digitais se tornem mais caros ou que passem a ser cobrados. Essa elevação de custo se deve à necessidade de as empresas mitigarem os riscos legais associados à responsabilização direta pelo conteúdo gerado por terceiros”, conclui o advogado.
Regras sobre direitos autorais podem frear avanço em IA no Brasil, diz setor
Enquanto o STF avança sobre as redes sociais e plataformas de aplicação de internet, o Congresso está debatendo regras para a inteligência artificial (IA). Em 10 de dezembro, o Senado aprovou o Projeto de Lei (PL) 2338/23, que cria o marco regulatório para o setor no Brasil.
Apesar de avançar em temas como autorização para uso de imagens e voz e proteção à privacidade, o texto, de autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG), deixou questões polêmicas em aberto, como a fiscalização e a remuneração por conteúdos protegidos por direitos autorais, além de suscitar preocupações com a censura de um futuro órgão estatal.
O projeto que foi para a Câmara define o que são sistemas de inteligência artificial, agentes de IA (desenvolvedores, distribuidores e aplicadores) e “conteúdos sintéticos” — materiais como imagens, vídeos, áudios e textos gerados ou modificados. Cria também o Sistema Nacional de Regulação e Governança de IA (SIA), sob coordenação da Autoridade Nacional de Proteção de Dados (ANPD), cuja diretoria é indicada pelo governo federal. Ao delegar poderes ao SIA para regular as inovações sem o crivo do Legislativo, há o temor da imposição de excessivos vieses.
A Frente Parlamentar pelo Livre Mercado (FPLM) critica o projeto, alinhando-se a empresas de tecnologia que apontam restrições prejudiciais ao treinamento de modelos de IA comerciais. Segundo a FPLM, as exigências de pagamento pelo uso de conteúdos e divulgação dos dados utilizados desestimulam investimentos, comprometem o progresso tecnológico e reduzem a competitividade do Brasil.
Empresas e parlamentares contrários a pontos do projeto alertam que, ao adotar regras mais rígidas que as europeias, o marco regulatório pode inibir avanços no setor. Entre os impactos previstos estão a redução do treinamento de IA em português brasileiro, desestímulo à infraestrutura digital, como data centers, e queda na geração de empregos em tecnologia. Por todas essas razões, o senador Plínio Valério (PSDB-AM) considerou açodada a aprovação do marco da IA no Senado, sem ouvir a sociedade.
Cobrança por direitos autorais é desafio para futuro órgão estatal, diz especialista
Eduardo Galvão, diretor de relações governamentais da Burson Brasil, considera a fiscalização do uso de conteúdos de terceiros em Inteligência Artificial um desafio complexo, dado o grande número de envolvidos e de aplicações. Ele defende que arcabouços existentes, como o Marco Civil da Internet e a Lei de Direitos Autorais, oferecem base legal adequada para lidar com o tema.
“Muitas questões de direitos autorais relacionadas à IA são só novas formas de práticas já contempladas por outros marcos legais”, afirma. Segundo ele, a aplicação dessas normas dependerá do perfil do governo — liberal ou intervencionista. Ele ressalta que os detalhes sobre como se operacionalizará o recolhimento e o repasse dos valores devidos pelo uso de conteúdos só serão conhecidos após a promulgação da lei.
Galvão acredita que o marco regulatório servirá como base geral, enquanto ministérios e órgãos específicos, como os de Agricultura, Indústria e Educação, definirão regulamentações próprias. Contudo, ele alerta para o custo da fiscalização, que provavelmente recairá sobre a iniciativa privada, seja por meio de autorregulação e conformidade, seja por taxas destinadas a financiar a estrutura administrativa estatal.
O professor e advogado Hélio Moraes aponta o papel atribuído à ANPD no marco regulatório da inteligência artificial (IA) aprovado pelo Senado como ponto de debate. Inicialmente, previa-se que a ANPD ofereceria suporte a órgãos setoriais e supervisionaria a aplicação de regras específicas. No entanto, o texto final restringe essa atuação para evitar conflitos regulatórios entre deferentes órgãos.
O especialista em direito digital sublinha ainda que a ANPD passará a ter competência regulatória plena em setores sem órgão regulador específico, enquanto sua atuação nos demais segmentos será residual. Além disso, ANPD e autoridades setoriais poderão credenciar organismos nacionais ou internacionais para avaliar a conformidade com as normas, identificar riscos no uso de sistemas de IA e classificar tecnicamente o seu impacto.