O senador Astronauta Marcos Pontes conduziu o debate sobre o PL da Inteligência Artificial.| Foto: Waldemir Barreto/Agência Senado
Ouça este conteúdo

A Inteligência Artificial já causou um enorme impacto no Brasil e no mundo; De acordo com pesquisa do MIT Sloan Management Review Brasil e Instituto Locomotiva, mais de 91% das empresas utilizam IA em sua operação no nosso país. Essa adoção em massa se explica pelos benefícios que a ferramenta acrescenta no dia a dia das pessoas. Contudo, à medida que essa inovação avança, surge uma preocupação sobre a necessidade de regulação da IA para garantir que seu uso seja ético, transparente e seguro. Dúvidas como a formatação de algoritmos e a chamada “caixa-preta” ainda pairam sobre essa tecnologia, além de possíveis preconceitos e desinformações geradas pelas ferramentas.

CARREGANDO :)

Em todo mundo já há debates para regulações estatais na inteligência artificial. Na Califórnia, por exemplo, uma proposta de legislação mais rígida foi barrada, gerando discórdia sobre o impacto que isso teria na inovação local pelo fato de abrigarem gigantes da tecnologia, como OpenAI, Meta e Google.

Apesar dos exemplos internacionais, precisamos de uma legislação própria, adaptada à realidade local. Não basta copiar modelos estrangeiros

Publicidade

Para o Brasil, precisamos tomar cuidados parecidos. Atuando como coordenador do Eixo 6 da Estratégia Brasileira de Inteligência Artificial (EBIA), tenho visto de perto o desafio de criar uma regulação que incentive a inovação sem comprometer a segurança. O tema central da regulação da IA deve ser pautado pela ética e transparência. Regular a IA não deve ser confundido com censura. Pelo contrário, trata-se de criar um ambiente que favoreça a inovação de forma responsável, garantindo que o desenvolvimento de soluções seja seguro e alinhado com princípios éticos claros.

Apesar dos exemplos internacionais, precisamos de uma legislação própria, adaptada à realidade local. Não basta copiar modelos estrangeiros. No EBIA, um dos pilares que tem sido trabalhado para garantir uma IA ética e segura é a implementação dos chamados "Living Labs Regulatórios". Esses laboratórios permitem testar modelos de autorregulação antes que eles cheguem ao mercado. Com isso, é possível inovar e experimentar soluções de forma controlada, ajustando os mecanismos de regulação conforme necessário, sem sufocar o potencial de crescimento tecnológico. A experiência internacional mostra que há um equilíbrio delicado a ser mantido entre incentivar a inovação e criar regras para um desenvolvimento saudável da IA.

Indo para a parte prática, o Brasil está em um momento crucial para definir seu papel no cenário global da IA, especialmente com o PL 2.338/2023, apelidado de Marco Legal da IA. No entanto, o projeto vem se arrastando há meses na comissão especial do Senado e ainda carece de um estudo de impacto regulatório para o setor, como foi feito na Europa.

Devemos avançar com uma regulação que seja, ao mesmo tempo, justa, eficiente e que incentive o desenvolvimento tecnológico. A criação de um marco regulatório sólido é essencial para que possamos explorar todo o potencial da IA, sem deixar de lado a ética e a transparência, que são fundamentais para o seu uso responsável e uma adesão universal.

Marcelo Abreu é CTO do VENTURUS e coordenador da Estratégia Brasileira de IA (EBIA).

Publicidade
Infográficos Gazeta do Povo[Clique para ampliar]