A Inteligência Artificial (IA) está presente em nosso cotidiano e suscita questões éticas a todo momento. Recomendações de filmes, séries e produtos podem colocar as pessoas em bolhas de opinião ou consumo, enquanto a realização de análises de crédito por meio de algoritmos traz o questionamento sobre quais dados não levam a uma injustiça. Notícias sobre os avanços recentes reforçaram a preocupação, como no episódio em que o sistema do ChatGPT recomendou que um pesquisador se separasse de sua mulher para ficar com ele. Considerando o alto impacto que a tecnologia já apresenta, as implicações éticas do uso da IA estão no centro das discussões, no Brasil e no mundo.
O desafio é ainda maior pelo fato de não haver, até o momento, uma regulação clara e única sobre o tema que possa orientar organizações sobre como decidir os dilemas. A adoção de princípios éticos padronizados e a criação de estruturas para lidar com essa preocupação são alguns dos movimentos de organizações nos últimos anos, mesmo na ausência de obrigações legais. Essas medidas ajudam, por exemplo, a prevenir e reduzir riscos negativos aos seus clientes e usuários, bem como à sua própria reputação.
Para guiá-las, muitas organizações desenvolvem políticas, procedimentos, ações, boas práticas e padrões internos para a criação e aplicação de sistemas de IA. Na ausência de regras emitidas pelos governos, esses documentos têm o papel de dar maior segurança no desenvolvimento e aplicação de sistemas de IA, inclusive quanto aos aspectos éticos. A inovação não espera a regulação e, mesmo que ela venha, será necessário que cada organização siga fazendo o seu papel, porque a legislação não será suficiente por si só.
Uma das medidas para fortalecer o desenvolvimento ético e responsável de IA é a criação de um órgão que possa auxiliar a organização a tomar decisões sobre dilemas éticos com transparência, abertura e ponderação. À semelhança do que ocorre nas pesquisas ou nas instituições médicas, surge na área da tecnologia a proposta dos Comitês de Ética em IA, que seriam estruturas voltadas para informação, orientação, prevenção e até mesmo avaliação dos projetos envolvendo essa inovação nas organizações.
A criação de Comitês de Ética pode trazer vários benefícios a quem pretende incorporar IA em seus produtos e serviços. Eles ajudam a identificar, analisar e avaliar riscos éticos, trazem para dentro da organização diferentes perspectivas e impactos não pensados, e auxiliam a liderança na tomada de decisões difíceis. Eles podem contribuir para as políticas internas da organização e para a mudança da cultura entre empregados e colaboradores. Também podem providenciar um canal de comunicação entre a organização e a sociedade em geral, em especial clientes e pessoas afetadas pela tecnologia.
Acreditamos que essa estrutura não precisa ficar confinada aos grandes grupos e empresas de tecnologia. Pequenas e médias empresas podem recorrer a Comitês de Ética em IA criados por associações setoriais. Hubs de inovação podem se juntar e disponibilizar estruturas desse tipo para as startups incubadas, semelhante ao que acontece no projeto Digital Catapult do Reino Unido. É possível, até mesmo, se pensar em uma estrutura governamental e descentralizada, envolvendo universidades ou empresas, como já acontece com os Comitês de Ética em Pesquisa, organizados em uma rede nacional pelo Conselho Nacional de Saúde.
É nesse contexto que propomos recentemente um modelo para Comitês de Ética em IA, resultado de nossa pesquisa no Centro de Ensino e Pesquisa em Inovação (CEPI), da FGV Direito SP, com a contribuição de B3, Dasa, FICO e Hub Mandic. O documento tem o objetivo de auxiliar organizações de todos os tamanhos a implementar estruturas que auxiliem na abordagem de questões ligadas à ética de IA (ex.: comitês de ética, times de desenvolvimento etc.).
Ele detalha cinco pilares para adoção de Comitês de Ética em IA (finalidade, estrutura, poder, processo de decisão e composição) e aprofunda as possibilidades para a constituição e o funcionamento dessas estruturas. O relatório com a íntegra da pesquisa será divulgado agora em abril.
O framework (modelo) proposto pelo CEPI FGV Direito SP é inovador, porque traz medidas práticas que podem ser pensadas imediatamente. Ele tem como objetivo fomentar o debate público sobre a regulação da IA no Brasil, ao mesmo tempo em que auxilia organizações a adotar suas ferramentas relacionadas à ética de IA sem depender da existência de uma legislação, permitindo que as empresas sigam cumprindo a sua função social sem perder de vista a inovação tecnológica.
No evento de lançamento, realizado em março, discutimos o documento com importantes atores da academia e do mercado, além das instituições apoiadoras da pesquisa, com boa recepção.
Sentimos, assim, que há um solo fértil para que essa ideia ganhe força e possamos ter, então, produtos e serviços que usam Inteligência Artificial de maneira cada vez mais ética e responsável.
Congresso frustra tentativa do governo de obter maior controle sobre orçamento em PL das Emendas
“Embargo ao Carrefour no Brasil inclui frango”, diz ministro da Agricultura
STF e Governo Lula se unem para censurar as redes sociais; assista ao Sem Rodeios
Procurador pede arquivamento dos processos federais contra Trump