Ouça este conteúdo
As mais recentes legislações dos Estados Unidos e União Europeia (UE) para a regulação do uso da Inteligência Artificial (IA) têm um ponto em comum: evitar o desenvolvimento e o uso de sistemas para a classificação de pessoas com base em comportamentos, status socioeconômico e características pessoais.
Tanto os EUA quanto a União Europeia adotam uma abordagem semelhante, que parte da classificação dos riscos que as aplicações da IA podem trazer para a sociedade. Dessa forma, tanto o “Artificial Inteligence Act” (IA Act), aprovado no dia 14 de junho pelo Parlamento Europeu, quanto o “Projeto para uma Declaração de Direitos de IA”, lançado em outubro de 2022 pela Casa Branca, dentre os usos de altíssimo risco, elencaram aqueles sistemas cujos algoritmos podem levar à discriminação das pessoas.
Na verdade, o que se tenta evitar é a criação de um sistema tal como o crédito social chinês. Implementado a partir de 2014, ele utiliza informações dos usuários, desde históricos escolares até a postagem em redes sociais para gerar uma nota de cada cidadão. Quanto maior a nota, maiores são os benefícios de que a pessoa pode usufruir, como tratamento privilegiado em hospitais, escolas particulares e até direito a viajar. Por outro lado, cidadãos que criticam o governo, participam de cultos, não visitam os pais idosos e com infrações de trânsito têm suas notas rebaixadas, o que pode implicar na restrição de acesso a serviços públicos, a crédito nas redes bancárias e a comprar uma casa própria, por exemplo.
As novas legislações chegam no momento em que vários CEOS e figuras-chave do setor de tecnologia, como Elon Musk e Bill Gates, alertaram sobre os prejuízos que o uso desenfreado da IA pode trazer para a humanidade e pediram uma pausa nas pesquisas do setor, o que não ocorreu.
De acordo com o Parlamento Europeu, “a UE está atualmente preparando o primeiro conjunto de regras abrangentes do mundo para gerenciar as oportunidades e ameaças da IA. O objetivo é transformar a UE em um centro global de IA confiável.” Já o presidente dos EUA, Joe Biden, durante encontro com especialistas em IA na Casa Branca, disse que “os esforços [de sua administração] são no sentido de que os norte-americanos possam liderar o caminho e impulsionar os avanços nessa área crítica.”
Implementação da lei europeia
Executada de forma coordenada e centralizada, a legislação europeia é composta por três normativas já em vigor: o Regulamento Geral de Proteção de Dados (GDPR), a Lei de Serviços Digitais e a Lei de Mercados Digitais. A elas se soma o “IA Act” que, segundo expectativas, deve ser plenamente implementado até o fim deste ano. Agora, a norma segue para negociações entre os países da UE no Conselho Europeu, até que ganhe seu formato final de lei.
A nova regulação europeia estabelece quatro níveis de risco: inaceitável, alto, IA generativa e limitado. A primeira categoria, além do uso de algoritmos para classificação de pessoas, inclui ainda sistemas de manipulação de pessoas ou grupos vulneráveis, tais como bonecos que induzem crianças a determinados comportamentos; e sistemas biométricos de identificação e vigilância em tempo real, como reconhecimento facial. Neste último caso, serão permitidas exceções, autorizadas por ordens judiciais, para casos de terrorismo, entre outros crimes, a partir de imagens pré-gravadas.
Produtos que utilizam IA e sistemas de identificação biométrica, gestão e operação de infraestruturas, educação, seleção e contratação de profissionais, acesso a serviços públicos, aplicação e interpretação da lei, migração, asilo e controle de fronteiras são classificados como de alto risco e serão revisados antes de serem disponibilizados ao mercado. Para as aplicações com risco moderado, a lei europeia prevê que seja esclarecido para os usuários que estão interagindo com a IA, até mesmo em sistemas que manipulam imagens, vídeos e áudios, e que geram os famosos “deep fakes”.
Para os aplicativos com IA generativa, o caso do ChatGPT, foram estabelecidos requisitos de transparência, tais como revelar que o conteúdo foi gerado por IA, não permitir que gerem conteúdo ilegal ou protegido por copyright. Além disso, terão que expor quais dados compõem a base de aprendizado das ferramentas [a IA generativa "aprende" a partir do cruzamento dos dados de sua biblioteca de informações, responsável por alimentar seu repertório de possíveis soluções - ou seja, ela replica e combina, mas não cria nada].
Segundo Alex Engler, pesquisador do Centro para Inovação Tecnológica do Instituto Brookings, uma ONG para o estudo de políticas públicas localizada em Washington, a legislação europeia já extrapola suas fronteiras e influencia a forma de pensar a regulação da IA em outros países. No entanto, ele argumenta que, mesmo que a lei europeia traga impactos significativos para os mercados globais, há outros fatores importantes que influenciam essa equação, dentre os quais, a própria regulação dos Estados Unidos.
“De fato, alguns formuladores de políticas da UE acreditam que é um objetivo crítico do AI Act estabelecer um padrão mundial, tanto que alguns se referem a uma corrida para regulamentar a IA. Esse enquadramento implica que não apenas há valor em regular os sistemas de IA, mas que estar entre os primeiros grandes governos a fazê-lo terá um amplo impacto global em benefício da UE (...), mas a Europa sozinha não estabelecerá um novo padrão internacional abrangente para IA ”, escreveu em artigo publicado no site do Instituto.
Em uma ação que demonstra o ímpeto e a busca da parceria norte-americana para a regulação do setor, em setembro de 2022, a UE abriu um escritório em São Francisco. Segundo o Serviço Diplomático do bloco, a nova representação "reforçará a cooperação da UE com os Estados Unidos em matéria de diplomacia digital e fortalecerá a capacidade da UE para alcançar as principais partes interessadas, tanto públicas quanto privadas, incluindo formuladores de políticas, a comunidade empresarial e a sociedade civil no setor da tecnologia digital".
De acordo com o Alto Representante da UE para os Negócios Estrangeiros e a Política de Segurança e Vice-Presidente da Comissão Europeia, Josep Borrell, a abertura do escritório "é um passo concreto para reforçar ainda mais o trabalho da UE em questões como ameaças cibernéticas e híbridas e manipulação e interferência de informações estrangeiras.”
Regulação nos Estados Unidos
Diferentemente do que ocorre na UE, nos Estados Unidos, as regras para uso de IA são descentralizadas, e sua criação e implementação é de responsabilidade de agências federais como a Food and Drugs Administration [similar à Anvisa], entre outras. Além disso, também não costumam ser vinculativas, ou seja, servem mais como indicações para análise, coleta de dados e estabelecimento de diretrizes, que como uma lei propriamente dita.
Segundo Engler, essa abordagem contribui para o desenvolvimento desigual das políticas de IA, uma vez que depende da disposição e capacidade de elaboração de cada órgão regulador. “A quantidade e variedade de documentos produzidos pela Casa Branca não foi suficiente para produzir uma abordagem consistente”, comentou.
Segundo relatório publicado pela Universidade de Stanford em dezembro de 2022, intitulado “Desafios na Implementação dos Três Pilares da Estratégia de IA da América”, “o ecossistema de inovação de IA norte-americano está ameaçado pela implementação fraca e inconsistente desses requisitos legais”. O estudo analisa os avanços obtidos a partir de três normativas: a Lei de IA no Governo de 2020; a Ordem Executiva sobre “Liderança em IA”; e a Ordem Executiva sobre “IA no Governo”.
As conclusões dos pesquisadores não deixam dúvidas sobre a falta de coordenação na implementação das regras: menos de 40% dos requisitos que puderam ser verificados foram implementados. Ainda mais, 88% das agências examinadas carecem de planejamento ou de responsáveis pelas políticas de IA. “A alta prevalência de não implementação sugere um vácuo de liderança e lacuna de capacidade nas agências e no nível nacional”, completa.
Ainda assim, a Casa Branca tem empreendido esforços para alinhar as regulações das agências, como o lançamento do “Projeto para uma Declaração de Direitos de IA”. O documento traz uma lista associada de ações que devem ser implementadas pelas agências federais e cinco princípios para mitigar esses prejuízos: sistemas seguros e efetivos, proteção à discriminação por algoritmos, privacidade de dados, notificação e explicação, e alternativas humanas.
Além da não discriminação das pessoas pelos algoritmos, a nova regra toca em outros temas já expressos nas legislações anteriores: o direito das agências a ampla consulta e realização de testes prévios em produtos e sistemas oferecidos ao público, que podem levar à retirada ou ao não lançamento no mercado; restrições e transparência para a coleta de dados, e proteção contra a violação de privacidade dos usuários; explicação de resultados de classificações feitas por sistemas de IA, notificações quando houver interação com esses sistemas e acesso a atendimento humano quando solicitado.
Ainda que a lista seja extensa, a última normativa lançada pelos EUA parece não chegar ao cerne da questão norte-americana, que é a efetividade, inclusive, na aplicação das normas anteriores, já que sua adoção, ao que tudo indica, parece mais urgente que nunca. Como afirmou o presidente Joe Biden, “nos próximos dez anos nós veremos mais mudanças tecnológicas do que vimos nos últimos 50 anos e, talvez, bem além disso. A IA já está fazendo essa mudança, em todas as áreas da vida dos americanos, de formas que nem percebemos”. Resta saber se os EUA conseguirão, de fato, instituir suas regras a tempo.