O astronauta David Bowman (Keir Dullea) e o computador HAL 9000, dotado de inteligência artificial, em cena do filme “2001: A Space Odyssey” de 1968.| Foto: Reprodução/Hawk Films
Ouça este conteúdo

A Inteligência Artificial se desenvolve de maneira incrivelmente rápida, suscitando discussões ao redor do mundo sobre quais seriam as melhores formas de regular sua utilização, de modo a conciliar sua aplicação a padrões éticos e legais.

CARREGANDO :)

Nesse sentido, diversos países assinaram, na semana passada, o primeiro tratado internacional sobre usos e padrões de inteligência artificial para os setores público e privado. O acordo, assinado por Andorra, Geórgia, Islândia, Noruega, Moldávia, San Marino, Reino Unido, Israel, Estados Unidos e União Europeia, visa a garantir que o uso de sistemas de IA seja “totalmente consistente com os direitos humanos, a democracia e o estado de direito”.

Ao ler essa notícia, lembrei imediatamente do clássico filme “2001 – Uma Odisseia no Espaço, de Stanley Kubrick” (1968). A famosa trama se desenvolve em torno da personagem HAL 9000, um computador dotado de inteligência artificial, responsável pelo gerenciamento da nave espacial Discovery One. HAL começa a agir de forma autônoma, interpretando a missão de forma diferente dos humanos, e acaba por decidir eliminar os astronautas por considerar que eles são uma ameaça ao cumprimento da missão.

Publicidade

No campo militar, o desenvolvimento de armas dotadas de inteligência artificial já suscita muitas discussões e preocupações. Embora a Agenda para a Paz da ONU, de 2023, tenha recomendado aos países que criem, até 2026, um instrumento jurídico que proíba o emprego de armas autônomas letais, o contexto geopolítico atual de enorme rivalidade tem dificultado que as grandes potências avancem na regulação do uso dos chamados Sistemas de Armamentos Autônomos Letais (LAWS – Lethal Autonomous Weapons Systems).

Os LAWS são armas capazes de, por intermédio de sensores, identificar objetivos a serem atacados e, utilizando algoritmos e inteligência artificial, engajar e destruir alvos de forma completamente autônoma, logo, sem qualquer tipo de interferência humana.

Embora armas semi-autônomas, como alguns tipos de drones, mísseis e sistemas antiaéreos, já estejam sendo amplamente empregados nos campos de batalha, estas se distinguem dos LAWS por exigirem a decisão de um ser humano – que pode ser responsabilizado por seus atos – para o engajamento.

Não há comprovação, até o momento, de que armas totalmente autônomas já tenham sido utilizadas em situações reais de conflitos. Entretanto, a tecnologia necessária para sua fabricação já está disponível.

Essa é uma realidade preocupante que desperta graves discussões de ordem ética, moral e legal. Afinal, é admissível que uma máquina “decida” pela eliminação de uma vida humana?

Publicidade

Quem seria responsabilizado pelo eventual cometimento de crimes de guerra perpetrados por LAWS? O uso dessa tecnologia poderá nos levar no futuro para a realidade distópica do filme 2001, no qual máquinas se rebelam contra seres humanos que “atrapalham” o cumprimento de sua missão?

A comunidade internacional já obteve êxitos ao tentar banir armas que por sua desumanidade foram consideradas inadmissíveis. É o caso da Convenção Internacional sobre a Proibição do Desenvolvimento, Produção, Estocagem e Uso de Armas Químicas e sobre a Destruição das Armas Químicas Existentes no Mundo, assinada em Paris, em 1993, e amplamente aceita pela comunidade internacional, tendo sido assinada por 193 países.

O exemplo do esforço internacional para banimento das armas químicas é um bom modelo a ser seguido em relação às armas autônomas, na tentativa de se impedir o uso indiscriminado da inteligência artificial como uma poderosa (e quiçá incontrolável) nova tecnologia bélica.

Seguir este, ou qualquer outro modelo eficaz, superando as disputas geopolíticas atualmente em curso seria não apenas desejável, mas essencial para se evitar uma escalada descontrolada de tecnologias autônomas nos campos de batalha.