Iron Dome de Israel interceptando mísseis lançados por terroristas a partir da Faixa de Gaza em outubro de 2023| Foto: EFE/EPA/MOHAMMED SABRE
Ouça este conteúdo

O cenário global contemporâneo é marcado por um crescente uso da inteligência artificial (IA) em conflitos bélicos, com exemplos recentes como a guerra entre Israel e Hamas, onde sistemas de defesa como o Domo de Ferro se confrontam com drones e mísseis de alta precisão, desafiando a fronteira entre o uso de tecnologia para defesa e ataque.

CARREGANDO :)

É um equívoco pensar que a IA é uma tecnologia recente. Desde a década de 40, a IA vem sendo desenvolvida, com aplicações que vão desde a decifração de mensagens na Segunda Guerra Mundial até o desenvolvimento de sistemas de defesa avançados.

A IA, em sua essência, trata-se de máquinas capazes de processar dados de forma similar aos humanos, seguindo comandos programados, reconhecendo padrões e aprendendo por meio de bases de dados. Essa capacidade de "aprender" e de se adaptar a novos cenários é o que a torna tão poderosa e, ao mesmo tempo, tão perigosa em um contexto bélico ou de uma guerra.

Publicidade

O Domo de Ferro, o famoso sistema de defesa israelense, é um exemplo emblemático de DAWS (Defensive Autonomous Weapon Systems), sistemas de armas autônomas defensivos, que utilizam a IA para analisar dados de radares, calcular a trajetória de mísseis e enviar comandos para a interceptação de ameaças no caso de uma guerra ou de ataques.

A possibilidade de sistemas de armas totalmente autônomos, capazes de escolher e atacar alvos sem intervenção humana, se torna cada vez mais real

Sua criação foi impulsionada pelos ataques de mísseis do Hezbollah contra cidades israelenses na década de 90, ganhando força em 2004 e tornando-se operacional em 2011. O sistema se compõe de radares que identificam o tipo de míssil e sua trajetória, uma central de armas e gerenciamento de batalhas que processa informações e determina a necessidade de interceptação, e unidades de disparo de mísseis de interceptação que se movem rapidamente para neutralizar a ameaça.

O Domo de Ferro, apesar de sua eficácia, que chega a 90% de precisão, possui limitações, como o alto custo dos mísseis de interceptação e a impossibilidade de proteção total. Por isso, Israel utiliza outros sistemas de defesa, como o David's Sling, o Arrow e o Iron Beam, cada um com diferentes capacidades e níveis de autonomia.

Do lado oposto, grupos como o Hamas e o Hezbollah utilizam mísseis de diferentes graus de sofisticação. O Hamas utiliza foguetes simples em grande quantidade, buscando saturar o sistema de defesa, enquanto o Hezbollah possui mísseis de alta precisão, com capacidade de atingir alvos específicos, utilizando informações pré-programadas para calcular trajetórias e atingir o alvo designado.

Publicidade

O Irã, por sua vez, possui um arsenal de drones, mísseis cruzeiro e balísticos. Os drones utilizados, chamados de "suicidas" por sua capacidade de sobrevoar o alvo antes de se lançar, são programados para atingir um alvo fixo. Os mísseis cruzeiro e balísticos, por sua vez, possuem capacidade de desvio de rota, dificultando sua interceptação e aumentando sua precisão.

O ataque do dia 19 de julho em Tel Aviv, realizado por um drone autônomo comandado pelos Houthis do Iêmen, demonstra a crescente ameaça da IA na guerra. Esse ataque, que causou danos materiais e ferimentos, mostra como a tecnologia está se tornando cada vez mais acessível a grupos não estatais, com potencial para aumentar o risco de instabilidade e violência global.

Todos esses sistemas de ataque, incluindo drones, mísseis e foguetes, utilizam a IA em algum nível, seja para o reconhecimento de alvos, cálculo de trajetórias ou execução de comandos. A IA permite, cada vez mais, uma identificação de alvos precisa, mas ainda depende de comandos pré-programados ou de um operador humano que controla o disparo.

A crescente sofisticação da IA em sistemas bélicos levanta preocupações sobre o futuro da guerra. A possibilidade de sistemas de armas totalmente autônomos, capazes de escolher e atacar alvos sem intervenção humana, se torna cada vez mais real. Essa perspectiva levanta questões éticas e legais complexas, já que a responsabilidade por ações letais de máquinas autônomas é um terreno ainda inexplorado.

Atualmente, a maioria dos países não possui legislação específica para regular o desenvolvimento e o uso de armas autônomas. O Direito Internacional, por meio de tratados como a Carta das Nações Unidas e a Convenção de Genebra, aborda a guerra e os crimes de guerra, mas não contempla especificamente as armas autônomas. A falta de uma estrutura legal clara e universal para regular o uso da IA em sistemas bélicos torna a situação ainda mais complexa e perigosa.

Publicidade

A crescente militarização da IA exige um debate urgente e global sobre as implicações éticas, legais e sociais do seu uso. É fundamental estabelecer regras claras para o desenvolvimento e o uso de sistemas de armas autônomas, garantindo que a responsabilidade por ações letais seja sempre atribuída a um ser humano.

O risco de sistemas de armas autônomos caírem em mãos erradas, seja por governos autoritários ou por grupos extremistas, é uma ameaça real. A capacidade de sistemas autônomos de se adaptar e de aprender, aliada à possibilidade de acesso a arsenais nucleares, torna a situação ainda mais alarmante.

A inteligência artificial, ferramenta poderosa com potencial de revolucionar diversas áreas, apresenta um desafio urgente e complexo em termos bélicos. A falta de regulamentação, a corrida armamentista e a crescente autonomia das máquinas exigem que a comunidade internacional se mobilize para garantir que o futuro da guerra seja definido por princípios éticos e legais que prevaleçam sobre a lógica da força e do poder.

Thereza Castro, advogada, estudou Liderança em Inovação na Universidade Hebraica de Jerusalém, e hoje pesquisa inteligência artificial e direito.

Infográficos Gazeta do Povo[Clique para ampliar]
Publicidade