A guerra seria muito mais segura, de acordo com o exército norte-americano, se fosse realizada principalmente por robôs.
Apesar de máquinas inteligentes já fazerem parte da guerra moderna, o exército e seus fornecedores estão ávidos para aumentar o número delas nas batalhas. Novos robôs nenhum deles com aparência humana estão sendo projetados para desempenhar um número cada vez maior de tarefas, desde detectar atiradores até servir como sentinelas incansáveis.
Máquinas exibidas no mês passado em um "Rodeio de Robótica" em uma escola de treinamento do exército dos EUA, não apenas protegem os soldados, mas também nunca se distraem, usando um olho digital que não pisca, ou "olhar persistente", que detecta automaticamente até mesmo o menor movimento. E mais: a grande vantagem é que os robôs não entram em pânico caso seja aberto fogo.
"Um dos melhores argumentos a favor do robô armado é que ele pode ser o segundo a atirar", diz Joseph W. Dyer, vice-almirante da reserva e diretor operacional responsável pela iRobot, empresa que fabrica robôs utilizados na remoção de explosivos. De acordo com o executivo, quando uma máquina olha para um campo de batalha, pode avaliar a cena com mais calma, sem disparar apressadamente contra uma pessoa inocente.
Controvérsia
Mas a ideia de que robôs com rodas ou pernas e que dispõem de sensores e armas possam algum dia substituir ou suplementar soldados humanos ainda é fonte de controvérsia. Como os robôs podem realizar ataques com pouco risco imediato para as pessoas que os operam, os oponentes dizem que os guerreiros robôs reduzem as barreiras às guerras, tornando as nações potencialmente menos destemidas em declará-la, o que consequentemente acarreta em uma nova corrida armamentista tecnológica.
"As guerras começarão com muita facilidade e com custos mínimos" à medida que a automação aumentar, prevê Wendell Wallach, acadêmico do Centro Interdisciplinar de Bioética de Yale e presidente do grupo de estudos de tecnologia e ética da universidade.
De acordo com especialistas da área de Wallach, os civis correrão riscos maiores, considerando os desafios em distinguir combatentes de pessoas inocentes. Esse trabalho é muito difícil para os militares em solo e se torna ainda mais complicado quando um dispositivo é operado a distância.
Esse problema já havia sido detectado com o lançamento de aeronaves "Predator", que encontram seus alvos com a ajuda de soldados no solo, mas são operadas remotamente a partir dos EUA. Como civis no Iraque e Afeganistão morreram em consequência de danos colaterais ou erros de identificação, os "Predators" têm gerado oposição internacional e suscitaram acusações de crimes de guerra.
Entretanto, os robôs combatentes são apoiados por um grande número de estrategistas militares, oficiais das forças armadas e projetistas de armas e até mesmo alguns defensores de direitos humanos.
"Muita gente tem medo da inteligência artificial", observa John Arquilla, diretor-executivo do Centro de Operações de Informação da Escola de Pós-Graduação Naval. "Eu defendo a inteligência artificial e digo que a IA prestará mais atenção às regras de engajamento e cometerá menos erros éticos do que um ser humano".
Arquilla argumenta que sistemas de armas controlados por software não agirão movidos por raiva ou maldade e, em certos casos, podem tomar decisões mais equilibradas no campo de batalha do que os seres humanos.
Iraque e Afeganistão
A automação provou ser vital nas guerras em que os Estados Unidos participam. No Iraque e no Afeganistão aeronaves não tripuladas batizadas com nomes como Predator, Reaper, Raven e Global Hawk têm mantido inúmeros soldados longe dos perigos do ar. Atualmente, os militares já utilizam mais de 6 mil robôs de operação remota para revistar veículos em pontos críticos, além de desarmar uma das armas mais eficazes dos inimigos: o IED, ou dispositivo explosivo improvisado, em inglês.
A mudança para uma guerra automatizada, todavia, pode oferecer apenas uma vantagem estratégica efêmera aos Estados Unidos. Cinquenta e seis países estão desenvolvendo armas robóticas atualmente, antecipa Ron Arkin, especialista em robôs do Instituto de Tecnologia da Geórgia e pesquisador financiado pelo governo norte-americano, que argumenta que é possível projetar robôs "éticos" que cumpram as leis de guerra e as regras militares de escalada.
Mas as questões éticas estão longe de ser simples. Durante o mês passado, na Alemanha, um grupo internacional que reunia pesquisadores de inteligência artificial, especialistas em controle de armas, defensores de direitos humanos e autoridades do governo, exigiu acordos para limitar o desenvolvimento e uso de armas autônomas e tele controladas.
O grupo, conhecido como Comitê Internacional para Controle de Armas Robóticas, disse que a guerra pode ser acelerada por sistemas automatizados, minando a capacidade dos seres humanos de tomar decisões responsáveis. Por exemplo, uma arma projetada para funcionar sem os seres humanos poderia atirar mais rapidamente em um agressor e sem levar em conta a consideração do soldado dos fatores sutis no campo de batalha.
"Os benefícios a curto prazo derivados dos aspectos de robotização da guerra provavelmente serão superados de longe pelas consequências a longo prazo", prevê Wallach, o acadêmico de Yale, sugerindo que as guerras ocorreriam mais prontamente e que certamente haveria uma corrida armamentista tecnológica.
Tradução: Thiago Ferreira