A maravilha da tecnologia é que ela faz o que pedimos e a desgraça da tecnologia é que ela faz o que pedimos. Um relatório bombástico da ONU mostra que um drone autônomo assassino perseguiu e tentou matar um soldado sem que recebesse nenhuma ordem específica para isso.
Sempre houve uma polêmica sobre armas autônomas exatamente por causa do medo de que, com o machine learning, passassem a escolher quem são seus alvos sem passar por deliberação humana. Agora aconteceu pela primeira vez, segundo relatório de experts encomendado pela ONU.
>> NOVIDADE: faça parte do canal de Vida e Cidadania no Telegram
O evento foi investigado por especialistas internacionais e ocorreu na Líbia, em março do ano passado. Um drone do tipo Kargu-2 Quadrucóptero, de fabricação turca, utilizado pelo governo líbio num conflito com paramilitares resolveu perseguir e atacar um soldado paramilitar sem que ninguém tenha instruído a máquina para isso.
Estamos diante de duas camadas diferentes de discussão. A primeira é sobre armas autônomas, a vanguarda no warfare, cada vez mais populares. Devem ou não existir? A segunda é sobre a programação dos algoritmos de armas autônomas. Como garantiremos que elas não comecem a matar pessoas por vontade própria, sem ordens humanas?
>> INDIQUE A COLUNA por este link, assinaturas do #TeamMada
O primeiro ponto é o Kangu-2 Quadricóptero em si. É uma máquina de matar turca, que pode ser operada ou entrar numa operação autônoma, como piloto automático só que tomando decisões. No caso, mais precisamente como kamikase, já que ele pode se detonar pelo impacto contra um alvo. Foi feito para estratégias de guerra em situações desiguais ou para o combate ao terrorismo. No vídeo abaixo, você vê a propaganda do drone.
Várias entidades de Direitos Humanos são contra a permissão para que existam armas autônomas. Não estamos falando aqui de uma máquina que pode apenas seguir instruções como piloto automático. É uma máquina capaz de reconhecer um padrão de instruções e agir sozinha.
No ano passado, a Human Rights Watch iniciou uma campanha chamada "Stop Killer Robots" (Parem os robôs assassinos). São contra o desenvolvimento desse tipo de arma de guerra 30 países, 4500 especialistas internacionais em Inteligência Artificial e 170 organizações não-governamentais e da sociedade civil.
Ainda não há legislação sobre armas de guerra completamente autônomas, mas há muitos defensores do banimento. A produção, pesquisa e utilização seria considerada ilegal pelas Nações Unidas. Na prática, como isso impediria o uso de algo assim? Não impediria, mas evitaria o desenvolvimento em larga escala e investimentos nisso.
É como no caso de agentes biológicos de guerra já proibidos, como Agente Laranja e Gás Sarin, Pode ser que existam por aí, mas não há mais hipótese de um governo abertamente investir nisso ou de conglomerados decidirem dedicar-se à produção deste tipo de coisa. A ideia com as armas autônomas de guerra é a mesma.
Os drones foram parar na Líbia de uma forma que infringe vários tratados internacionais pela falta de transparência. No entanto, ainda não há nenhuma legislação específica sobre armas autônomas. O Kangu-2 Quadriciclo foi desenvolvido pela Turquia para uso pelo exército do país e entrou em operação em janeiro de 2020. Pouco tempo depois, já estava na Líbia, sem conhecimento da comunidade internacional.
"Os sistemas de armas que selecionam e perseguem alvos sem um controle humano significativo são inaceitáveis e precisam ser evitados. Todos os países têm o dever de proteger a humanidade deste desenvolvimento perigoso, banindo armas totalmente autônomas. Manter o controle humano significativo sobre o uso da força é um imperativo ético, uma necessidade legal e uma obrigação moral", diz a Human Rights Watch.
Agora vamos à outra camada de discussão que não é sobre armas autônomas mas sobre a possibilidade de subjugar a vontade e a decisão humanas por meio de máquinas e algoritmos. Aqui temos um caso clássico e absurdamente preocupante. Uma máquina que age de forma autônoma escolhe, em vez de seguir os alvos programados, escolher outra pessoa e ir atrás dela.
Mas pode ocorrer também em situações que parecem muito benéficas e não têm nada de mal. Imagine que alguém tenha sido amputado e esteja treinando o uso de uma prótese de braço que lê ondas cerebrais por meio de um chip. O chip recebe ondas elétricas, interpreta o que a pessoa deseja fazer com o braço e o braço move exatamente daquela forma. Um verdadeiro milagre da ciência.
Agora imagine que a pessoa está exausta pelo processo de treinar a utilização do braço, que é longo e difícil. Além disso, não vai com a cara de um dos técnicos, tudo nele causa irritação. A pessoa não diz nada porque é pura birra e também porque deseja terminar o treinamento o mais rápido possível. Nesse turbilhão de pensamentos, o braço ataca o técnico irritante. Esses pensamentos estavam lá, mas não foram uma deliberação de vontade e foram lidos assim.
Entramos aqui no que se chama de Direitos Neurais. A garantia de que máquinas e algoritmos não podem ser construídos para substituir o livre arbítrio e a deliberação de vontade de seres humanos. Neste artigo, explico detalhadamente o que são direitos neurais e como se pensa em implementá-los. Estamos diante de um descompasso entre a velocidade da tecnologia e da regulamentação.
Vivemos uma fase de deslumbramento e confiança cega na infalibilidade de máquinas. Precisamos ultrapassar o encantamento para fazer um uso delas no sentido de avanço e abundância para a humanidade. É um processo que exige identificar problemas, tomar consciência deles e resolver. Não legislamos sobre armas autônomas e Direitos Neurais. Agora já temos um drone assassino autônomo que age seguindo a própria vontade. De quem é a responsabilidade? Do drone? O futuro já chegou.
Triângulo Mineiro investe na prospecção de talentos para impulsionar polo de inovação
Investimentos no Vale do Lítio estimulam economia da região mais pobre de Minas Gerais
Conheça o município paranaense que impulsiona a produção de mel no Brasil
Decisões de Toffoli sobre Odebrecht duram meses sem previsão de julgamento no STF