Um drone militar pode ter atacado alvos humanos de maneira autônoma pela primeira vez na história. Segundo um relatório do Conselho de Segurança da ONU, o robô atingiu soldados leais ao general líbio Khalifa Haftar em março deste ano.
O relatório não deixa claro se algum soldado morreu durante o incidente, mas reforça que o drone de inteligência artificial Kargu-2, fabricado pela empresa de tecnologia militar turca STM, selecionou e atacou seres humanos sem a supervisão de um operador.
“Os sistemas de armas autônomas letais foram programados para atacar alvos sem exigir conectividade de dados entre o operador e a munição: na verdade, eles possuem uma real capacidade de encontrar e disparar, utilizando algoritmos de aprendizagem de máquina”, diz um trecho do relatório da ONU.
Máquinas mortíferas
O Kargu-2 é um drone que atua em modo ocioso, usando um sistema de visão computacional para classificar e selecionar objetos ou pessoas possivelmente hostis. Ele também possui um recurso avançado que permite que até 20 drones trabalhem juntos durante uma missão não tripulada.
Quando está em modo de espera, o Kargu-2 consegue pairar e cobrir longas distâncias até detectar um possível alvo. Para especialistas, eles funcionam como uma espécie de campo minado aéreo, pronto para atacar quando julgam que ameaças em potencial se aproximam de um determinado perímetro.
Dados do relatório da ONU apontam que conflitos recentes entre Armênia e Azerbaijão e entre Israel e o Hamas, na faixa de Gaza, utilizaram armas autônomas com o Kargu-2 de forma extensiva e sem a supervisão humana durante missões de combate.
Discussão antiga
Muitos pesquisadores e especialistas em robótica, incluindo o fundador da Tesla, Elon Musk, e o filósofo norte-americano Noam Chomsky já pediram a proibição mundial de armas autônomas de ataque, que tem potencial para ferir e matar pessoas com base em decisões tomadas por algoritmos de aprendizagem de máquina.
Fundada em outubro de 2012, a campanha Stop Killer Robots é uma coalizão de organizações não governamentais que trabalha para banir armas totalmente autônomas e manter o controle humano sobre o uso da força.
Além dessas ações, os cientistas alertam que os dados usados no treinamento da IA dos robôs para classificar e identificar objetos como ônibus, carros, casas e civis não são complexos o bastante nem robustos o suficiente para evitar possíveis falhas e enganos na avaliação delegada aos drones.
Para o consultor de segurança Zachary Kallenborn, existe um risco maior de algo sair errado quando vários drones autônomos se comunicam e coordenam suas ações sozinhos em um campo de batalha. “A comunicação cria riscos de erros sérios em cascata, nos quais um equívoco de uma unidade é compartilhado com outra e assim por diante”, completa Kallenborn.
Apesar das iniciativas humanitárias e dos pedidos ao redor do mundo, as principais forças militares do planeta, como EUA, China, Rússia e Reino Unido, possuem drones assassinos em seus arsenais bélicos, prontos para atacar o inimigo da vez.