Os militares dos EUA intensificaram o uso de ferramentas de inteligência artificial após os ataques do Hamas a Israel em 7 de outubro, com base em um novo relatório de Bloomberg. Schuyler Moore, diretor de tecnologia do Comando Central dos EUA, disse à organização de notícias que algoritmos de aprendizado de máquina ajudaram o Pentágono a identificar alvos para mais de 85 ataques aéreos no Oriente Médio neste mês.
Bombardeiros e aviões de combate dos EUA realizaram esses ataques aéreos contra sete instalações no Iraque e na Síria em 2 de Fevereiro, destruindo totalmente ou pelo menos danificando foguetes, mísseis, instalações de armazenamento de drones e centros de operações de milícias. O Pentágono também utilizou sistemas de IA para encontrar lançadores de foguetes no Iémen e combatentes de superfície no Mar Vermelho, que depois destruiu através de vários ataques aéreos no mesmo mês.
Os algoritmos de aprendizado de máquina usados para restringir os alvos foram desenvolvidos no Projeto Maven, a agora extinta parceria do Google com o Pentágono. Para ser mais preciso, o projeto envolveu o uso da tecnologia de inteligência artificial do Google pelos militares dos EUA para analisar imagens de drones e imagens de bandeiras para posterior revisão humana. Isso causou alvoroço entre os funcionários do Google: milhares peticionado a empresa a encerrar a sua parceria com o Pentágono, e alguns até desistiram completamente do seu envolvimento. Alguns meses depois do protesto dos funcionários, o Google decidiu não renovar seu contrato, que terminou em 2019.
Moore disse Bloomberg que as forças dos EUA no Médio Oriente não pararam de experimentar o uso de algoritmos para identificar alvos potenciais usando drones ou imagens de satélite, mesmo depois de o Google ter encerrado o seu envolvimento. Os militares têm testado a sua utilização durante o ano passado em exercícios digitais, disse ela, mas começaram a usar algoritmos de segmentação em operações reais após os ataques do Hamas em 7 de Outubro. Ela esclareceu, no entanto, que os trabalhadores humanos verificavam e verificavam constantemente as recomendações de metas dos sistemas de IA. Foi também o pessoal humano quem propôs a forma de organizar os ataques e quais as armas a utilizar. “Nunca existe um algoritmo que está apenas rodando, chegando a uma conclusão e depois avançando para a próxima etapa”, disse ela. “Cada etapa que envolve IA tem uma verificação humana no final.”
Fonte: