Tecnologia

O Pentágono usou IA desenvolvida pelo Projeto Maven para identificar alvos de ataques aéreos

Published

on


Os militares dos EUA intensificaram o uso de ferramentas de inteligência artificial após os ataques do Hamas a Israel em 7 de outubro, com base em um novo relatório de Bloomberg. Schuyler Moore, diretor de tecnologia do Comando Central dos EUA, disse à organização de notícias que algoritmos de aprendizado de máquina ajudaram o Pentágono a identificar alvos para mais de 85 ataques aéreos no Oriente Médio neste mês.

Bombardeiros e aviões de combate dos EUA realizaram esses ataques aéreos contra sete instalações no Iraque e na Síria em 2 de Fevereiro, destruindo totalmente ou pelo menos danificando foguetes, mísseis, instalações de armazenamento de drones e centros de operações de milícias. O Pentágono também utilizou sistemas de IA para encontrar lançadores de foguetes no Iémen e combatentes de superfície no Mar Vermelho, que depois destruiu através de vários ataques aéreos no mesmo mês.

Os algoritmos de aprendizado de máquina usados ​​para restringir os alvos foram desenvolvidos no Projeto Maven, a agora extinta parceria do Google com o Pentágono. Para ser mais preciso, o projeto envolveu o uso da tecnologia de inteligência artificial do Google pelos militares dos EUA para analisar imagens de drones e imagens de bandeiras para posterior revisão humana. Isso causou alvoroço entre os funcionários do Google: milhares peticionado a empresa a encerrar a sua parceria com o Pentágono, e alguns até desistiram completamente do seu envolvimento. Alguns meses depois do protesto dos funcionários, o Google decidiu não renovar seu contrato, que terminou em 2019.

Moore disse Bloomberg que as forças dos EUA no Médio Oriente não pararam de experimentar o uso de algoritmos para identificar alvos potenciais usando drones ou imagens de satélite, mesmo depois de o Google ter encerrado o seu envolvimento. Os militares têm testado a sua utilização durante o ano passado em exercícios digitais, disse ela, mas começaram a usar algoritmos de segmentação em operações reais após os ataques do Hamas em 7 de Outubro. Ela esclareceu, no entanto, que os trabalhadores humanos verificavam e verificavam constantemente as recomendações de metas dos sistemas de IA. Foi também o pessoal humano quem propôs a forma de organizar os ataques e quais as armas a utilizar. “Nunca existe um algoritmo que está apenas rodando, chegando a uma conclusão e depois avançando para a próxima etapa”, disse ela. “Cada etapa que envolve IA tem uma verificação humana no final.”



Fonte:

Leave a Reply

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Popular

Sair da versão mobile