Documentos e reportagens divulgados na primeira semana de abril de 2026 revelaram detalhes operacionais do Projeto Maven, programa de inteligência artificial desenvolvido pelo Departamento de Defesa dos Estados Unidos. O sistema, ativo no conflito contra o Irã, é capaz de identificar, classificar e recomendar o ataque a alvos militares em tempo real, reduzindo o ciclo decisório de horas para minutos.
O programa, criado originalmente em 2017 para análise de imagens de drones, evoluiu para uma plataforma integrada que combina dados de satélites, aeronaves não tripuladas, interceptações de comunicações e sensores terrestres. A inteligência artificial processa essas informações simultaneamente e gera recomendações de ataque que são apresentadas a operadores humanos para aprovação final.
Como o sistema funciona
O Maven opera em três etapas. Na primeira, algoritmos de visão computacional analisam imagens capturadas por drones e satélites, identificando veículos militares, instalações de defesa e movimentações de tropas. Na segunda fase, o sistema cruza essas informações com dados de inteligência de sinais, como comunicações por rádio e telefonia, para confirmar a natureza dos alvos.
Na terceira etapa, a IA gera uma lista de alvos priorizados com coordenadas precisas e sugestões de armamento adequado. Um operador humano revisa a recomendação e autoriza ou rejeita o ataque. Segundo fontes militares americanas consultadas pela imprensa internacional, o tempo entre a detecção inicial e a autorização de um ataque caiu de uma média de 24 horas para menos de 20 minutos em algumas operações no Irã.
Uso no conflito com o Irã
O Projeto Maven tem sido empregado desde as primeiras semanas da Operação Fúria Épica, nome dado à participação americana no conflito. O sistema foi utilizado na identificação de lançadores móveis de mísseis iranianos, posições de artilharia antiaérea e depósitos de munição.
Autoridades do Pentágono afirmam que o Maven aumentou significativamente a precisão dos ataques e reduziu o número de vítimas civis em comparação com conflitos anteriores. No entanto, essa alegação é contestada por organizações humanitárias que apontam dificuldades em verificar dados de forma independente em zonas de combate ativo.
O debate ético
O emprego de inteligência artificial em decisões letais divide especialistas em defesa, tecnologia e direito internacional. Defensores do sistema argumentam que a velocidade e a precisão da IA salvam vidas ao reduzir erros humanos causados por fadiga, estresse e informação incompleta.
Críticos apontam três riscos centrais. O primeiro é a opacidade algorítmica: os critérios usados pela IA para classificar um alvo como militar são definidos por modelos treinados com dados históricos, e eventuais vieses nesses dados podem levar a erros fatais. O segundo é a compressão do tempo decisório, que reduz a janela para verificação humana e aumenta a probabilidade de ataques precipitados. O terceiro é a escalada automática: em cenários de guerra eletrônica, sistemas de IA de lados opostos podem entrar em loops de ação e reação sem intervenção humana.
O Comitê Internacional da Cruz Vermelha (CICV) publicou relatório em março de 2026 pedindo uma moratória global sobre o uso de IA em armas autônomas letais. A proposta foi apoiada por mais de 60 países na Assembleia Geral da ONU, mas rejeitada por Estados Unidos, Rússia, China e Israel.
Histórico do projeto
O Maven nasceu em 2017 como um contrato entre o Pentágono e o Google para análise de imagens de drones. Em 2018, após protestos internos de funcionários da empresa, o Google não renovou o contrato. O projeto foi então absorvido pela Palantir Technologies e por outras empresas de defesa.
Desde então, o sistema foi expandido para integrar múltiplas fontes de dados e atuar como plataforma de comando e controle assistida por IA. O orçamento do projeto é classificado, mas estimativas de analistas do setor de defesa apontam investimentos acumulados entre US$ 3 bilhões e US$ 5 bilhões.
Implicações para o futuro dos conflitos
Especialistas em segurança internacional avaliam que o uso do Maven no Irã representa um ponto de inflexão na história dos conflitos armados. A capacidade de processar informações e executar ataques em velocidade sobre-humana altera fundamentalmente o equilíbrio de poder entre nações com e sem acesso a essa tecnologia.
O precedente também levanta questões sobre responsabilidade legal. Em caso de um ataque que atinja civis, quem responde: o algoritmo, o operador que aprovou, o comandante que definiu as regras de engajamento ou a empresa que desenvolveu o software? O direito internacional humanitário ainda não tem respostas consolidadas para essas perguntas.
Enquanto o debate jurídico e ético avança lentamente, o uso militar de inteligência artificial se expande rapidamente. Além dos EUA, China, Rússia, Israel e pelo menos outros 15 países desenvolvem sistemas semelhantes, segundo relatório do Stockholm International Peace Research Institute (SIPRI).



