Fumaça sobre Teerã após ataques aéreos combinados de EUA e Israel planejados com auxílio de inteligência artificial — Foto: Fatemeh Bahrami/Anadolu via Getty Images
O conflito recente envolvendo ataques dos Estados Unidos e de Israel ao Irã se tornou um marco para especialistas em tecnologia e segurança: pela primeira vez em larga escala, sistemas de inteligência artificial foram usados para acelerar operações militares complexas, comprimindo para minutos um processo que historicamente levava dias.
Só nas primeiras 12 horas do conflito, foram realizados quase 900 ataques a alvos iranianos, segundo o jornal britânico The Guardian. Mísseis israelenses mataram o líder supremo do Irã, o aiatolá Ali Khamenei.
Os sistemas mais avançados analisam rapidamente grandes volumes de dados provenientes de imagens de drones, interceptações de telecomunicações e inteligência humana. A plataforma desenvolvida pela Palantir em parceria com o Pentágono usa aprendizado de máquina para identificar e priorizar alvos, sugerir armamentos e avaliar automaticamente os fundamentos legais de um ataque.
O modelo Claude, da Anthropic, foi integrado a esse sistema. Em 2024, a empresa firmou acordo para implantar sua tecnologia no Departamento de Defesa dos EUA e em outras agências de segurança nacional, com o objetivo de aprimorar a análise de inteligência e apoiar a tomada de decisões. Esse conjunto de etapas, da identificação do alvo até o lançamento do ataque, é o que especialistas chamam de "cadeia de ataque", e a IA está encurtando cada elo dessa cadeia.
Craig Jones, professor de geografia política da Universidade de Newcastle e especialista no tema, descreveu ao The Guardian: "A máquina de IA está fazendo recomendações sobre o que atacar, o que em alguns aspectos é mais rápido do que a velocidade do pensamento. Isso poderia ter levado dias ou semanas em guerras históricas. Agora tudo acontece ao mesmo tempo."
David Leslie, professor de ética e tecnologia na Queen Mary University of Londres, chamou o fenômeno de "a próxima era da estratégia militar", mas alertou para um risco: a "descarga cognitiva". Quando a máquina faz o trabalho analítico, os humanos responsáveis pela aprovação podem se sentir menos conectados às consequências reais da decisão. "Esses sistemas produzem um conjunto de opções para os tomadores de decisão humanos, mas eles têm uma janela de tempo muito mais estreita para avaliar a recomendação", disse.
Esse é o ponto central de preocupação acadêmica: a chamada "compressão de decisão" pode transformar especialistas militares e jurídicos em aprovadores automáticos de planos gerados por algoritmos.
Nos dias anteriores aos ataques, o governo dos EUA anunciou que encerraria o contrato com a Anthropic, após a empresa recusar o uso de sua IA em armas totalmente autônomas ou na vigilância de cidadãos americanos. O sistema, porém, permaneceu em operação durante o período de transição. A rival OpenAI rapidamente assinou seu próprio acordo com o Pentágono para uso militar de seus modelos.
O Irã afirmou em 2025 usar IA em seus sistemas de mira, mas seu programa é considerado limitado — em parte pelas sanções internacionais que restringem seu acesso a tecnologia avançada.

