A Anthropic tinha um contrato de 200 milhões de dólares com o Pentágono, acesso a redes classificadas e a total confiança do exército dos EUA.
Depois fizeram uma pergunta.
Em novembro de 2024, a Anthropic tornou-se a primeira empresa de IA de fronteira a implementar dentro das redes classificadas do Pentágono. A parceria foi construída com a Palantir. Em julho de 2025, o contrato tinha crescido para 200 milhões de dólares — mais do que a maioria das startups de defesa vê numa década.
O Claude, o modelo de IA da Anthropic, estava em todo o lado. Análise de inteligência. Operações cibernéticas. Planeamento operacional. Modelação e simulação. O Departamento de Guerra chamou-lhe "crítico para a missão".
Depois chegou janeiro de 2026.
O Claude foi usado numa operação militar classificada na Venezuela — a captura de Nicolás Maduro.
A Anthropic fez ao seu parceiro Palantir uma pergunta simples: como exatamente foi usada a nossa tecnologia?
Na maioria das indústrias, isso chama-se diligência prévia. O Pentágono chamou-lhe insubordinação.
A empresa que perguntou "como está a ser usada a nossa IA?" estava prestes a ser rotulada como uma ameaça à segurança nacional.
Sete Dias Que Mudaram Tudo
Aqui está a cronologia. Move-se rapidamente. Esse é o objetivo.
24 de fevereiro: Pete Hegseth, Secretário de Guerra, convoca Dario Amodei — CEO da Anthropic — ao Pentágono. O pedido é direto: remover todas as proteções do Claude. Vigilância doméstica em massa. Armas totalmente autónomas. Tudo.
O prazo: 27 de fevereiro, 17h01 ET.
26 de fevereiro: Amodei publica a sua resposta. Tem duas letras.
Não.
A sua declaração pública estabeleceu duas linhas vermelhas que não cruzaria:
- Sem vigilância doméstica em massa. IA que reúne os seus dados de localização, histórico de navegação e registos financeiros num perfil — automaticamente, em escala. O ponto de Amodei: a lei atual permite ao governo comprar estes dados sem um mandado. A IA torna possível transformá-los numa arma. "A lei ainda não acompanhou as capacidades em rápido crescimento da IA."
- Sem armas totalmente autónomas. Tradução: não remover humanos da decisão de matar alguém. Não porque as armas autónomas nunca serão viáveis — mas porque a IA de hoje não é suficientemente fiável. "Os sistemas de IA de fronteira simplesmente não são suficientemente fiáveis para alimentar armas totalmente autónomas."
Ele ofereceu-se para trabalhar diretamente com o Pentágono em I&D para melhorar a fiabilidade. O Pentágono recusou a oferta.
26 de fevereiro (mesmo dia): Emil Michael, subsecretário, chama a Amodei "mentiroso com complexo de Deus". Publicamente. Nas redes sociais. O tom estava dado.
27 de fevereiro, 17h01: O prazo passa. O Presidente Trump ordena a todas as agências federais que parem de usar a Anthropic. Hegseth designa a Anthropic como "Risco da Cadeia de Abastecimento" ao abrigo da Lei Federal de Segurança da Cadeia de Abastecimento de Aquisições de 2018.
Essa designação tinha sido previamente reservada para a Huawei e a Kaspersky — empresas estrangeiras com ligações documentadas a governos adversários.
Nunca tinha sido aplicada a uma empresa americana. Até agora.
27 de fevereiro, horas depois: A OpenAI assina um acordo de implementação classificado com o mesmo Pentágono.
Sam Altman tuitou às 20h56:
https://x.com/sama/status/2027578652477821175?s=20A OpenAI afirmou mais tarde que o seu acordo tinha "mais proteções do que qualquer acordo anterior para implementações de IA classificadas, incluindo o da Anthropic".
Eis a questão. A Anthropic foi colocada na lista negra por causa das suas proteções. Agora as proteções eram o ponto de venda.
O fim de semana: A reação foi imediata.
- As desinstalações do ChatGPT aumentaram 295% num único dia, segundo a Sensor Tower. A taxa diária normal nos 30 dias anteriores? 9%.
- O Claude atingiu o #1 na App Store da Apple em sete países: EUA, Bélgica, Canadá, Alemanha, Luxemburgo, Noruega e Suíça. Os downloads subiram 37% na sexta-feira, depois 51% no sábado. Primeira vez que a app alguma vez atingiu o topo.
- Mais de 300 funcionários da Google e 60 funcionários da OpenAI assinaram uma carta aberta apoiando a Anthropic.
- #QuitGPT tornou-se tendência nas redes sociais. O ator Mark Ruffalo e o professor da NYU Scott Galloway amplificaram o movimento.
Os utilizadores estavam... não entusiasmados.
2 de março: Altman publicou novamente. Desta vez, um longo memorando interno partilhado publicamente no X:
https://x.com/sama/status/2028640354912923739?s=20As emendas acrescentaram três coisas:
- Uma proibição explícita de vigilância doméstica de pessoas dos EUA
- Uma exigência de que a NSA precisa de uma modificação contratual separada para aceder ao sistema
- Restrições ao uso de dados pessoais adquiridos comercialmente — geolocalização, histórico de navegação, registos financeiros
Vale a pena parar nessa última. Foi adicionada na segunda-feira. O que significa que o acordo de sexta-feira não a proibia.
3 de março: Duas coisas aconteceram no mesmo dia.
Primeiro: No a16z American Dynamism Summit, o CEO da Palantir Alex Karp avisou que as empresas de IA que se recusassem a cooperar com os militares enfrentariam nacionalização. Ele usou um insulto no palco. O vídeo teve 11 milhões de visualizações.
Palmer Luckey, fundador da empresa de tecnologia de defesa Anduril, disse à mesma audiência que "termos aparentemente inócuos como 'o governo não pode usar a sua tecnologia para atingir civis' são na verdade campos minados morais."
O Vice-Presidente JD Vance tinha sido o orador principal mais cedo nesse dia. A posição da administração estava clara.
Segundo: A CNBC noticiou que numa reunião geral com funcionários, Altman disse ao pessoal da OpenAI que a empresa "não pode escolher como os militares usam a sua tecnologia."
Os utilizadores do X adicionaram uma Nota da Comunidade à publicação anterior de Altman:
Mesmo dia. Publicação pública: temos proteções e princípios. Reunião interna: não podemos escolher.
Entretanto, a CBS News noticiou que o Claude permanecia implementado em operações militares ativas — incluindo contra o Irão — apesar da designação de risco da cadeia de abastecimento. A colocação na lista negra aparentemente não funcionou. A tecnologia estava demasiado profundamente incorporada em sistemas classificados para ser removida.
O Problema dos 95%
Em simulações de jogos de guerra, os modelos de IA escolheram lançar armas nucleares táticas 95% das vezes.
Deixe isso assentar por um segundo.
GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash foram submetidos a simulações de conflito militar. Usaram armas nucleares táticas em 95% dos cenários. Pelo menos um modelo lançou uma arma nuclear em 20 de 21 jogos.
Essa é a tecnologia que o Pentágono quer implementar autonomamente.
Os modos de falha estão documentados e são consistentes:
- Viés de escalada. Os modelos não falham apenas aleatoriamente. Falham numa direção específica — em direção à escalada. A investigação da Brookings Institution descobriu que os erros militares da IA são sistemáticos, não aleatórios. O padrão é sempre o mesmo: mais força, mais rápido.
- Alucinações. Os LLMs geram informação falsa com alta confiança. Num teste ligado aos ataques ao Irão, uma IA alimentou inteligência fabricada na cadeia de decisão. Sob pressão de tempo, os operadores humanos não conseguiram distingui-la da verdadeira.
- Vulnerabilidade adversária. Estes sistemas podem ser manipulados com entradas cuidadosamente elaboradas para contornar as suas restrições. O atacante não precisa de ser externo. A vulnerabilidade vive no próprio modelo.
Estes não são casos extremos. É isto que a tecnologia faz hoje.
Pense desta forma. Já vimos o que acontece quando sistemas autónomos simples falham em contextos militares.
O sistema de mísseis Patriot em 2003 matou soldados aliados. Identificou erroneamente uma aeronave britânica amiga como um míssil inimigo. O sistema era baseado em regras, com parâmetros definidos. Ainda assim errou.
O USS Vincennes em 1988 abateu o Voo 655 da Iran Air — um jato de passageiros comercial. 290 civis mortos. O sistema de combate Aegis do navio identificou erroneamente a aeronave com base em dados de radar. A tripulação tinha segundos para decidir. Confiaram no sistema.
Esses eram sistemas baseados em regras com parâmetros claros. Os LLMs são ordens de magnitude mais complexos. Mais opacos. Menos previsíveis.
E estão a ser solicitados a tomar decisões maiores.
O problema de supervisão. Uma vez que a IA é implementada dentro de redes classificadas, a responsabilização externa torna-se o que os especialistas chamam de "quase impossível". As restrições erodem sob pressão operacional. Os engenheiros implementados no terreno que a OpenAI prometeu podem observar algumas interações, claro. Mas as operações classificadas limitam o fluxo de informação por design.
Em inglês: os mesmos muros que mantêm os segredos dentro também mantêm a supervisão fora.
O Pentágono tem razão. Merece ser ouvido com justiça.
Armas parcialmente autónomas — como os drones usados na Ucrânia — salvam vidas. Permitem que forças menores se defendam contra maiores. A China e a Rússia não estão à espera de fiabilidade perfeita antes de implementar os seus próprios sistemas.
Recusar usar IA na defesa cria uma lacuna de capacidade. Os adversários vão explorá-la.
Dario Amodei reconheceu isto diretamente:
A sua objeção não era ao destino. Era ao cronograma.
Ele ofereceu-se para colaborar na I&D necessária para lá chegar. O Pentágono disse não.
Há uma lacuna entre "a IA pode resumir relatórios de inteligência" — onde realmente se destaca — e "a IA pode decidir quem vive e morre". Os contratos não preenchem essa lacuna. As emendas não a preenchem. A engenharia sim.
E a engenharia não está feita.
Como Colocar uma Empresa Americana na Lista Negra
Risco da cadeia de abastecimento. Soa burocrático. Na verdade é um interruptor de morte.
Ao abrigo da Lei Federal de Segurança da Cadeia de Abastecimento de Aquisições de 2018 — FASCSA — uma designação de "risco da cadeia de abastecimento" significa que nenhum contratante do governo pode fazer negócios consigo. Não apenas o Pentágono. Qualquer um que queira um contrato federal. Qualquer fornecedor, subcontratante ou parceiro no ecossistema governamental.
Em inglês: torna-se radioativo para toda a cadeia de abastecimento federal.
A lei foi construída para ameaças estrangeiras. A infraestrutura 5G da Huawei. O software antivírus da Kaspersky. Empresas com ligações documentadas a governos hostis.
Todas as empresas na lista antes da Anthropic tinham uma coisa em comum: eram de países considerados adversários dos Estados Unidos.
A Anthropic tem sede em São Francisco.
O Pentágono também ameaçou usar a Lei de Produção de Defesa — uma lei da era da Guerra Fria desenhada para requisitar fábricas para produção em tempo de guerra. Siderurgias. Fábricas de munições. A infraestrutura física da guerra.
O Pentágono ameaçou usá-la para forçar uma empresa de software a remover características de segurança de um chatbot de IA.
Especialistas jurídicos chamaram a aplicação de "questionável". A lei foi construída para produção física, não restrições de software. Usá-la para obrigar uma empresa a tornar a sua IA menos segura seria, no mínimo, uma teoria jurídica nova.
Amodei identificou o problema lógico na sua declaração:
Não se pode chamar a uma tecnologia uma ameaça à cadeia de abastecimento e invocar poderes de emergência para a apreender porque não se pode funcionar sem ela. Escolha um.
O resultado prático é revelador. A CBS News noticiou que o Claude permanece em uso militar ativo. Apesar da colocação na lista negra. A designação foi punitiva, não prática — a tecnologia estava demasiado incorporada para ser arrancada.
O que levanta uma questão que ninguém em Washington parece ansioso por responder: se o Pentágono não pode fazer cumprir uma ordem de remoção para tecnologia que oficialmente colocou na lista negra, como exatamente fará cumprir as proteções de uso?
A posição do Pentágono é direta. As empresas privadas não definem política militar. As empresas de IA são fornecedoras. Os militares decidem como as suas ferramentas são usadas.
Desta perspetiva, a Anthropic era um fornecedor que se recusou a entregar o que foi encomendado. O cliente encontrou outro fornecedor.
Esse enquadramento é internamente consistente. É também o enquadramento que se usaria para material de escritório. Não para tecnologia que escolheu escalada nuclear em 95% das simulações.
As Proteções São Reais?
Na sexta-feira, o acordo da OpenAI tinha proteções. Na segunda-feira, precisava de mais proteções.
Isso diz-lhe algo sobre as proteções de sexta-feira.
A linguagem que Altman aceitou na emenda de segunda-feira merece uma leitura atenta:
A palavra que faz o trabalho pesado: intencionalmente.
O que acontece quando uma IA processa um conjunto de dados que incidentalmente inclui americanos? E se a vigilância for um subproduto de uma operação de inteligência mais ampla, não o objetivo declarado? Quem define intenção dentro de uma rede classificada onde os mecanismos de supervisão são, por design, limitados?
A cláusula de dados adquiridos comercialmente é ainda mais reveladora. A emenda de segunda-feira proíbe explicitamente o uso de dados pessoais comprados — rastreamento de localização, histórico de navegação, registos financeiros — para vigilância de americanos.
Essa cláusula foi adicionada na segunda-feira. O acordo de sexta-feira não a incluía.
Durante um fim de semana inteiro, o acordo da OpenAI com o Pentágono tecnicamente permitia vigilância em massa através de dados adquiridos comercialmente sobre cidadãos americanos.
Altman reconheceu tanto:
A exceção da NSA também vale a pena examinar. Agências de inteligência como a NSA não podem usar o sistema da OpenAI sem uma "modificação subsequente" ao contrato. Isso soa como uma proibição. Na verdade é um processo. O mecanismo para conceder acesso está incorporado na estrutura do contrato.
Isso não é um muro. É uma porta com uma chave diferente.
O problema mais profundo é a contradição da reunião geral. No mesmo dia em que Altman publicou sobre princípios e proteções no X, disse aos funcionários internamente que a OpenAI "não pode escolher como os militares usam a sua tecnologia".
Se a empresa que constrói a IA não pode escolher como é usada, as proteções são um comunicado de imprensa. Não uma política.
Em ambientes classificados, monitorizar IA é fundamentalmente diferente de monitorizar um serviço de nuvem. O aparelho de segurança que protege segredos militares também bloqueia supervisão independente do comportamento da IA.
Os engenheiros implementados no terreno podem observar algumas interações. Mas "algumas interações" e "todas as interações que o contrato cobre" são coisas muito diferentes.
O Que Vem a Seguir
O mercado falou. A cooperação obtém contratos. A resistência é colocada na lista negra.
O público também falou. Estão a desinstalar.
A estrutura de incentivos é clara. A OpenAI cooperou e conseguiu o acordo. A Anthropic resistiu e foi designada como risco da cadeia de abastecimento — o mesmo rótulo que o governo usa para empresas ligadas a adversários estrangeiros.
No summit a16z, Karp previu que todas as empresas de IA trabalharão com os militares dentro de três anos. Com base nos incentivos, isso não é uma previsão. É uma descrição.
Mas os números da reação contam uma história diferente.
O aumento de 295% nas desinstalações. Claude em #1 em sete países. Mais de 500 funcionários de tecnologia a romper fileiras com os seus empregadores. Le Monde a editoriar de Paris sobre excessos governamentais. Sondagens mostrando 84% dos cidadãos britânicos preocupados com parcerias de IA entre governo e empresas.
Os engenheiros que constroem estes sistemas e as pessoas que os usam veem algo que o Pentágono aparentemente não vê: apoiar a defesa nacional e implementar tecnologia não fiável para morte autónoma não são a mesma coisa.
Nenhuma emenda contratual fecha esta lacuna. Nenhuma proteção a fecha. Nenhum engenheiro implementado no terreno a fecha.
Os modelos de IA escolheram escalada nuclear em 95% das simulações de jogos de guerra. A empresa que disse "a tecnologia ainda não está pronta" foi colocada na lista negra. A empresa que disse "sim" admitiu dentro de 72 horas que tinha sido desleixada. A tecnologia permanece implementada em operações ativas independentemente do que qualquer empresa queria.
Amodei ofereceu-se para fazer a I&D para tornar as armas autónomas de IA seguras e fiáveis. Ofereceu-se para colaborar com o Pentágono para lá chegar. A oferta foi recusada.
A Anthropic tinha um contrato de 200 milhões de dólares e a confiança do Pentágono. Depois perguntaram como a sua tecnologia estava a ser usada.
A resposta foi um prazo, uma colocação na lista negra e um rótulo previamente reservado para os adversários da América.
As simulações continuam a funcionar. Em 95% delas, alguém carrega no botão.
Fonte: https://cryptobriefing.com/ai-chose-nukes-in-95-of-war-games-the-pentagon-wants-to-deploy-it-anyway/


