Conversas foram retomadas depois de conflito sobre limites de aplicação do assistente Claude pelas Forças Armadas americanas na semana passadaConversas foram retomadas depois de conflito sobre limites de aplicação do assistente Claude pelas Forças Armadas americanas na semana passada

Anthropic volta a negociar com Pentágono sobre uso militar de IA

2026/03/06 06:51
Leu 2 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em crypto.news@mexc.com

A Anthropic retomou conversas com o governo dos Estados Unidos sobre o uso militar de seu assistente de inteligência artificial Claude. A informação foi divulgada pelo jornal Financial Times nesta 5ª feira (5.mar.2026).

As negociações haviam sido interrompidas depois de divergências sobre as condições de uso da tecnologia propostas pelo Pentágono.

O impasse envolve os limites de aplicação dos modelos de IA da empresa. A Anthropic estabeleceu restrições ao uso de suas ferramentas, enquanto autoridades norte-americanas defendem uma utilização mais ampla.

A companhia se opõe ao uso de seus sistemas para vigilância em massa de cidadãos e para armamentos autônomos. Já o governo dos EUA defende que os modelos de inteligência artificial possam ser utilizados para qualquer finalidade “lícita”.

Na 6ª feira (27.fev.2026), o presidente Donald Trump determinou que agências federais suspendessem o uso de programas de IA da Anthropic.

O secretário de Defesa dos EUA, Pete Hegseth, chegou a ameaçar classificar a empresa como risco à cadeia de fornecimento do setor militar. A medida obrigaria empresas que atuam na área de defesa a romper vínculos com a companhia.

Segundo o The Wall Street Journal, os EUA teriam utilizado o Claude na ofensiva militar contra o Irã, mesmo após a ordem de suspensão.

A IA auxilia o Exército norte-americano em tarefas como análise de inteligência, identificação de alvos e simulação de cenários de batalha.

A Anthropic tem avaliação de mercado de US$ 380 bilhões. A empresa foi a primeira a firmar contrato com o governo dos EUA para o uso de modelos de IA em atividades militares.

O acordo, assinado em julho de 2025, tem valor de US$ 200 milhões.

Posteriormente, contratos semelhantes foram firmados com outras empresas do setor, como OpenAI e Google.

A OpenAI, desenvolvedora do ChatGPT, anunciou na semana passada um acordo que permite o uso de seus modelos de inteligência artificial pelo Pentágono.

Caso um novo entendimento seja alcançado, militares dos EUA poderão voltar a utilizar livremente os sistemas da Anthropic. A empresa também reduziria o risco de ser classificada como ameaça à cadeia de fornecimento do setor de defesa.

Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail crypto.news@mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.