Cet article examine comment les garde-fous de l'IA anthropique entrent en conflit avec les exigences du Pentagone, les limites d'autonomie et les implications de surveillance de l'IA de défense.Cet article examine comment les garde-fous de l'IA anthropique entrent en conflit avec les exigences du Pentagone, les limites d'autonomie et les implications de surveillance de l'IA de défense.

Le conflit avec le Pentagone met en danger les mesures de sécurité de l'IA d'Anthropic et un contrat de défense de 200 millions de dollars

2026/02/27 20:13
Temps de lecture : 7 min
anthropic ai

La tension croissante entre un laboratoire d'intelligence artificielle de premier plan et l'establishment de la défense américaine s'est intensifiée en un conflit majeur concernant anthropic ai et son utilisation sur le champ de bataille.

Anthropic reste ferme face à la pression du Pentagone

Anthropic a refusé les demandes du Département de la Défense américain visant à supprimer les limites de sécurité clés de l'IA de ses systèmes, même si son contrat de 200 millions de dollars est désormais en péril. L'entreprise a clairement indiqué qu'elle ne reculera pas dans son différend avec le DoD concernant la manière dont ses modèles avancés peuvent être déployés sur les réseaux militaires.

Les rivaux de la startup, OpenAI, Google et xAI, ont obtenu des contrats similaires du DoD pouvant atteindre 200 millions de dollars en 2023. Cependant, ces entreprises ont accepté de laisser le Pentagone utiliser leurs systèmes pour toutes les missions légales dans les environnements non classifiés de l'armée, offrant au gouvernement une plus grande flexibilité opérationnelle.

En revanche, Anthropic a signé son propre accord de 200 millions de dollars avec le DoD en juillet et est devenu le premier laboratoire d'IA à intégrer ses modèles directement dans les flux de travail de mission sur les réseaux classifiés. De plus, ses outils ont été intégrés dans des opérations de défense sensibles, plaçant l'entreprise au centre du développement de l'IA pour la sécurité nationale américaine.

Les négociations avec les responsables du Pentagone sont devenues de plus en plus tendues au cours des dernières semaines. Une personne familière avec les discussions a déclaré que les frictions « remontent à plusieurs mois », bien avant qu'il ne devienne public que Claude a été utilisé dans une opération américaine liée à la capture du président vénézuélien Nicolás Maduro.

Différend sur la surveillance et les armes autonomes

Au cœur du conflit se trouve la question de savoir jusqu'où les autorités militaires peuvent pousser les puissants modèles d'IA vers la surveillance et l'autonomie. Anthropic recherche des garanties contraignantes que sa technologie ne sera pas utilisée pour des armes entièrement autonomes ou pour la surveillance domestique de masse des Américains, tandis que le DoD souhaite éviter de telles limites.

Cela dit, il ne s'agit pas d'un simple désaccord commercial mais d'un différend sur les garanties de l'IA très médiatisé avec des implications directes pour l'automatisation future du champ de bataille. Le Pentagone insiste sur une latitude juridique maximale, tandis qu'Anthropic soutient que les systèmes actuels ne peuvent pas encore être fiables pour prendre des décisions de vie ou de mort à grande échelle.

Dans une déclaration détaillée, le PDG Dario Amodei a averti que dans « un ensemble restreint de cas », l'intelligence artificielle peut « saper, plutôt que défendre, les valeurs démocratiques ». Il a souligné que certaines applications sont « simplement en dehors des limites de ce que la technologie d'aujourd'hui peut faire de manière sûre et fiable », mettant en évidence les risques de mauvaise utilisation lors d'opérations militaires complexes.

Développant les préoccupations en matière de surveillance, Amodei a fait valoir que les systèmes puissants permettent désormais « d'assembler ces données dispersées, individuellement inoffensives, en une image complète de la vie de toute personne, automatiquement et à grande échelle ». De plus, il a mis en garde que cette capacité, si elle est dirigée vers l'intérieur, pourrait fondamentalement remodeler la relation entre les citoyens et l'État.

Amodei a réitéré qu'Anthropic soutient l'utilisation de l'IA pour la collecte légale de renseignements étrangers. Cependant, il a ajouté que « l'utilisation de ces systèmes pour la surveillance domestique de masse est incompatible avec les valeurs démocratiques », traçant une ligne éthique ferme entre le renseignement à l'étranger et la surveillance interne des personnes américaines.

Menaces, délais et pression juridique

La lutte de pouvoir s'est intensifiée lors d'une réunion mardi au Pentagone entre Amodei et le secrétaire à la Défense Pete Hegseth. Hegseth a menacé de qualifier Anthropic de « risque pour la chaîne d'approvisionnement » ou d'invoquer le Defense Production Act pour contraindre la conformité. Le mercredi soir, le DoD a livré ce qu'il a appelé son « offre finale et ultime », donnant à l'entreprise jusqu'à 17h01 ET le vendredi pour répondre.

Une porte-parole d'Anthropic a reconnu avoir reçu une version révisée du contrat mercredi, mais a déclaré qu'elle représentait « pratiquement aucun progrès ». Selon elle, la nouvelle formulation présentée comme un compromis était associée à un libellé juridique qui permettrait effectivement aux garanties critiques d'« être ignorées à volonté », sapant les protections déclarées.

S'adressant à la pression croissante, Amodei a déclaré : « Le Département de la Guerre a déclaré qu'il ne contractera qu'avec des entreprises d'IA qui acceptent 'toute utilisation légale' et suppriment les garanties dans les cas mentionnés ci-dessus. » Il a ajouté que les responsables avaient menacé de couper Anthropic de leurs systèmes et de désigner l'entreprise comme un « risque pour la chaîne d'approvisionnement » si elle refusait ; néanmoins, il a insisté, « nous ne pouvons pas en conscience accéder à leur demande ».

Pour le Pentagone, la question est formulée différemment. Le porte-parole en chef Sean Parnell a déclaré jeudi que le DoD n'a « aucun intérêt » à utiliser les systèmes d'Anthropic pour des armes entièrement autonomes ou pour mener une surveillance de masse des Américains, notant que de telles pratiques seraient illégales. Au lieu de cela, il a maintenu que le département souhaite simplement que l'entreprise autorise l'utilisation de sa technologie pour « toutes les fins légales », décrivant cela comme une « demande simple et de bon sens ».

Attaques personnelles et soutien public

Le différend est également devenu personnel aux plus hauts niveaux. Jeudi soir, le sous-secrétaire américain à la défense Emil Michael a attaqué Amodei sur X, affirmant que le dirigeant « ne veut rien de plus que d'essayer de contrôler personnellement l'armée américaine ». Michael est allé plus loin, écrivant : « C'est dommage que Dario Amodei soit un menteur et ait un complexe de Dieu. »

Cependant, Anthropic a obtenu un soutien important de la part de certaines parties du secteur technologique. Dans une lettre ouverte, plus de 200 travailleurs de Google et OpenAI ont publiquement soutenu la position de l'entreprise. De plus, un ancien responsable du DoD a déclaré à la BBC que la justification de Hegseth pour utiliser l'étiquette « risque pour la chaîne d'approvisionnement » semblait « extrêmement fragile », soulevant des questions sur la solidité du dossier du Pentagone.

La confrontation est également devenue une pierre de touche dans le débat plus large sur la politique d'éthique militaire de l'IA. Les chercheurs en IA et les défenseurs des libertés civiles surveillent attentivement, considérant le cas comme un test précoce de la mesure dans laquelle les agences de défense peuvent pousser les laboratoires privés à assouplir les restrictions intégrées sur les systèmes avancés.

Enjeux stratégiques pour l'IA de défense américaine

Malgré la rhétorique croissante, Amodei a souligné qu'il est « profondément convaincu de l'importance existentielle de l'utilisation de l'IA pour défendre les États-Unis ». Il a présenté la question comme une question de déploiement responsable, et non d'opposition à la défense nationale, soutenant que la crédibilité à long terme des capacités américaines en matière d'IA dépend du respect des normes démocratiques.

Un représentant d'Anthropic a déclaré que l'organisation reste « prête à poursuivre les discussions et engagée dans la continuité opérationnelle pour le Département et les combattants américains ». Cependant, avec le compte à rebours sur le délai du Pentagone et les menaces de désignation de risque pour la chaîne d'approvisionnement toujours sur la table, les deux parties font face à la pression de résoudre l'impasse sans faire dérailler l'innovation critique.

En fin de compte, le conflit Anthropic-Pentagone sur les garanties, la surveillance et l'autonomie est devenu un cas précoce déterminant dans la gouvernance de l'IA militaire. Son issue façonnera probablement la manière dont les futurs modèles d'IA anthropic et les systèmes rivaux seront contractés, contraints et déployés dans les opérations de défense américaines.

Opportunité de marché
Logo de Clash
Cours Clash(CLASH)
$0.029079
$0.029079$0.029079
-6.01%
USD
Graphique du prix de Clash (CLASH) en temps réel
Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter crypto.news@mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.