

De Amerikaanse defensietop en AI-bedrijf Anthropic liggen met elkaar overhoop over het gebruik van kunstmatige intelligentie binnen het leger. Onderhandelingen over een verlenging van een contract zijn vastgelopen, omdat Anthropic extra beperkingen wil opleggen aan zijn AI-model Claude. Het Pentagon wil juist meer ruimte om de technologie in te zetten, zolang dat binnen de wet gebeurt.
De discussie raakt aan een gevoelige vraag: hoe ver mag de overheid gaan met krachtige AI-systemen die kunnen worden ingezet voor surveillance en militaire toepassingen?
Volgens ingewijden wil Anthropic expliciete beperkingen inbouwen in zijn AI-model Claude. Het bedrijf wil voorkomen dat de technologie wordt ingezet voor massasurveillance van Amerikaanse burgers of voor de ontwikkeling van wapens die zonder menselijke tussenkomst kunnen opereren.
Daarmee botst het met het Pentagon. Het Amerikaanse ministerie van Defensie wil Claude zo breed mogelijk kunnen gebruiken, zolang de inzet binnen de wettelijke kaders blijft. Over dat meningsverschil berichtte Axios eerder.
Anthropic positioneert zich als een AI-bedrijf dat veiligheid en ethiek vooropstelt. Het wil krachtige modellen beschikbaar maken voor overheden, maar alleen onder strikte voorwaarden. Vanuit die gedachte ontwikkelde het Claude Gov, een speciale versie voor de Amerikaanse nationale veiligheidsdiensten.
Claude Gov is ontworpen om gevoelige informatie te verwerken, zoals geheime documenten, inlichtingenrapporten en complexe cybersecuritydata. Volgens Anthropic moet ook deze overheidsvariant voldoen aan de eigen veiligheidsprincipes van het bedrijf.
Een woordvoerder van Anthropic benadrukt dat het bedrijf “toegewijd is aan het inzetten van geavanceerde AI ter ondersteuning van de nationale veiligheid van de VS” en spreekt van “constructieve gesprekken in goed vertrouwen” met het ministerie van Defensie.
Pentagon-woordvoerder Sean Parnell laat in een schriftelijke verklaring weten dat de relatie met Anthropic wordt herzien. Volgens hem vereist de nationale veiligheid dat partners bereid zijn om Amerikaanse militairen in elke situatie te ondersteunen.
Binnen defensiekringen zou Anthropic inmiddels worden gezien als een mogelijk risico in de toeleveringsketen. Het ministerie van Defensie zou leveranciers zelfs kunnen verplichten te verklaren dat zij geen gebruikmaken van de modellen van het bedrijf.
Dat kan kansen bieden voor concurrenten. Andere AI-bedrijven, waaronder OpenAI met ChatGPT, Google met Gemini en xAI met Grok, werken volgens bronnen samen met het Pentagon om hun modellen geschikt te maken voor legaal gebruik binnen defensie.
Anthropic sloot vorig jaar een tweejarige overeenkomst met het Pentagon voor een prototype van Claude Gov en Claude for Enterprise. De uitkomst van de huidige onderhandelingen kan richtinggevend zijn voor toekomstige gesprekken met andere AI-aanbieders.
Het bericht Anthropic botst met Pentagon over inzet van AI in leger verscheen eerst op Newsbit.


