撰文:Ada,深潮 TechFlow 2 月 24 日,星期二。华盛顿,五角大楼。Anthropic CEO Dario Amodei 坐在国防部长 Pete Hegseth 对面。据 NPR 和 CNN 多家媒体援引知情人士透露,会面的气氛“礼貌”,但内容一点都不客气。Hegseth 给了他一个最后通牒:周五下午 5撰文:Ada,深潮 TechFlow 2 月 24 日,星期二。华盛顿,五角大楼。Anthropic CEO Dario Amodei 坐在国防部长 Pete Hegseth 对面。据 NPR 和 CNN 多家媒体援引知情人士透露,会面的气氛“礼貌”,但内容一点都不客气。Hegseth 给了他一个最后通牒:周五下午 5

Anthropic 身份危机的七十二小时

2026/02/27 07:20
阅读时长 15 分钟
身份危机的终点,往往是身份的消失。

撰文:Ada,深潮 TechFlow

2 月 24 日,星期二。华盛顿,五角大楼。

Anthropic CEO Dario Amodei 坐在国防部长 Pete Hegseth 对面。据 NPR 和 CNN 多家媒体援引知情人士透露,会面的气氛“礼貌”,但内容一点都不客气。

Hegseth 给了他一个最后通牒:周五下午 5:01 之前,放开 Claude 的军事使用限制,允许五角大楼将其用于“所有合法用途”,包括自主武器瞄准和国内大规模监控。

否则取消 2 亿美元合同。启动《国防生产法》,强制征用。将 Anthropic 列为“供应链风险”,这等同于把它归入俄罗斯和中国敌对实体的黑名单。

同一天,Anthropic 发布了第三版“负责任扩展政策”(RSP 3.0),悄悄删掉了公司成立以来最核心的一条承诺:如果无法保证安全措施到位,就不训练更强大的模型。

也是同一天,Elon Musk 在 X 上发帖说:“Anthropic 大规模窃取训练数据,这是事实。”同时,X 的社区笔记补充了 Anthropic 因使用盗版书籍训练 Claude 而支付 15 亿美元和解金的报道。

七十二小时内,这家自称有“灵魂”的 AI 公司,同时扮演了三个角色:安全殉道者、知识产权窃贼、五角大楼的叛徒。

哪个才是真的?

也许都是。

五角大楼的“要么服从,要么滚”

故事的第一层很简单。

Anthropic 是第一家获得美国国防部机密级访问权限的 AI 公司。去年夏天拿到的合同,上限 2 亿美元。OpenAI、Google、xAI 随后也各拿了同等规模的合同。

据 Al Jazeera 报道,Claude 曾被用于今年 1 月的一次美军行动。报道称该行动涉及委内瑞拉总统马杜罗的绑架。

但 Anthropic 划了两条红线:不支持全自主武器瞄准,不支持对美国公民的大规模监控。Anthropic 认为,人工智能的可靠性不足以操控武器,而且目前还没有任何法律法规规范人工智能在大规模监控中的应用。

五角大楼不买账。

白宫 AI 顾问 David Sacks 去年 10 月在 X 上公开指控 Anthropic“以恐惧为武器,搞监管俘获”。

竞争对手已经跪了。OpenAI、Google、xAI 都同意让军方将其 AI 用于“所有合法场景”。Musk 的 Grok 本周刚获批进入机密系统。

Anthropic 是最后一个站着的。

截至发稿,Anthropic 在最新发表的声明中表示,他们并没有打算让步。但周五 5:01 的大限,已经近在眼前。

一位匿名的前司法部与国防部联络员对 CNN 表示了困惑:“你怎么能同时宣布一家公司是‘供应链风险’,又强迫这家公司为你的军队工作?”

好问题,但这不在五角大楼考虑范围之内。他们在乎的是,如果 Anthropic 不妥协,将采取强制手段,或者,成为华盛顿弃儿。

“蒸馏攻击”:一场打脸式的控诉

2 月 23 日,Anthropic 发了一篇措辞激烈的博客,指控三家中国 AI 公司对 Claude 进行了“工业级蒸馏攻击”。

被告是 DeepSeek、Moonshot AI、MiniMax。

Anthropic 指控它们通过 2.4 万个伪造账户,对 Claude 发起超过 1600 万次交互,定向提取 Claude 在智能体推理、工具调用和编程方面的核心能力。

Anthropic 把这件事定性为国家安全威胁,声称蒸馏后的模型“不太可能保留安全护栏”,可能被威权政府用于网络攻击、虚假信息和大规模监控。

叙事很完美,时机也很完美。

恰好在 特朗普政府刚刚放宽对华芯片出口管制之后,恰好在 Anthropic 需要为自己的芯片出口管制游说立场寻找弹药的时候。

但是 Musk 开了一枪:“Anthropic 大规模窃取训练数据,还为此支付了数十亿美元和解金。这是事实。”

AI 基础设施公司 IO.Net 联合创始人 Tory Green 表示:“你们用全网的数据训练自己的模型,然后别人用你们的公共 API 学习你们,就叫'蒸馏攻击'了?”

Anthropic 把蒸馏叫“攻击”,但这件事在 AI 行业是家常便饭。OpenAI 用它压缩 GPT-4,Google 用它优化 Gemini,连 Anthropic 自己也在做。唯一的区别是,这次被蒸的是它自己。

据新加坡南洋理工大学 AI 教授 Erik Cambria 对 CNBC 表示:“合法使用和恶意利用之间的边界往往是模糊的。”

更讽刺的是,Anthropic 刚为使用盗版书籍训练 Claude 支付了 15 亿美元和解金。它用全网的数据训练模型,然后指控别人用它的公开 API 学习它。这不是双标,这是三标。

Anthropic 本想扮演受害者,结果被扒成了被告。

安全承诺的拆除:RSP 3.0

就在与五角大楼对峙、与硅谷互撕的同一天,Anthropic 发布了第三版负责任扩展政策。

Anthropic 首席科学家 Jared Kaplan 在接受媒体采访时表示:“我们觉得停止训练 AI 模型对任何人都没有帮助。在 AI 快速发展的背景下,单方面做出承诺……而竞争对手在全速推进,这没有意义。”

换句话说,别人不讲武德,我们也不装了。

RSP 1.0 和 2.0 的核心是一条硬性承诺,如果模型的能力超过了安全措施的覆盖范围,就暂停训练。这条承诺让 Anthropic 在 AI 安全圈获得了独一无二的声誉。

但 3.0 删了。

取而代之的是一个更“灵活”的框架,即把 Anthropic 自己能做的安全措施和需要全行业协作的安全建议分成两条轨道。每 3-6 个月发一份风险报告。请外部专家审阅。

听起来很负责?

来自非营利组织 METR 的独立审查员 Chris Painter 在看完政策早期草案后对表示:“这说明 Anthropic 认为需要进入'分诊模式',因为评估和缓解风险的方法跟不上能力增长的速度。这更多地证明了社会对 AI 潜在灾难性风险没有做好准备。”

根据 TIME 报道,Anthropic 花了将近一年时间内部讨论这次改写,CEO Amodei 和董事会全票通过。官方说法是,原来的政策设计初衷是推动行业共识,结果行业根本没跟上。特朗普政府对人工智能发展采取了放任自流的态度,甚至试图废除各州的相关法规。联邦层面的人工智能法律遥遥无期。尽管在 2023 年建立全球治理框架似乎还有可能,但三年过去了,这扇门显然已经关闭。

一位长期跟踪 AI 治理的匿名研究员说得更直接:“RSP 是 Anthropic 最值钱的品牌资产。删掉暂停训练承诺,就像一家有机食品公司悄悄把'有机'两个字从包装上撕下来,然后告诉你他们现在的检测更透明了。”

3800 亿估值下的身份撕裂

2 月初,Anthropic 以 3800 亿美元估值完成 300 亿美元融资,亚马逊是锚定投资者。自成立以来,就实现了 140 亿美元的年化收入。过去三年,这一数字每年都增长超过 10 倍。

同时,五角大楼威胁将其列入黑名单。Musk 公开指控其数据盗窃。自己的核心安全承诺被删除。Anthropic 的人工智能安全负责人 Mrinank Sharma 辞职后在 X 上写道:“世界正处于危险之中。”

矛盾?

或许矛盾是 Anthropic 的基因。

这家公司由前 OpenAI 高管创立,因为他们担心 OpenAI 在安全问题上走得太快。然后他们自己建了一家公司,以更快的速度构建更强大的模型,同时告诉全世界这些模型有多危险。

商业模式可以概括为一句话,我们比任何人都更害怕 AI,所以你应该出钱让我们来造 AI。

这个叙事在 2023-2024 年完美运转。AI 安全是华盛顿的热词,Anthropic 是最受欢迎的游说者。

2026 年,风向变了。

“woke AI”成了攻击标签,州级 AI 监管法案被白宫阻击,Anthropic 支持的加州 SB 53 虽然签署成法,但联邦层面一片荒芜。

Anthropic 的安全牌,正在从“差异化优势”滑向“政治负资产”。

Anthropic 在做一个复杂的平衡术,它需要足够“安全”来维持品牌,又需要足够“灵活”来不被市场和政府抛弃。问题是,两头的容忍空间都在缩小。

安全叙事,还值多少钱?

把三件事叠在一起看,画面就清楚了。

指控中国公司蒸馏 Claude,是为了强化芯片出口管制的游说叙事。为了在军备竞赛中不掉队,删除了安全暂停承诺。拒绝五角大楼的自主武器要求,是为了保住最后一层道德外衣。

每一步都有逻辑,但每一步之间又互相矛盾。

你不能一边说中国公司“蒸馏”你的模型会危害国家安全,一边删掉防止你自己的模型失控的承诺。如果模型真的那么危险,你应该更谨慎,而不是更激进。

除非你是 Anthropic。

在 AI 行业,身份不是由你的声明定义的,是由你的资产负债表定义的。Anthropic 的“安全”叙事,本质上是一种品牌溢价。

在 AI 军备竞赛的早期,这种溢价值钱。投资者愿意为“负责任的 AI”支付更高的估值,政府愿意为“可信赖的 AI”开绿灯,客户愿意为“更安全的 AI”付费。

但 2026 年,这个溢价正在蒸发。

Anthropic 现在面临的,不是“要不要妥协”的选择题,而是“先向谁妥协”的排序题。向五角大楼妥协,品牌受损。向竞争对手妥协,安全承诺作废。向投资者妥协,两头都得让。

周五下午 5:01,Anthropic 会交出它的答案。

但无论答案是什么,有一件事已经确定:那个曾经靠“我们和 OpenAI 不一样”立足的 Anthropic,正在变得和所有人一样。

身份危机的终点,往往是身份的消失。

市场机遇
Ucan fix life in1day 图标
Ucan fix life in1day实时价格 (1)
$0.0006792
$0.0006792$0.0006792
-9.40%
USD
Ucan fix life in1day (1) 实时价格图表
免责声明: 本网站转载的文章均来源于公开平台,仅供参考。这些文章不代表 MEXC 的观点或意见。所有版权归原作者所有。如果您认为任何转载文章侵犯了第三方权利,请联系 crypto.news@mexc.com 以便将其删除。MEXC 不对转载文章的及时性、准确性或完整性作出任何陈述或保证,并且不对基于此类内容所采取的任何行动或决定承担责任。转载材料仅供参考,不构成任何商业、金融、法律和/或税务决策的建议、认可或依据。