作者:Tara Tan / StrangeVC 编译:深潮 TechFlow 深潮导读:本期周报密度极高,七条独立信号覆盖了 AI 行业最关键的几个走向。 其中最值得关注:Anth…作者:Tara Tan / StrangeVC 编译:深潮 TechFlow 深潮导读:本期周报密度极高,七条独立信号覆盖了 AI 行业最关键的几个走向。 其中最值得关注:Anth…

七个信号读懂 AI 这一周:模型泄露、代码引擎、人员管控

2026/03/30 11:04
阅读时长 11 分钟
如需对本内容提供反馈或相关疑问,请通过邮箱 crypto.news@mexc.com 联系我们。

作者:Tara Tan / StrangeVC

编译:深潮 TechFlow

深潮导读:本期周报密度极高,七条独立信号覆盖了 AI 行业最关键的几个走向。

其中最值得关注:Anthropic 通过 CMS 配置失误意外泄露了内部代号”Capybara”的新模型,层级位于 Opus 之上。

全文如下:

过去几个月,我们肯定已经跨越了某个 agentic 门槛。五年前需要四到六周完成的构建,现在不到五分钟。六个月前,同样的任务还是一到两小时加大量调试。

这是一个相当显著的相变,我们可能还没有完全消化。想法与可运行产品之间距离的崩塌,将重写整个行业。这是人类用于构建、创造和解决问题的工具的阶跃式变化。

与此相关,OpenClaw 自 OpenAI 收购以来明显更加稳定。它有着成为 AI 领域最重要开源项目之一的清晰路径。

进入本周内容。

Anthropic 的 Claude Mythos 泄露揭示新模型层级

Anthropic 因 CMS 配置失误,意外暴露了一个名为 Claude Mythos 的未发布模型的细节。泄露的草稿描述了一个新的”Capybara”层级,位于 Opus 之上,在编程、推理和网络安全能力上有重大突破。Anthropic 确认正在向早期访问客户测试该模型,称其为”阶跃式变化”和”迄今构建的最强大模型”。( Fortune, The Decoder)

为什么重要:除模型本身之外,有两件事更值得关注。第一,泄露的草稿警告该模型的网络安全能力”远超任何其他 AI 模型”,这在单个交易日内推动了网络安全股票的走势。第二,引入第四个模型层级(Capybara 位于 Opus 之上)表明 Anthropic 正在为企业客户构建定价空间,而不只是为基准测试构建性能空间。

Claude Code 正成为 Anthropic 的核心增长引擎

Claude Code 目前约占所有公开 GitHub 提交的 4%,预计年底前将达到 20%以上。Anthropic 整体营收年化运行率估计达到 140 亿美元,Claude Code 单独的年化运行率约为 25 亿美元。这款工具的使用者已从开发者扩展到非技术用户,后者正在学习终端命令来用它构建项目。( SemiAnalysis, Uncover Alpha, VentureBeat)

为什么重要:Claude Code 通过有机的开发者采用,将客户获取成本压缩至接近零。通过 Cowork 向非开发者角色的扩展,将可寻址市场远远拓展到全球 2800 万专业开发者之外。

Cheng Lou 的 Pretext:不依赖 CSS 的文本布局

Cheng Lou 是过去十年最具影响力的 UI 工程师之一(React、ReasonML、Midjourney),他发布了 Pretext,一个纯 TypeScript 文本测量算法,完全绕过了 CSS、DOM 测量和浏览器重排。演示效果包括:以 120 帧每秒虚拟化渲染数十万个文本框,零像素浪费的紧缩聊天气泡,响应式多栏杂志布局,以及可变宽度的 ASCII 艺术。( X post)

为什么重要:文本布局和测量一直是阻碍新一代 UI 的隐性瓶颈。CSS 为静态文档设计,而非为如今成为主流的流体、AI 生成、实时界面设计。如果 Pretext 兑现演示效果,它将消除 AI 原生界面在外观和体验上的最后一批基础性约束之一。

Arm 35 年来首次出货自研芯片

Arm 发布了 AGI CPU,一款基于台积电 3nm 工艺、与 Meta 联合开发的 136 核数据中心处理器。这是公司历史上首次销售成品芯片而非授权 IP。OpenAI、Cerebras 和 Cloudflare 是首批合作伙伴,批量出货预计年底前开始。( Arm Newsroom, EE Times)

为什么重要:当前 AI 数据中心以 GPU 为主。GPU 负责训练和运行模型,CPU 主要处理数据流和调度。但 agentic 工作负载不同。当数千个 AI agent 同时运行,每个都在协调任务、调用 API、管理内存、跨系统路由数据时,这些编排工作落在 CPU 上。Arm 声称这将驱动每吉瓦数据中心容量的 CPU 需求增加 4 倍。( HPCwire, Futurum Group)

英伟达与 Emerald AI 将数据中心变成电网资产

英伟达与 Emerald AI 宣布与 AES、Constellation、Invenergy、NextEra 和 Vistra 组建联盟,构建”灵活 AI 工厂”,通过调节计算负载来参与电网平衡服务。首个设施 Aurora 位于弗吉尼亚州马纳萨斯,将于 2026 年上半年开放。( NVIDIA Newsroom, Axios)

为什么重要:AI 基础设施扩张的最大瓶颈不是芯片,而是电网接入时间线,大多数地区需要 3 到 5 年。能够展示电网灵活性的数据中心可以更快接入,面临更少监管阻力。这重新定义了 AI 基础设施投资者的能源命题:制胜论点不是”更多电力”,而是”更智能的电力”。

中国限制 Manus AI 高管出境

中国当局在 Meta 以 20 亿美元收购这家注册在新加坡的 AI 初创公司后,限制 Manus CEO 萧宏和首席科学家纪一超出境。国家发展改革委本月将两位高管传唤至北京,并在监管审查期间实施出行限制。( Reuters, Washington Post)

为什么重要:这不是贸易限制,而是人员限制。中国可能正在发出信号:具有大陆背景的 AI 人才是受控资产,无论公司注册在哪里。

4000 亿参数大模型在 iPhone 17 Pro 上本地运行

一个名为 Flash-MoE 的开源项目演示了一个 4000 亿参数的混合专家模型完全在设备端运行,使用 iPhone 17 Pro 的 A19 Pro 芯片,通过 SSD 到 GPU 的权重流式传输实现。该模型(Qwen 3.5-397B,2 比特量化,170 亿活跃参数)以每秒 0.6 个 token 的速度运行,还剩余 5.5GB RAM。( WCCFTech, TweakTown, Hacker News)

为什么重要:这是概念验证,不是产品。4000 亿参数模型能在 12GB 内存的手机上运行,原因是任意时刻只有一小部分模型处于活跃状态(混合专家),其余部分按需从手机内置 SSD 流式传输而非常驻内存。但把同样的技巧应用到小得多的模型——比如 70 亿或 140 亿参数——在下一代存储更快的移动芯片上,你就能得到真正可用、对话速度的 AI 完全在设备上本地运行,无需云端。

AI Agent 自主完成了一整套粒子物理实验

MIT 研究人员发表了一个名为 JFC(Just Furnish Context)的框架,展示了基于 Claude Code 构建的 LLM agent 能够自主执行完整的高能物理分析流水线:事件筛选、背景估计、不确定性量化、统计推断和论文撰写。该系统在来自 ALEPH、DELPHI 和 CMS 探测器的开放数据上运行。( arXiv 2603.20179)

为什么重要:这是 agentic AI 能够在方法论严格性极高的领域自动化端到端科学工作流的最清晰演示之一。直接的投资含义指向对物理学、基因组学和材料科学领域遗留数据集的再分析——数十年的存档数据至今仍未被充分挖掘。

市场机遇
Taraxa Coin 图标
Taraxa Coin实时价格 (TARA)
$0.00004622
$0.00004622$0.00004622
-5.22%
USD
Taraxa Coin (TARA) 实时价格图表
免责声明: 本网站转载的文章均来源于公开平台,仅供参考。这些文章不代表 MEXC 的观点或意见。所有版权归原作者所有。如果您认为任何转载文章侵犯了第三方权利,请联系 crypto.news@mexc.com 以便将其删除。MEXC 不对转载文章的及时性、准确性或完整性作出任何陈述或保证,并且不对基于此类内容所采取的任何行动或决定承担责任。转载材料仅供参考,不构成任何商业、金融、法律和/或税务决策的建议、认可或依据。