LangChain 讓 AI 代理掌控自己的記憶體管理
Terrill Dicki 2026年3月12日 01:55
LangChain 的 Deep Agents SDK 現在讓 AI 模型決定何時壓縮其上下文視窗,減少長時間運行的代理工作流程中的人工干預。
LangChain 發布了其 Deep Agents SDK 的更新,將記憶體管理的控制權交給 AI 模型。這項於2026年3月11日宣布的新功能,允許代理自主觸發上下文壓縮,而不是依賴固定的代幣閾值或手動用戶指令。
這項變更解決了代理開發中的一個持續性難題:上下文視窗在不方便的時候填滿。當前系統通常在達到模型上下文限制的85%時壓縮記憶體——這可能發生在重構過程中或複雜的除錯階段。不當的時機會導致上下文丟失和工作流程中斷。
時機為何重要
上下文壓縮並不新鮮。該技術用濃縮摘要替換較舊的訊息,以使代理保持在代幣限制內。但何時壓縮與是否壓縮同樣重要。
LangChain 的實作識別出幾個最佳壓縮時機:當用戶轉移焦點時的任務邊界、從大型研究上下文中提取結論後,或在開始冗長的多檔案編輯之前。代理本質上學會在開始混亂工作之前清理環境,而不是在空間不足時手忙腳亂。
Factory AI 於2024年12月發表的研究支持這種方法。他們的分析發現,結構化摘要——保持上下文連續性而非激進截斷——對於除錯等複雜代理任務至關重要。維持工作流程結構的代理顯著優於使用簡單截斷方法的代理。
技術實作
該工具作為 Deep Agents SDK (Python) 的中介軟體提供,並與現有的 CLI 整合。開發人員將其添加到代理配置中:
系統保留10%的可用上下文作為最近訊息,同時摘要之前的所有內容。LangChain 內建了安全網——完整的對話歷史保存在代理的虛擬檔案系統中,允許在壓縮出錯時恢復。
內部測試顯示代理在觸發壓縮方面較為保守。LangChain 使用 LangSmith 追蹤,針對其 Terminal-bench-2 基準和自訂評估套件驗證了該功能。當代理確實自主壓縮時,它們始終選擇改善工作流程連續性的時機。
更大的願景
此次發布反映了代理架構理念的更廣泛轉變。LangChain 明確引用了 Richard Sutton 的「苦澀教訓」——即利用計算的通用方法往往隨時間推移優於手動調整的方法。
與其讓開發人員精心配置代理何時應管理記憶體,該框架將決策權委託給模型本身。這是一個賭注,認為像 GPT-5.4 這樣的模型中的推理能力已經達到可以可靠做出這些操作決策的程度。
對於構建長時間運行或互動式代理的開發人員,該功能通過 SDK 選擇性加入,並可通過 CLI 中的 /compact 指令使用。實際影響:更少的工作流程中斷,以及更少需要用戶對大多數終端用戶無論如何都不理解的上下文限制進行干預。
- langchain
- AI 代理
- 上下文壓縮
- deep agents sdk
- 開發者工具


