Agent 的持续学习和自我进化是最近行业内的讨论热点。
4 月 5 日,LangChain 创始人 Harrison Chase 在 X 上发了一篇长文,阐述了他对于 Agent 自我进化的一些思考。

核心观点很明确:对 AI agent 而言,「持续学习」不应只被理解为更新模型权重。一个 agent 系统实际上可以在三个层面持续进化:Model、Harness、Context。每一层要考虑的框架搭建和切入点是完全不同的。
知名 Agent 开源框架 DeerFlow 的联合作者 Daniel 在 Harrison Chase 这篇文章的基础上,补充了他们团队在 Agent 进化上的一些思考。
DeerFlow 是字节推出的、基于 LangGraph 的开源 SuperAgent 框架,专注多智能体编排,目前 GitHub Stars 超过 6 万。
Harrison 把 agentic system 拆成三层:

这一定义的价值在于,它把「学习」从单一的模型训练问题,扩展成了一个完整系统工程问题。
这一层对应大家最熟悉的持续学习:
但这里有一个老问题没有消失:catastrophic forgetting。也就是模型在学习新东西之后,旧能力反而退化。
我的判断是:
所以 Harrison 虽然承认模型层很重要,但他的真正重点并不在这里。
Harness 指的不是模型,而是「模型怎么被使用」:
Harrison 在文中点名了 Meta-Harness 这篇工作。它的思路可以概括为:

这很重要,因为它说明:
Meta-Harness 官方页面给出的结果也很强:它强调自己的关键差异是让优化器看到完整历史代码、分数与执行 trace,而不是只看摘要。作者称这种「文件系统级上下文」能把每轮优化可用诊断信息提升到远高于传统做法的量级。

Harrison 把 Context 定义为位于 harness 之外、用来配置 agent 的内容,例如:
这层的关键不在「模型学到了什么」,而在「系统记住了什么,并在之后的会话中如何继续使用它」。
LangChain Deep Agents 的官方文档把这件事讲得非常具体。它支持:
这说明 Context 层并不是「多塞一点提示词」那么简单,而是一套可持久化、可分层、可读写、可检索的记忆系统。
Harrison 在文章里用了两个 mapping:
这个拆法非常实用,因为它直接说明:
我额外核对了 OpenClaw 的公开文档:
这恰好印证 Harrison 的观点:很多 agent 系统的「持续学习」,本质上发生在可配置上下文层,而不是模型微调层。
如果把这篇文章提炼成一句话,我会写成:
Agent 的持续学习,正在从「训练模型」转向「优化完整系统」。
这里至少有三个变化:
学习目标从权重转向系统行为
传统 LLM 持续学习更关注:
而 agent 持续学习更关注:
学习单位从单模型转向分层架构
同一个 agent 系统里,不同层的学习频率与代价完全不同:
这意味着持续学习不该只有一个总开关,而应该是三套不同机制。
traces 成为统一燃料
Harrison 在文末反复强调 traces。这是全文最关键的基础设施判断之一。
原因很直接:
换句话说,没有高质量 traces,就没有高质量 agent learning loop。
我认为三层里最先大规模落地的是 Context 层,而不是 Model 层。
原因:
很多今天被包装成「agent 会记忆了」的能力,本质上都属于这一层。
如果 2024 年大家主要比拼「谁先把 agent 跑起来」,那么 2026 年更像是在比:
这也是为什么 Meta-Harness 这种工作值得重视。它代表一种很工程化的方向:让 agent 帮你改 agent。
如果一个团队准备把「持续学习」纳入 agent roadmap,我建议按下面顺序推进:
第一阶段:先把 traces 做对
第二阶段:优先做 Context learning
第三阶段:建立 Harness optimization loop
第四阶段:最后才考虑 Model-level learning
遇到「agent 该怎么学」这个问题时,可以先问四个问题:
如果这四个问题答不清楚,所谓「持续学习」大概率只是一个模糊口号。
Harrison Chase 这条帖子和配套文章的价值,不在于提出某个全新算法,而在于把 agent 持续学习重新拆解为一个更实用的三层框架:
其中最值得产品团队立即行动的,不是训练模型,而是两件事:
这也是我对这篇文章最核心的结论:未来更强的 agent,不一定先来自更大的模型,而更可能先来自更会「复盘、记忆、重构」的系统。
文章来自于"Founder Park",作者 "Founder Park"。
【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。
项目地址:https://github.com/browser-use/browser-use
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md
【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。
项目地址:https://github.com/InternLM/xtuner
【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。
项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md
在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0