为什么记忆成为下一代 AI 的「核心变量」 | GAIR Live 20

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
为什么记忆成为下一代 AI 的「核心变量」 | GAIR Live 20
7303点击    2025-11-29 09:56

“记忆”有望成为 AI 在产业界红利释放的最大驱动引擎。


人工智能在过去的十年中,以惊人的速度革新了信息处理和内容生成的方式。然而,无论是大语言模型(LLM)本体,还是基于检索增强生成(RAG)的系统,在实际应用中都暴露出了一个深层的局限性:缺乏跨越时间的、可演化的、个性化的“记忆”。它们擅长瞬时推理,却难以实现持续积累经验、反思历史、乃至真正像人一样成长的目标。


近日,雷峰网主办了一场主题为《智能始于记忆:Agent Memory 的技术演化过程》的线上圆桌论坛,邀请到了金融行业的资深领域专家何逸凡、腾讯 AI Lab 专家研究员王琰、上海交通大学人工智能学院副教授陈思衡三位重量级嘉宾,他们与主持人、 记忆张量CTO李志宇一起,他们围绕记忆的本质定义、与传统技术的区别、系统架构的瓶颈,以及未来在金融、教育、游戏等领域的商业化范式,展开了系统性的探讨。


何逸凡表示,记忆系统是大模型乃至整个 AI 发展至今,除了核心大模型结构研究之外,可能最为关键的领域之一。当前传统 RAG 系统对召回的研究比重过高,而对记忆的组织研究相对较少。他认为,在金融投研投顾领域,记忆系统将引发一场业务模式上的巨大、革新性变革,最有可能带来的革新范式是个性化、伴随成长的投顾和投研系统,即构建投研专家的“分身”。


王琰认为,智能体记忆的关键在于自主编织能力。他指出,记忆是模型主动的行为,而上下文工程是人类强加给模型的流程,未来人类主导的 RAG 流程将被取代。他预测,未来 AI 架构的必然趋势是记忆与推理的解耦以及实现推理时训练,使模型具备在其生命周期中随着经历而不断变化的能力。


陈思衡阐述了智能体记忆机制与传统模型训练的最大不同在于实现自演进。他提出,智能体记忆的组织结构应是一种多层级的图结构,并认为未来研究应集中在将对记忆的增、删、改、查能力工具化,通过有针对性的训练,使模型像调用 Web Search 一样,自主地对记忆进行操作管理。此外,他指出记忆系统将向着多模态融合、原生动态交互以及引入主观感受的方向演进


从理论上的多层级、自主编织,到工程上的解耦、动态更新,再到商业上的“记忆即资产”和“个性化分身”,记忆系统不再是简单的技术补丁,而是驱动 AI 从瞬时推理工具向具备跨时间积累、理解和成长能力的“有灵魂”智能体进化的核心动力。正如嘉宾所期望,记忆的成熟和发展,有望成为 AI 在产业界突破和产业红利释放的最大驱动引擎。


以下是此次圆桌讨论的精彩分享,AI 科技评论进行了不改原意的编辑整理:


李志宇:各位晚上好。感谢雷峰网的组织,与我们共同筹备了这场围绕“记忆”主题的在线圆桌。


我是本次圆桌的主持人李志宇。我目前与团队共同创立了一家专注于大模型应用研发的AI Infra公司叫记忆张量,我个人在公司担任首席技术官(CTO)一职。公司致力于构建记忆驱动的大模型应用增强体系及框架研发。团队先后发布了业界首个记忆分层的大模型,以及首个操作系统级的记忆操作管理框架MemOS(Memory Operating System)并获得广泛关注。


在探讨下一代智能体时,一个关键议题正在浮现:AI 是否需要拥有类人记忆? 这不仅是一个技术命题,更是一个重要的发展方向。


本次会议,我们邀请了三位在本领域极具代表性的嘉宾,共同展望智能记忆体的未来。接下来,我将依次介绍各位嘉宾:


何逸凡老师,现任金融行业的资深领域专家、教授级高级工程师、博士后,长期深耕于金融科技和智能系统研发领域;


王琰老师,现任腾讯 AI Lab 专家研究员,曾任前米哈游大模型团队上海负责人,专注于探索具有无限长记忆的下一代基座模型架构;


陈思衡老师,现任上海交通大学人工智能学院副教授,专注于多智能体体系化研究,是系统层面和理论层面思考智能体机制相关的代表性学者之一。


三位嘉宾分别代表了产业界、研究界和系统工程三个层面的独特视角:产业界关注记忆能否带来新的商业模式;研究界关注记忆机制能否突破现有模型边界;而系统工程则更注重如何实现智能体的真正记忆与成长。


我们将通过三轮深度讨论,从记忆的共同基础、技术挑战以及未来展望三个维度,逐层展开。


为什么记忆成为下一代 AI 的「核心变量」 | GAIR Live 20


AI记忆的定义、分层结构与自主决策机制


李志宇:首先请教何逸凡老师。从您的专业角度来看,您认为人类记忆的演化到智能体记忆这一概念转变过程中,最核心的共性是什么?智能体记忆与人类记忆在哪些方面具备相似性?


何逸凡:在实际实践中,我们发现记忆系统是大模型乃至整个 AI 发展至今,除了核心大模型结构研究之外,可能最为关键的领域之一。从目前的研究与实践来看,智能体记忆与人类记忆正呈现出越来越多的相似性。


首先是层次性与结构化。人类记忆以有组织、有层次的方式来存储知识,这对于智能体尤为重要。如何组织记忆的结构、表达和建模是研究重点。然而,目前产业界最朴素的做法是将召回结果作为提示词输入给大模型。传统 RAG 系统对召回的研究比重过高(约占 90%),而对记忆的组织研究相对较少(约占 10%)。我们认为,如何以有层次的方式组织记忆是一个至关重要的问题。


其次是特征提取与抽象概括。人类存储知识更可能是选择性地提取核心特征,或进行概括与抽象,这种信息在大脑中转化为认知的内在机制,对未来的记忆系统具有重要启发。


第三点是联想与快速召回。人类记忆拥有瞬间触发远期回忆的联想功能和低延迟的快速召回能力,这对当前的计算机系统而言实现难度较大。智能体记忆系统若要实现像人类那样,在面对强相关事件时能够零滞后地快速联想并召回远期信息,仍是挑战。如何实现跨越记忆层次的快速联想,是我们探索的方向。


总之,智能体记忆可以从人类记忆中汲取大量的灵感,但两者并非完全等同,也存在本质差异,例如人类记忆中的情感要素。因此,研究的关键在于甄别哪些人类记忆特性可供智能体学习和借鉴,而哪些方面存在本质不同。


李志宇:在理解了人类记忆体系对人工智能领域的指导原则后,我们将视角切换至 Agent 自身的工程体系:智能体的记忆与我们目前熟知的上下文工程或 RAG 等技术有何本质区别?


这个问题我想请王琰老师来解答。在构建大模型与智能体的过程中,两者采取了怎样的发展路径?我们应该如何在定义上区分和界定智能体记忆?


王琰:这是一个精彩的问题。我的观点是:RAG 这类技术不会消亡,但其形式必然会发生变化。


我认为当前 RAG 体系中最大的问题在于人类主导的流水线(Pipeline)限制了模型的行为。我预估,这种以人为干预为主的流程将在未来一年内逐渐被取代。取而代之的,将是一种智能体式的检索方式:检索本身被视为一种工具。正如人类使用搜索引擎,智能体也将以类似方式使用搜索引擎。


智能体记忆的关键在于自主编织能力。智能体必须具备自主决策的能力,决定在短期记忆中应存储哪些内容;主动进行检索,将检索到的信息纳入自身的记忆空间;并在信息不再需要时,将其从记忆空间中移除。


我认为,减少人类对流程的干预,是未来 Agent 架构的核心。人类的角色将越来越多地局限于下达指令和接收回答,而中间流程中的人工干预将日益减少。这便是智能体记忆未来的发展趋势所在。


李志宇:王老师的观点非常精辟。您清晰地描绘了记忆系统与外部系统的本质区别,即“能够查阅并不等同于拥有记忆”。


如果我们从单一智能体交互转向多智能体交互结构,记忆将不再是孤立的 Agent Memory,而是需要处理跨记忆、跨智能体、跨环境的历史轨迹信息。


在这种多智能体场景下,记忆应如何被组织?我想请教陈老师:如果将智能体的记忆视作一段历史的连续轨迹,您认为记忆的结构应以何种方式组织最为理想?


陈思衡:这是一个非常好的问题。我完全赞同:记忆对于智能体而言是一个至关重要的课题。


很多人难以区分大模型(LLM)与智能体(Agent)的区别。如果说大模型更类似于人类的大脑,那么智能体则更类似于完整的人。记忆在区分两者中发挥着核心作用。当模型以外部记忆进行加持时,它拥有了过去的成功经验和失败教训,使其成为一个更具独立性的个体。


今年 6 月Devin 公司发布了一篇博客,主张暂缓使用多智能体,因为在多 Agent 相互交流时,任务往往难以顺利下发或执行。其原因在于 Agent 之间缺乏共同的上下文(Common Context)。隔天 Anthropic 也发布了一篇博客,阐述了多智能体的必要性及结构化设计方法。这恰恰说明,智能体不仅需要个体记忆,还需要共享记忆或在管理和约束多个智能体方面有更高的要求。


我们在设计智能体记忆时,通常会采用类比的方式:类比人类如何形成记忆,以及计算机如何构建其存储系统。从人类记忆系统来看,我们会记住事件之间的相互关系,形成关联式的网络结构。因此,我们可以采用图结构作为一种表示形式来管理智能体的记忆,并希望 Agent 能够以多层次结构来管理其记忆。


我们期望智能体记忆具备以下特性:在每一个层级上,记忆可能采用图谱结构,节点代表事实、实体或关键词,同时节点之间存在连接关系。记忆并非单一图结构,而是多层级的图结构,不同层级之间存在一定的层间关联与映射。


在多智能体系统中,各个 Agent 维护的记忆库之间也需要有某种映射关系。一个理想的 Agent 需要维护这样一个多层级、关联丰富的记忆,并能实现对其进行增、删、改、查的操作。


李志宇:感谢陈老师的解答。在智能体(Agent)交互中,记忆起到至关重要的传导作用。我们将议题转向产业落地,这里我想问下何老师,尤其针对金融投研、投顾等严肃应用场景,何种具备记忆的智能系统才能真正变革现有的决策流程?


何逸凡:李老师提出的问题,对于金融行业而言是一个极其重要但尚未被充分认识到的前沿议题。当前记忆系统研究在产业界尚未形成体系化,行业内仍集中于如何有效地进行知识召回和查询使用。


在投研和投顾领域,目前仍以场景驱动为主,尚未与记忆系统产生强相关需求。然而,这其中蕴含着巨大的业务模式革新潜力。


虽然 AI 投研和投顾是热门趋势,但金融机构普遍尚未意识到“记忆”的重要性,目前的做法仍是将知识检索出来送入上下文窗口。


问题的关键在于:一位资深研究员或投资顾在长期服务中会积累大量的个性化经验和长期观点。这种经验能否形成一种个性化的附加值,辅助其未来的金融服务?据我观察,在金融领域,目前尚未有机构考虑到这个方向。


当前的 AI 投研和投顾状态是单次会话模式,客户提出诉求,系统搜索、总结和生成报告,本次会话即告结束, 对标的、持仓的分析和建议,记忆仅持续在十几分钟,且局限于大模型上下文窗口的长度。每一次服务都是一个独立的“零点开始”。


因此,长期服务过程中形成的个性化环境和积累,至今仍处于空白。反观之,如果能够将记忆系统与这两个场景深度结合,我认为它将会在金融投研投顾领域引发一场业务模式上的巨大、革新性变革,这将对整个行业具有重大促进作用。


李志宇:感谢何老师的分享。在金融等严肃场景,记忆带来的潜在商业化价值是显而易见的。


现在我们将视角转向娱乐化领域,王琰老师您在游戏相关智能体研究中,是何时开始意识到记忆不能仅仅依赖于单纯的上下文,而需要进行系统化的设计?


王琰:我认为意识到这一点非常简单:只要一开始进行游戏智能体的开发,就会立即意识到记忆的必要性。


最初,如果只是对话Agent,那么持续塞入几百甚至上千轮的上下文信息是可行的。但游戏 Agent 的输入是游戏的状态信息,每一帧有每一帧有几K 到几十K token的长度,而游戏的帧率通常为每秒 15 到 30 帧。这意味着上下文窗口只能塞入一帧信息就几乎饱和,不可能通过增加上下文窗口来容纳所有的历史帧信息。


因此,我们不可能通过增加上下文窗口的长度来容纳所有的历史帧信息。从工程化的角度来看,我们必须进行上下文工程。


大约在一两年前,斯坦福大学的论文《Generative Agents》问世,我们试图将其移植到游戏环境中。我们将游戏过程建模为一个马尔可夫链,使得下一个时刻的行动必须基于当前时刻的状态。同时将过去的行动等信息,以压缩的方式注入到输入提示词中。这些工程工作大约在 2023 年底开始进行。


随着工作的深入,我们逐渐意识到这个过程变得极其复杂,因为各个模块之间需要传输大量的上下文、提示词和历史行为等信息。我们开始思考是否存在一条根本性的路线来解决这一问题。那时我们探索的方法是参数化记忆,希望将一个 Agent 所有的历史行为都存储到一个 LoRA 模块中,并提出了 TempLora 的方法来实现。


正是从那时起,我开始从架构层面进行关于长期记忆的研究探索。这是我意识到记忆必要性,并在工程和研究上进行探索的整个过程。


李志宇:从复杂度上看,游戏场景的世界模型模拟状态确实是一个复杂度更高的应用场景。如果我们将视野进一步拓宽,当我们追求完成一个复杂的任务,而不仅仅是简单的对话时,是训练一个基座模型还是搭建一个 Agent 框架,两者之间会产生非常明显的差异。


针对 Agent 框架的设计,我想请教陈老师:从您的角度来看,设计一个长期、可持续更新的智能体记忆机制,与传统的一次性模型训练,其最大的不同点体现在何处?


陈思衡:当前,在大模型智能体领域,自演进和工具调用都是极其热门的研究方向。您提出的长期、持续地使用并不断调整自身以达到更强大的状态的需求,与智能体的自演进理念高度契合,也是未来大模型或智能体进一步发展的关键。


自演进的核心在于记忆机制。智能体必须通过持续地总结成功经验、反思不足之处,从而实现不断的迭代和提升。如果没有记忆,智能体将无法凝练经验、无法反思,也就无法实现成长和自演进。


我认为,智能体记忆的实现在方式上与传统大模型至少有两个方面的不同:


首先是系统设计与外部交互。即在已训练好的基座模型基础上,让其与外部存储,包括数据库、知识库 或 RAG 存储的大量外部信息进行交互。这种交互可以是偏向系统设计的工程方法,也可以是基于提示词工程的方式。


第二是记忆能力的内嵌训练。这是一种更根本性 的方法,也可能更能解决实际问题:将操作记忆或训练记忆的能力直接内嵌到模型中,而非将其视为一个独立的外部模块。例如记忆张量去年 7 月份发布的 Memory3框架。


今天,一些基于推理模型加上工具调用进行训练的智能体方法已经出现,它们在推理过程中会反复调用工具进行信息查询。我们可以设想,将其中 Web Search 等搜索工具替换为记忆的增加、更新、删除和遗忘等相关工具。然后,训练智能体在合适的时机,像使用 Web Search 功能一样,自主地对其记忆进行恰当的增删改查。


如果能实现这样的功能,将能够促使模型与外部存储设备进行更深度的交互。


智能体记忆的深入探索:技术挑战、模型架构与算法路径


李志宇:通过第一轮讨论,我们基本明确了记忆的定义、与传统方法的区别、组织方式及应用潜力。接下来,我们将进入更深入的探讨:构建记忆系统的具体技术细节与难点在哪里?哪些是至关重要的工程问题,哪些又是核心的算法问题?


何老师,从您的角度来看,在产业系统的实际落地过程中,引入记忆系统可能引发哪些技术和组织上的挑战?同时,在您看来,记忆系统在金融行业中(投研、投顾)最有可能带来的业务革新范式是什么?


何逸凡:在我印象中,产业界尚未形成体系化的记忆系统概念,但在技术层面,产业界已研究了大量与记忆相关的技术。


我可以列举几个与记忆系统相关的产业应用和面临的挑战:


首先是知识库与 RAG 系统的局限。大模型在产业界最广泛的应用是 RAG 系统,即知识库系统,包括企业知识库、领域/产品知识库等。这些系统虽然实用,但在产业界并未被关联到“记忆”的概念,但它们应属于记忆领域的一个子课题。


其次是业务知识资产的组织与管理。业务专家经验和最权威的业务知识往往存储在业务系统代码中。挑战在于:如何系统地组织和管理这些存储在代码中的业务知识,并确保在 AI 服务业务流程时,能精确召回并随上下文提供给大模型,以完成可控、可信的业务流程。


本质上,RAG、业务知识资产组织、上下文工程都属于记忆范畴,但在产业界被零散对待。这引出了一个疑问:记忆的范畴是否被过度扩大了?因此,对记忆系统进行明确的定义至关重要,以避免将所有非模型训练问题都归为记忆。


在技术挑战方面,在连续的对话或规划任务中,将全部历史信息带入上下文会导致上下文窗口过长,更严重的是会干扰模型的认知,例如在多步骤召回中导致决策混乱。


在金融等领域,实时性至关重要。如果对话历史中引用了实时行情,后续评判时,历史中的该数据必须根据实时行情进行更新。这意味着历史记忆本身是动态变化的。用户可能会要求返回到前几轮的状态重新开始,这对记忆系统提出了工程挑战。


虽然这些问题都可以用朴素的工程方法解决,但产业界缺乏体系化的理论和方法论来研究这些问题。


在商业化挑战与业务革新范式方面,目前,记忆系统尚未被视为一个独立的收费单元。如何将记忆系统本身作为一个可付费的组件进行销售是一个商业化挑战。


将运维或产品知识作为公共知识在行业云中进行知识库订阅的商业模式已存在。未来,记忆系统能否深化为一种 SaaS 服务模式?例如,投顾和投研专家在云端沉淀其专业知识和记忆,并在权限允许下互相融合,从而升级服务能力。


我个人认为最有可能带来业务革新的范式是:个性化、伴随成长的投顾和投研系统。即构建投顾/投研专家的“分身”。这些分身能够掌握客户或研究员过去的习惯和历史,提供贴身、定制化的服务。这不仅是财富服务模式的升级,也是商业模式的重大变化。尽管被称为 Agent,但其核心驱动力正是记忆系统。我个人对此前景充满信心和期待。


最后是关于记忆与存储系统的区别。存储系统本质上是被动的,它等待用户或程序按规则调用。我个人认为,记忆与存储系统的核心区别在于:记忆是面向主动召回(Active Retrieval)的一种存储系统。 如果未来的存储系统都能实现面向主动召回的机制,那么它们是否都会演变为智能时代的记忆系统?我认为这是一种可能性。


李志宇:非常感谢何老师详尽的分享。从应用场景来看,具备完整记忆系统的陪伴性、成长性投资系统,可能预示着一种全新的服务形态和业务变革。


接下来,我想请教王琰老师,您在探索无限长记忆的基座模型时,遇到了哪些关键的技术瓶颈?您对这些瓶颈和未来可能的解决技术路线有何看法?


王琰 :当前的 Transformer 架构存在一个典型问题,即记忆与推理不分家,两者本质上都由模型的参数来完成。这导致了一个两难困境:如果通过充分训练记录过去知识,模型的通用能力会迅速下降(灾难性遗忘);如果训练不足,对知识的记忆又不够牢固。


令人欣喜的是,我最近看到了 Apple 的一项工作,成功实现了记忆与推理的分离:采用一个较小的推理模型和一个非常大的记忆模型,这与人类的快思考与慢思考模式有相似之处。


尽管模型架构已改进,但我们的训练算法如 Adam 优化器等仍是基础配置,这也加剧了训练的瓶颈。Google 的 Nested Learning 或 HOPE 模型是最近的一个有趣的方向,他们直接将优化器本身作为可学习的参数,在推理过程中不断地优化优化器,再由优化器来改变模型的参数。


此外,当前的深度学习框架并非支持所有新型架构,这导致许多不受主流框架支持的架构很难进行大规模训练。例如,我们曾尝试开发 RNN 和 Transformer 的混合架构,由于底层问题效果不佳。有团队通过解决底层架构问题成功训练了此类模型,提出了 AHN网络,将 Mamba 或 RNN 这类模型用作长期记忆。这表明底层基础设施的限制,使得缺乏 Infra支持 能力的团队难以进行架构研究。


最后,架构研究还面临非技术层面的挑战。新架构往往需要从零开始重新预训练,但研究者往往缺乏足够的资源。更现实的问题是,如果成果的模型效果无法超越主流模型,其论文关注度就会很低,导致研究者缺乏动力进行架构创新。同时,公司组织架构也存在挑战:架构研究团队通常不是负责短期效果的基座模型团队,缺乏大规模预训练所需的资源和数据,而基座模型团队的巨大压力导致他们很难重兵投入新架构的研究和探索。只有像 DeepSeek 这样,研究与工程互通性极高的公司,在这方面才拥有巨大的便利性。


李志宇:确实,对于基模驱动的记忆增强优化无论是对于组织难度、研发难度和投入产出的衡量,都是具备极大挑战的。现在,我们从基座模型层面的Agent层面进行探讨。我想请教陈老师,关于智能记忆体的组织方式,如果假设我们采用图神经网络或时序模型表达记忆节点及其联系,您在目前的研究中对于这类结构有什么样的思路和见解?


陈思衡:我相信智能体记忆应是一种多层级结构,类似于计算机的存储系统。类比绘制人物关系图、思维导图等人类记忆方式,我预想的结构是:一个分层的图结构,其中每个层级组织成关系网络,且层级之间存在关联。


在图神经网络中,节点代表概念或事件。为了快速查询,我们需要利用节点嵌入。通过构建图结构和有效的消息传递,可以确保相似或相互关联的节点在嵌入层面具有较高的相似性,实现远距离和异构信息的关联。这种结构并非纯粹静态,回溯是动态过程。当提出粗略问题时,系统给出粗略结构;提出细粒度问题时,系统进行细粒度缩放,深入记忆库追踪更细节的信息以完善回答。


李志宇:感谢思衡老师的回答,分析了类图神经网络的记忆组织形态的优势。如果未来智能体要更像人类,实现更好的遗忘、更新和更准确的纠错(例如人类记忆中的干扰或重构机制),从算法研究路径来看,您觉得我们应采取哪些可行的方法?


陈思衡:纯粹从算法角度而言,我认为有以下几个方面值得深入思考:


首先是整体多层级架构。借鉴计算机组成的概念,我们需要一个多层级的架构,类似于 CPU 使用越频繁,存储越小、读取越快。在智能体中,通过结合参数记忆、上下文记忆和外部数据库记忆形成分层记忆。根据场景需求,对不同层级的记忆进行分层追踪,例如根据金融话题切换 LoRA 参数。


其次是遗忘与更新的量化指标。在遗忘和更新过程中,我们需要衡量哪些记忆仍然有信息量。可能需要定义类似于记忆熵或互信息等信息论概念,去量化评估记忆片段的重要性和信息量。


最后是有针对性的训练与工具化。最终目标是让模型达到非规则驱动的状态。我们需要对模型进行训练,使其像调用 Web Search 一样,能够不断地从外部获取所需信息。将外部信息获取替换为对记忆的增、删、改、查等工具。训练智能体在合适的时间,自主地调用“添加”、“总结”或“删除”等工具,对记忆进行操作,将这种能力内嵌到模型中。


记忆的商业化路径:金融、教育、医疗的模式升级


李志宇:在第三部分,我想进一步与各位老师探讨未来的行业演变趋势、模型进化的形态,以及记忆研究中的跨学科演进方向。


请教王琰老师,您认为基于基座模型驱动的无限长记忆研究方案,是否会成为未来智能体发展的关键转折点?如果是,其背后的架构和生态将是怎样的?


王琰:我认为这是一个渐进发生的过程,而非突然的转折点。回顾 2023 年,曾有观点认为无限长的上下文(Context Window)可以解决所有问题,但现在看来上下文长度并非没有限制。因此,如果我们的记忆能够实现无限长,我们是否可以重新提出一个观点:将所有训练数据直接存储在模型的记忆中,其效果是否能等同甚至优于直接训练?鉴于现在模型即智能体的概念日益普及,这无疑是一个必然的趋势。


我不敢妄下断言,但我可以提出两个我确信一定会发生的架构变化:


首先是记忆与推理的解耦(Decoupling)。两者必然会位于两个不同的参数区域。未来必然会有一个只包含常识的推理模型,其尺寸可能比现有大模型更小;同时,会有一个负责记忆的更大模型。这个记忆模型在存储上尺寸会大很多,但并非在每一个 Token 推理时都需要被调用。记忆与推理分离的架构,是未来的必然趋势。


其次是推理时训练(Inference-Time Training)。即前向推理过程中参数的动态变化。现在已有许多模型采纳了这一思想,包括 RNN 模型、TTT 架构和 Google 的 HOPE 模型。毋庸置疑,就像人类在生命过程中不断变化一样,模型也应具备在其生命周期中随着经历而不断变化的能力,其参数中必然有一部分是可变的。目前以我的能力判断,这两个趋势是较为确定的。


李志宇:感谢王老师的分享。接下来我想请教何老师。从您的产业视角来看,未来 3 到 5 年内,记忆智能体最有可能在哪些行业实现更大的突破?同时,如果将记忆服务视为一种未来的商业模式,您认为这个模式中最关键的要素可能是什么?


何逸凡:记忆系统在产业界的应用,与新一代 AI 在产业界的渗透趋势是同步的。当前 AI 发展日新月异,但在产业界,整体上仍处于 ROI 为负的状态,产业红利尚未充分释放。但这预示着 AI 发展的下一波重点,除了基础研究外,将是产业红利的释放,即 AI 在产业界的实际应用研究。记忆系统将是其中的一个重要方向。


在产业突破领域,我判断:


金融行业最先改变的是对客系统,例如客服演变为业务系统,营业厅演变为营销系统。但金融的内核(交易)不会被 AI 驱动。


教育行业,我认为具有颠覆性的潜力。AI 可以实现高度个性化的记忆系统,且可能对教育模式的内核产生颠覆性变化,即教育的“芯片”被更换。


医疗行业也将面临内核被更换的可能性,通过将专业专家的经验参数化到大模型中,未来可能拥有大部分医生的知识经验。


在商业模式与架构思考方面,技术上,记忆与推理的分离是一个重要趋势。但产业界面临一个核心未解问题:未来的记忆服务模式是采用集中式巨型模型(将所有记忆参数化,参数占比 90%甚至 100%),还是端侧小模型 + 大量外部记忆(参数占比 30%,外部存储占 70%)?这两种路线是否会并存?这是一个亟待回答的问题。


从我工作来看,我最确认的关键要素是个性化的投顾和投研系统,即能够伴随客户成长的投顾系统,或投研专家的“分身”,这将是财富服务模式的升级和商业模式的重大变化。


李志宇:感谢何老师的分享。从产业角度来看,未来发展记忆系统,关键在于如何将记忆切实地转化为资产,以实现价值重构,并找到潜在的商业化方向,例如金融的对客场景,以及教育、医疗等可能发生内核变革的行业。


接下来我想请问下陈老师:从学术研究和系统应用融合的角度来看,未来智能体要实现跨学科协作,例如融合认知科学、神经科学、机器学习、系统工程等,哪些方面是您认为最值得投入的?此外,展望未来,如果智能体具备情境交互、协作和记忆的能力,可能会带来哪些系统化的改变?这些改变对现有系统(如 MemOS)能带来哪些启示?


陈思衡:关于跨学科合作,我认为认知科学、神经科学等底层研究可以带来启发,但也带来一定的偏差。人类记忆并非完美体系,完全照搬或使智能体趋向于人,可能并非最优解。我个人认为,智能体的设计和记忆机制优化,仍应主要面向具体的应用场景和任务需求,这本质上是一个工程性问题,需要做好工程上的迭代优化。


在情境交互与协作方面,分人机协作和机器协作两种类型。


情境协作可以使智能体成为亲密的 AI 助手。为了贴合人的喜好,智能体需要提升情感和偏好洞察、具备深度的多模态能力,并需要主动观察,而非被动接收输入,从而产生更多的交互性记忆。


在多智能体协作中,记忆共享是至关重要的一环。要实现智能体作为一个组织(Organization) 运作,就需要 Agent 之间能够相互共享记忆、更好地组织和共享上下文(Context),从而实现更强大的调度和能力。


对于 MemOS等记忆系统的启示,未来可以从以下方面提升:记忆组织结构应具备更多的关系和多层级结构; 模型对记忆工具(增删改查)的调度能力应是原生化的,能自然地调用工具进行动态管理;未来记忆系统需支持语音、图像、视频等多模态数据,以融入人的生活情境;引入如对用户情绪的理解等主观感受,使其更懂人性。


总结、问答与未来展望


李志宇:通过今天的讨论,我们从基础理论、工程机制、产业落地,到未来的趋势等多个维度探讨了记忆的关键点,一致认为:记忆已成为下一代智能体的最核心变量,更是 AI 未来演化的必经之路。


由于时间关系,我们将选取最后两个观众提问问题,邀请各位老师一起讨论回答。


第一个问题:如何区分“记忆”和“上下文工程”?


王琰:当前并没有一个严格的区分标准,我只能提供我的区分方式:


  • 记忆: 是模型主动的行为。


  • 上下文工程: 是人类强加给模型的,是人类设定的流程。


因此,KV Cache、RNN 中的 Hidden States、推理时训练以及模型自发起的增删改查,我认为它们属于记忆;而人类定义的 Workflow,则属于上下文工程。


李志宇:王老师将概念解释得非常清楚。接下来看第二个问题:未来的一年内 Agent Memory 会出现哪些重要的突破? 


陈思衡:正如刚才提到的,我认为以下几点可能出现重要突破:


首先是多模态记忆,记忆的模态将不仅限于文本,更多的多模态大模型和相关的记忆形态将成为研究重点;其次是原生工具化能力,我们需要将对记忆的增删改查能力,像工具调用一样训练到模型内部,使其能够更适配、更充分地调用各种记忆编辑工具,进行交互;以及表示形态的演进,可能会出现针对 Memory 的表示形态的演进,例如更好的多层级结构架构,这也是非常值得研究的地方。


李志宇:感谢陈老师。这意味着 Memory 能够处理的模态范围以及其上下游的触达路径都将有更深远的突破。


通过前面三个部分的总结,相信大家对智能记忆体有了很好的了解。最后,我们有请各位嘉宾用一句话来总结一下自己对未来记忆增强技术的看法或观点。


何逸凡:期望记忆的成熟和发展,能够为 AI 在产业界的突破和完成产业红利的释放,成为最大的驱动引擎。


王琰:我希望人的能力不要成为制约大模型能力的一个瓶颈。现在很多记忆设计都是照着拟人化,这就好比要求飞机必须像鸟一样扇翅膀,这是一种倒退而非进步。我希望大模型拥有比人类更强的记忆能力,而不是仅仅一味地拟人化记忆。


陈思衡:我更多是寄语我自己和组里的同学。我年初就看到了 Agentic Memory 是一个非常好的方向,希望我们能在一年之内发表更多更好的研究成果。


李志宇:再次感谢三位老师的精彩分享。希望今天关于智能体的深入讨论,能够为理解下一代智能体的形态成为一个重要的起点,让 AI 真正具备跨时间的积累、理解和成长能力,并在个性化层面呈现更好的发展。未来,我们期待共同推进把记忆从概念变成能力,从能力变成系统,最终让智能体走向产业化和价值化。


谢谢大家,今晚圆桌结束。


完整视频观看地址 :


https://youtu.be/kdJ_BI_h1lg


文章来自于微信公众号 “AI科技评论”,作者 “AI科技评论”

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI代理

【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。

项目地址:https://github.com/browser-use/browser-use


2
AI数据分析

【开源免费】DeepBI是一款AI原生的数据分析平台。DeepBI充分利用大语言模型的能力来探索、查询、可视化和共享来自任何数据源的数据。用户可以使用DeepBI洞察数据并做出数据驱动的决策。

项目地址:https://github.com/DeepInsight-AI/DeepBI?tab=readme-ov-file

本地安装:https://www.deepbi.com/

【开源免费airda(Air Data Agent)是面向数据分析的AI智能体,能够理解数据开发和数据分析需求、根据用户需要让数据可视化。

项目地址:https://github.com/hitsz-ids/airda

3
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

4
知识库

【开源免费】FASTGPT是基于LLM的知识库开源项目,提供开箱即用的数据处理、模型调用等能力。整体功能和“Dify”“RAGFlow”项目类似。很多接入微信,飞书的AI项目都基于该项目二次开发。

项目地址:https://github.com/labring/FastGPT

5
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI

6
AI搜索

【开源免费】MindSearch是一个模仿人类思考方式的AI搜索引擎框架,其性能可与 Perplexity和ChatGPT-Web相媲美。

项目地址:https://github.com/InternLM/MindSearch

在线使用:https://mindsearch.openxlab.org.cn/


【开源免费】Morphic是一个由AI驱动的搜索引擎。该项目开源免费,搜索结果包含文本,图片,视频等各种AI搜索所需要的必备功能。相对于其他开源AI搜索项目,测试搜索结果最好。

项目地址:https://github.com/miurla/morphic/tree/main

在线使用:https://www.morphic.sh/

7
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0