记忆,或是 AI 从「即时回答工具」迈向「个性化超级助手」的关键突破
近期,Google Research 的一篇名为《Nested Learning: The Illusion of Deep Learning Architectures》的论文大范围「出圈」,被业界看作是论文《Attention is All You Need》的 V2 版。

对于后者,想必大家已然非常熟悉,同样是 Google Research 的作品,于 2017 年 6 月发布,文中提出的 Transformer,堪称开启了大语言模型革命的序章。
新论文之所以被奉为「精神续作」,是因为同样有着「基础范式」级别的突破,该研究提出了一种全新的机器学习范式 ——「嵌套学习」(Nested Learning),使得大语言模型能够在不断学习新技能的同时,又不会遗忘旧技能,标志着「AI 正朝着真正像大脑一样记忆、进化迈出了一大步」。

其实如果仔细看,这些热闹的背后释放出一个新的信号:大模型的风向变了。
不管是各大大模型玩家在卷「谁的模型更大、更快上」呈现的疲软、无力,还是 Ilya Sutskever 振臂一呼,直言「Scaling 已死」,都在言明,过去盛行的「暴力革命」已不再适用于当前的大模型,战场早已升级。而新的「战场」上,大模型其实已经转向「谁的模型更会记忆、谁更懂用户」的深层能力比拼上,或者说,记忆,才是新一轮 AI 进化的关键所在。
怎么理解?
过去一年多以来,大模型落地应用成为主流叙事,各类智能体(Agent)、「超级助手」产品接连涌现,但时至今日,仍然没有一个产品能够真正为用户提供个性化服务,胜任「超级助手」角色,更多的还是停留在「即时回答工具」层面,一个很重要的原因是「AI 虽然聪明,但记不住,缺乏长期记忆」。
当用户打开聊天窗口时,AI 等于「从零开始」搭建新对话流程;当多智能体系统交接任务时,它们彼此之间的记忆是断裂的;当企业试图构建连续的 AI 工作流程时,系统无法持续吸收经验…… 而这些「遗忘」背后的原因有很多,核心原因就在于「当前大模型记忆机制存在根本性缺陷」。
具体来看,这一根本性「记忆缺陷」源于多重技术局限的叠加。
首先,当前主流大模型上下文窗口通常为 8k-32k tokens,在长对话中存在早期信息被「挤出」的可能,从而导致后续交互对话脱离历史上下文语境。比如用户第一轮对话中表明自己「对海鲜过敏」,可等到第五轮对话中,用户咨询「推荐今晚的菜品」时,模型可能遗忘前面对话中提到的过敏信息。并且当前大模型的主流架构多为 Transformer,而 Transformer 的自注意力对长距离依赖的捕捉能力随序列长度下降,出现「近因效应」,换句话说就是更关注最新输入,忽略早期关键信息,可谓「天生不适合长期记忆」。
简单来说就是,模型固有的上下文窗口限制与注意力衰减,使得模型只记得住短期信息。
其次,在复杂的多 Agent 协作场景中,诸如咨询、售后、推荐等各 Agent 之间缺乏跨模块的共享机制,各自维护独立的记忆,形成「记忆孤岛」,导致用户「换个入口就像换了个新 AI」,不得不一遍又一遍地重复提供信息。
另外,还有个更深层的问题在于,用户对话中的模糊指代、行业术语及多语言混用,常常导致语义解析失真,而模型静态的知识库与用户动态的个性化需求之间,更是存在难以逾越的鸿沟……
因此,业界呼唤长期、稳定、可演进的模型「记忆」,越来越多的AI厂商开始聚焦模型记忆能力,比如谷歌、OpenAI、Anthropic 等AI大厂都在围绕「记忆」这一新命题发力,通过各种方法强化其模型的记忆能力,而很多初创企业也在寻找新解法。
红熊 AI 也是其中一个。
其实,红熊 AI 决定做「记忆」的背后不是长期谋划的结果,也并非突然的灵感迸发,而是被真实场景的业务难题「逼」出来的。
红熊 AI 成立于 2024 年 4 月,原本是一家聚焦底层技术中台的企业。去年 9 月,团队在做一个智能客服类型项目时,遇到了模型的「知识遗忘」问题,为了解决这一「拦路虎」,团队尝试了各种技术方案,包括上下文优化、外挂知识库、模型训练调参优化、增加长期记忆等,可最后的效果都不甚理想……
这次的经历让红熊 AI 意识到一个问题:记忆缺失,或是制约 AI 从「即时回答工具」迈向「个性化超级助手」的核心瓶颈。
在红熊 AI 创始人兼 CEO、记忆熊首席科学家温德亮看来,人类智能的基石,在于能够将碎片化信息组织成可被持续调用、关联并解决新问题的记忆体系。「当前 AI 所缺乏的,正是这种基于记忆的认知能力,而不仅仅是模式匹配。」
为此,红熊 AI 重新规划公司发展重心,开始转向「多模态模型 + 记忆科学」的研发路径,之后历时一年,于今年下半年正式推出其自主研发的记忆科学核心技术产品 ——「记忆熊」(Memory Bear)。
「记忆熊」不仅有效突破了传统大语言模型在长期记忆管理中的「准确率低、成本高、幻觉多、延迟高」等诸多瓶颈,更在技术架构、应用场景与性能指标上实现多重跨越。
具体来看,「记忆熊」的技术突破在于,它并不是对模型的记忆系统进行局部优化,而是「全链路重构」,借鉴了人脑「海马体 - 皮层」的分工协作机制,构建了一套分层、动态、可演进的「类人」记忆架构。

可以这样理解,在人脑系统中,海马体就像「临时图书馆」和「索引编制中心」,负责快速形成新记忆,而大脑皮层则像是「永久分布式书库」,负责长期存储和关联知识。在日常记忆中,「海马体 - 皮层」机制通过「快速绑定 - 索引创建 - 离线重放 - 皮层固化 - 关联整合」的协作,来进行快速学习新事物和存储、记忆长期知识。
而这套机制应用在 AI 中,「记忆熊」则是按记忆管理的需求来划分为「显性记忆层」与「隐性记忆层」。

在显性记忆层,系统通过结构化数据库,存储可清晰描述和主动调用的信息,比如用户的历史对话(情景记忆)和行业知识库(语义记忆)。
在隐性记忆层,一个独立于大模型参数的外部组件负责专门管理 AI 的行为习惯、任务策略和决策偏好,使其能「无意识」地高效处理重复任务。
此外,系统还通过情感倾向加权机制,对用户标记的重要或高频情感信息赋予更高权重,模拟人类对情绪事件的深刻记忆。
比如,前面提到,在一些 AI 产品中,模型记不住之前对话中用户提到的「对海鲜过敏」,而「记忆熊」能做的不仅是记住用户「用对海鲜过敏」,甚至还能将用户的一些隐性需求进行关联记忆,像是「用户周一到周五习惯几点起床?」「到公司喝什么咖啡,天气冷了可能想喝热的,热了想喝冰的……」它能够理解「咖啡」与用户「早晨通勤习惯」的隐性关联,从而实现超越关键词的联想式记忆检索。
数据显示,「记忆熊」通过精准剔除冗余信息,在保持语义完整的前提下,能够实现 97% 的 token 效率提升和 82% 的语境偏移率降低,将复杂推理准确率提升至 75.00±0.20% 的行业高度,打破传统 AI 记忆系统「高消耗、低准确」的刻板印象。
另外,在权威的 LOCOMO 数据集测试中,「记忆熊」的性能表现在单跳问答、多跳推理、开放泛化和时序处理四大核心任务中,表现优异,尤其在基于向量的版本在 Achieving 高准确性的同时,将搜索延迟 p50 控制在 0.137 秒,总延迟 p95 低至 1.232 秒,证明了「高准确率并不代表必有高延迟」。
可以说,「记忆熊」不仅「记得住」,而且「记得快、记得准、记得省」。
在 AI 行业中,衡量一个技术是否真有价值,仅仅停留在概念阶段的各种「打榜」并不能说明一切,归根结底要取决于能否在真实场景中落地应用。在这一点上,红熊 AI 推出的「记忆熊」具有天然优势:它本身就诞生于商业场景,因此早早回到场景中验证,并交出一份不错的成绩单……
首先是智能 AI 客服场景,这可以说是「记忆熊」「缘起」的地方,曾经因为模型记忆能力不足,带来交接时客服缺乏上下文,客户被迫重复信息,情感线索被忽略,长期下来导致用户不满,客户流失的情况频发,而如今正变得不一样。
「记忆熊」可以为每位用户创建动态记忆图谱,从而让机器人拥有了「客户终身记忆」,每次交互时都可以回溯过往交互记录,理解对方情感状态,并为客服提供即时上下文,将服务从被动响应转变为主动关怀,用户无需再重复陈述问题,大幅提升用户的交互体验。
数据显示,凭借跨 Agent 的记忆共享,「记忆熊」实现了 70% 的人工替代率与 98.4% 的自助解决率。
在营销场景,「记忆熊」能够根据购买习惯,为用户构建兴趣记忆图谱,追踪用户从首次点击到复购的完整旅程,继而可以针对用户兴趣,推出超个性化、实时适应用户行为的营销活动,改变传统的「猜你喜欢」营销范式,变成「我记得你喜欢,知道你现在想要什么」的主动迎合。
在企业数智化领域,「记忆熊」作为统一的组织记忆中枢,打破了部门间的数据孤岛,将新员工的知识获取效率提升了 50% 以上。
而在 AI 教育场景中,「记忆熊」基于个性化记忆的因材施教与情感加权推荐,正重新定义着个性化服务的标准,面对学生重复犯错、学习路径千篇一律,被忽视的学习情绪与习惯等,基于「记忆熊」的 AI 导师能够追溯学生数月的错题本,实现精准查漏补缺,从而提供更为个性化的教学体验。
不止是这些,在电商、零售等场景,「记忆熊」也正在不断赋能,通过模型记忆能力的增强,来提升服务质量。而未来,红熊 AI 将会继续以「记忆熊」为核心技术引擎,推动 AI 从「工具级服务」迈向「伙伴级服务」,为千行百业的智能化升级提供底层支撑……
其实,从整体来看,不管是 Google Research 提出「嵌套学习」,从前沿技术层面指明「记忆」的提升方向,还是像红熊 AI 这样的玩家不断从工程路径上探索「记忆」的落地应用,都在表明一个事实:「记忆」能力是当前 AI 技术侧和应用侧的双重诉求,这已然成为一个共识。
基于此共识,越来越多的玩家开始入局、押注,朝着让 AI 拥有像人类一样的记忆持续探索,而在 AGI 这一终极目标的追寻道路上,谁掌握了「记忆」,谁就更接近 AGI……
文章来自于“机器之心”,作者 “Youli”。
【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。
项目地址:https://github.com/browser-use/browser-use
【开源免费】字节工作流产品扣子两大核心业务:Coze Studio(扣子开发平台)和 Coze Loop(扣子罗盘)全面开源,而且采用的是 Apache 2.0 许可证,支持商用!
项目地址:https://github.com/coze-dev/coze-studio
【开源免费】n8n是一个可以自定义工作流的AI项目,它提供了200个工作节点来帮助用户实现工作流的编排。
项目地址:https://github.com/n8n-io/n8n
在线使用:https://n8n.io/(付费)
【开源免费】DB-GPT是一个AI原生数据应用开发框架,它提供开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。
项目地址:https://github.com/eosphoros-ai/DB-GPT?tab=readme-ov-file
【开源免费】VectorVein是一个不需要任何编程基础,任何人都能用的AI工作流编辑工具。你可以将复杂的工作分解成多个步骤,并通过VectorVein固定并让AI依次完成。VectorVein是字节coze的平替产品。
项目地址:https://github.com/AndersonBY/vector-vein?tab=readme-ov-file
在线使用:https://vectorvein.ai/(付费)
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md
【开源免费】FASTGPT是基于LLM的知识库开源项目,提供开箱即用的数据处理、模型调用等能力。整体功能和“Dify”“RAGFlow”项目类似。很多接入微信,飞书的AI项目都基于该项目二次开发。
项目地址:https://github.com/labring/FastGPT
【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。
项目地址:https://github.com/microsoft/graphrag
【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。
项目地址:https://github.com/langgenius/dify
【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。
项目地址:https://github.com/infiniflow/ragflow/tree/main
【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目
项目地址:https://github.com/phidatahq/phidata
【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。
项目地址:https://github.com/TaskingAI/TaskingAI