AI资讯新闻榜单内容搜索-Memory

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Memory
基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁

基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁

基础模型又一关键拼图,腾讯混元发布训练新范式「无相」:引入功能性记忆,打破静态权重枷锁

3月6日,腾讯混元发布了一篇名为“HY-WU (Part I): An Extensible Functional Neural Memory Framework and An Instantiation in Text-Guided Image Editing”的技术报告。提出了一种崭新的功能性记忆(functional neural memory)范式(weight unleashing),

来自主题: AI技术研报
8301 点击    2026-03-07 11:08
Claude祭出「记忆搬家」,60秒搬空ChatGPT灵魂!70万用户退订OpenAI

Claude祭出「记忆搬家」,60秒搬空ChatGPT灵魂!70万用户退订OpenAI

Claude祭出「记忆搬家」,60秒搬空ChatGPT灵魂!70万用户退订OpenAI

今天,Anthropic专为Claude上线了「导入记忆」(Import Memory)新功能,可一键丝滑搬家。只需一次简单的「复制粘贴」,就能将ChatGPT所有上下文,完整迁移至Claude。

来自主题: AI资讯
10411 点击    2026-03-02 14:58
Agentic Memory开年就卷起来了?刚刚,华人团队MemBrain拿下多项SOTA!

Agentic Memory开年就卷起来了?刚刚,华人团队MemBrain拿下多项SOTA!

Agentic Memory开年就卷起来了?刚刚,华人团队MemBrain拿下多项SOTA!

2026 刚来到 2 月,无论是底层模型大厂还是初创公司统统加速开卷,其中 Agentic Memory 方向的快速进化更是把大模型的能力上限推向了 NEXT LEVEL!

来自主题: AI资讯
10026 点击    2026-02-06 11:40
刚刚,DeepSeek 再发梁文锋署名新论文:Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models

刚刚,DeepSeek 再发梁文锋署名新论文:Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models

刚刚,DeepSeek 再发梁文锋署名新论文:Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models

今天凌晨,喜欢闷声做大事的 DeepSeek 再次发布重大技术成果,在其 GitHub 官方仓库开源了新论文与模块 Engram,论文题为 “Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models”, 梁文锋再次出现在合著者名单中。

来自主题: AI资讯
10924 点击    2026-01-13 07:59
打破学科壁垒!400篇参考文献重磅综述,统一调查「人脑×Agent」记忆系统

打破学科壁垒!400篇参考文献重磅综述,统一调查「人脑×Agent」记忆系统

打破学科壁垒!400篇参考文献重磅综述,统一调查「人脑×Agent」记忆系统

哈工大、鹏城实验室、新加坡国立、复旦、北大联合发布了一篇重磅综述《AI Meets Brain: A Unified Survey on Memory System from Cognitive Neuroscience to Autonomous Agents》,首次打破认知神经科学与人工智能之间的学科壁垒,系统性地将人脑记忆机制与 Agents 记忆统一审视,

来自主题: AI技术研报
9389 点击    2026-01-11 10:00
CaveAgent让LLM学会了“跑代码”,你能把Agent变成Jupyter里的“老司机”

CaveAgent让LLM学会了“跑代码”,你能把Agent变成Jupyter里的“老司机”

CaveAgent让LLM学会了“跑代码”,你能把Agent变成Jupyter里的“老司机”

CaveAgent的核心思想很简单:与其让LLM费力地去“读”数据的文本快照,不如给它一个如果不手动重启、变量就永远“活着”的 Jupyter Kernel。这项由香港科技大学(HKUST)领衔的研究,为我们展示了一种“Code as Action, State as Memory”的全新可能性。它解决了所有开发过复杂Agent的工程师最头疼的多轮对话中的“失忆”与“漂移”问题。

来自主题: AI技术研报
8596 点击    2026-01-09 14:34
最火、最全的Agent记忆综述,NUS、人大、复旦、北大等联合出品

最火、最全的Agent记忆综述,NUS、人大、复旦、北大等联合出品

最火、最全的Agent记忆综述,NUS、人大、复旦、北大等联合出品

在过去两年里,记忆(Memory)几乎从 “可选模块” 迅速变成了 Agent 系统的 “基础设施”:对话型助手需要记住用户习惯与历史偏好;代码 / 软件工程 Agent 需要记住仓库结构、约束与修复策略;

来自主题: AI技术研报
8900 点击    2025-12-23 09:28
最近很火的Hindsight,基于图谱的「Agent记忆栈」解耦事实与信念

最近很火的Hindsight,基于图谱的「Agent记忆栈」解耦事实与信念

最近很火的Hindsight,基于图谱的「Agent记忆栈」解耦事实与信念

在上一篇文章中,我们系统梳理了AI Agent 记忆机制的全景综述AI Agent最新「Memory」综述 |多所顶尖机构联合发布。今天我将带您了解一项最近很火的Agent记忆项目「HINDSIGHT」

来自主题: AI技术研报
8212 点击    2025-12-19 10:28
AI Agent最新「Memory」综述 |多所顶尖机构联合发布

AI Agent最新「Memory」综述 |多所顶尖机构联合发布

AI Agent最新「Memory」综述 |多所顶尖机构联合发布

就在昨天,新加坡国立大学、中国人民大学、复旦大学等多所顶尖机构联合发布了一篇AI Agent 记忆(Memory)综述。

来自主题: AI技术研报
8314 点击    2025-12-17 09:21
亚马逊Agent克服遗忘的“秘诀”,被中国团队掌握,让大模型遗忘率趋近于0

亚马逊Agent克服遗忘的“秘诀”,被中国团队掌握,让大模型遗忘率趋近于0

亚马逊Agent克服遗忘的“秘诀”,被中国团队掌握,让大模型遗忘率趋近于0

国内记忆框架首开源,企业实战已上线运行。在海外巨头已经将“记忆系统”提升到基础设施层的同时,红熊AI便是其中之一。公司成立于2024年,围绕多模态大模型与记忆科学开展研发,并将这些能力用于为企业提供智能客服、营销自动化与AI智能体服务。

来自主题: AI资讯
7524 点击    2025-12-08 09:49