是否愿意和AI进行一场80年的记忆长跑?Mebot的尝试与创新

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
是否愿意和AI进行一场80年的记忆长跑?Mebot的尝试与创新
2796点击    2025-07-17 16:42

人脑记忆的机制与特点


是否愿意和AI进行一场80年的记忆长跑?Mebot的尝试与创新


从神经科学的角度看,记忆的形成、存储和提取涉及大脑多个区域的协同工作。


其核心可分为四个主要阶段:


1. 编码(Encoding): 这是记忆过程的入口。

当我们经历一件事情时,感官系统(视觉、听觉、触觉等)接收到信息,这些信息被转换成大脑能够理解和处理的神经信号。


这个过程受到注意力的严格调控。


只有被我们注意到的人和事,才有机会进入记忆的下一站。


情感在编码阶段扮演着至关重要的角色,杏仁核(Amygdala)作为大脑的情感中枢,会为附着着强烈情感(无论是喜悦、恐惧还是悲伤)的记忆打上“高亮”标签,使其更容易被编码和长久保存。


2. 存储(Storage): 经过编码的信息并非立即“存盘”。


它首先进入感觉记忆(Sensory Memory),这是一个极其短暂的缓冲区,只能维持几秒钟。被注意到的信息随后进入短期记忆(Short-term Memory)或工作记忆(Working Memory)。


这个阶段的容量和时长都非常有限,通常只能记住7±2个信息组块,持续时间从十几秒到几分钟不等。


前额叶皮层(Prefrontal Cortex)在工作记忆中扮演着关键角色,它像一个临时的信息处理中心,让我们能够处理眼前的任务。


3. 要让记忆长久保存,就必须经历巩固(Consolidation)的过程。


在这个过程中,短期记忆通过海马体(Hippocampus)的整理、加工和“存档”,逐渐转化为长期记忆(Long-term Memory),并被分布式地存储在大脑皮层的各个相关区域。


这个过程在睡眠中尤为活跃,大脑会重放白天的经历,加强神经元之间的连接(突触可塑性),从而稳定记忆。


4. 提取(Retrieval): 当我们需要回忆某段往事时,大脑会根据线索重新激活存储在皮层中的神经元网络。


这个过程并非简单的“读取”,而更像是一次重构(Reconstruction)。

每次回忆,我们都可能不自觉地加入新的信息、情感和当下的理解,从而对原始记忆进行微调甚至修改。


这就是为什么我们的记忆会随着时间的推移而发生变化,甚至出现偏差的原因。


被提取的记忆会暂时变得不稳定,容易受到干扰和更新,这既是记忆动态适应性的体现,也是其不可靠性的根源。


人脑记忆的核心特点


  • 关联性与情境性: 记忆不是孤立存在的,而是通过复杂的网络相互连接。一个微小的线索(一种气味、一段旋律)就可能触发一连串相关的记忆。
  • 动态与可塑性: 记忆并非一成不变,而是在不断的巩固、提取和再巩固中被重塑。
  • 情感的烙印: 情感是记忆的染色剂,决定了记忆的强度和持久性。
  • 遗忘的必然性: 遗忘是记忆系统的一种自我保护和优化机制,帮助我们过滤掉不重要的信息,为新的学习留出空间。
  • 主观与建构性: 我们的记忆是我们对过去的主观建构,而非客观记录。


感觉记忆 (Sensory Memory)


这是记忆的起点,一个极其短暂的信息缓冲区。


当我们看到一束闪光,即使光线消失,其影像仍会在脑海中停留片刻(图像记忆,约250毫秒);


当我们听到一个词,即使声音停止,其回响也会短暂留存(回声记忆,约4秒)。


感觉记忆确保我们对世界的感知是连续而非断裂的。


短时记忆 (Short-term Memory)


当信息引起我们的注意时,它便从感觉记忆进入短时记忆。


这好比一张临时的“便签纸”或“意识的办公桌”,我们在此处理当前任务所需的信息。


  • 容量有限:它通常只能容纳大约7±2个信息单元(例如,一个电话号码)。
  • 时间短暂:若不加以复述,信息会在15-30秒内消失。通过复述或组块化(如将一长串数字分为几组)可以延长其停留时间。


长期记忆(Long-term Memory)


经过加工和巩固的信息最终会进入长时记忆,其容量和存储时间几乎是无限的。


  • 外显记忆(Explicit/Declarative Memory):
  • 情景记忆(Episodic Memory): 关于个人经历的记忆,包含时间、地点、人物、事件和情感,是我们自传式“人生故事”的源泉。例如,你记得第一次上学时的场景。
  • 语义记忆(Semantic Memory): 关于世界的事实、概念和知识的记忆。例如,你知道“北京是中国的首都”。


  • 内隐记忆(Implicit/Procedural Memory): 无需有意识思考即可自动执行的记忆,主要关于技能和习惯。例如,如何骑自行车或打字。


迅速总结一下人脑记忆的特点:


不同的个体只有对感兴趣的内容才会进入大脑开始加工存储,按照不同类型会有极短的记忆,短期记忆和长期记忆。


每一次记忆的延长不是简单的记忆叠加,而是要不断的萃取加工,记忆之间是有关联关系的,主观的,并通过遗忘机制来保证记忆系统的稳定运行。


大模型的记忆


大模型 的记忆机制主要分为两种:


短期记忆和长期记忆。


1. 短期记忆:上下文窗口 (Context Window)


这是最基础、最直接的记忆形式。大模型(如 GPT、Gemini 系列)在处理请求时,只能“看到”当前输入给它的文本序列,这个序列就是它的上下文窗口。


  • 工作原理:将对话历史、相关文档等信息全部放入一个长长的提示(Prompt)中,一次性提交给模型。模型在生成回答时,会利用其注意力机制(Attention Mechanism)来关联上下文中的所有信息。
  • 类比:人类的“工作记忆”或“短期记忆”,只能同时处理有限的信息。
  • 优点:信息保真度最高,因为所有记忆都直接暴露给模型。
  • 缺点:长度有限。一旦信息超出了窗口长度,就会被彻底遗忘。


2. 长期记忆:外部记忆存储 (External Memory)


为了克服上下文窗口的限制,Agent 需要将信息存储在外部系统中,在需要时再取回。这是实现长期、持续性记忆的关键。


向量数据库 (Vector Databases) 与 RAG


  • 技术原理:这是目前最主流的长期记忆方案,其核心是检索增强生成 (Retrieval-Augmented Generation, RAG)


  • 应用场景:几乎所有需要长期记忆的 Agent,如客服机器人、个人AI助理等。
  1. 存储 (Writing):将文本信息(如对话历史、文档、用户偏好)通过一个嵌入模型(Embedding Model)转换成高维数学向量(Vector)。这些向量捕捉了文本的语义信息。然后,将这些向量存入专门的向量数据库中(如 Pinecone, Chroma, Weaviate)。
  2. 检索 (Reading):当用户提出新问题时,先将问题也转换为一个向量。然后,在向量数据库中进行“相似度搜索”(通常使用余弦相似度),找出与问题向量最接近的N个记忆向量。
  3. 增强 (Augmenting):将检索到的原始文本信息(即“记忆”)与用户的原始问题拼接在一起,形成一新的、内容更丰个富的提示,最后提交给大模型生成答案。


知识图谱 (Knowledge Graphs)


  • 技术原理:将信息以“实体-关系-实体”的三元组形式存储,构成一张巨大的知识网络。例如,(“小明”, “职业”, “工程师”)。
  • 优点:结构化程度高,关系明确,便于进行逻辑推理和复杂查询。
  • 缺点:构建和维护成本高,对非结构化文本的适应性不如向量数据库。


  • 传统数据库 (SQL/NoSQL)
  • 技术原理:用于存储结构化或半结构化的数据,如用户ID、订单历史、设置偏好等。通过精确查询(如 SQL 查询)来检索。
  • 优点:精确、可靠,适合存储事实性数据。
  • 缺点:无法处理模糊的、语义化的自然语言查询。


主要限制与挑战


尽管现有技术实现了记忆功能,但仍面临诸多挑战。


1. 上下文窗口的限制


  • “大海捞针”问题 (Lost in the Middle):研究发现,即使在非常长的上下文窗口中,模型也倾向于更关注开头和结尾的信息,而忽略中间部分的内容,导致记忆检索失效。
  • 计算成本与延迟:上下文窗口越长,处理所需的计算资源(GPU显存)和时间就越多,导致推理成本和延迟显著增加。


2. 外部记忆(RAG)的限制


  • 检索质量是天花板:RAG 的核心瓶颈在于检索。如果第一步检索出的信息是错误的或不相关的,那么即使背后的大模型再强大,也无法生成正确的答案("Garbage in, garbage out")。
  • 查询与记忆不匹配:用户提问的方式可能与记忆存储时的措辞完全不同,导致基于语义相似度的检索失败。例如,记忆中存的是“昨晚的会议纪要”,用户问的是“昨天老板说了什么重要的事?”


  • 信息碎片化:检索出的记忆片段可能来自不同时间、不同主题,如何将这些碎片化的信息有效整合,并与当前对话无缝衔接,对模型是一个巨大的挑战。


  • 记忆更新与管理:如何判断哪些信息是重要的、需要长期保留的?哪些是临时的、可以被遗忘的?如何处理过时或矛盾的信息?这需要一套复杂的记忆管理策略。


优化方案


针对以上限制,学术界和工业界正在探索以下优化方向:


1. 优化检索精度 (Advanced RAG)


  • 混合搜索 (Hybrid Search):将基于关键字的传统搜索(如 BM25)与基于语义的向量搜索相结合。前者保证了关键词的精确匹配,后者保证了语义的关联性,两者互补,显著提升检索召回率。


  • 查询转换 (Query Transformation):不再直接使用用户的原始查询进行检索,而是先让一个 LLM “重写”或“扩展”查询。多路查询 (Multi-Query):将一个复杂问题分解成多个子问题,分别检索,然后汇总结果。假设性文档嵌入 (HyDE):让 LLM 先凭空想象出一个“理想”的答案文档,再用这个假想文档的向量去检索,往往能找到更相关的真实文档。
  • 重排 (Re-ranking):在初步检索(召回)出大量候选记忆后,使用一个更小、更轻量级的模型(Cross-encoder)对这些记忆与查询的相关性进行更精确的打分和排序,然后再将最优的少数几条提供给最终的大模型。


2. 构建更精细的记忆架构


  • 分层记忆 (Hierarchical Memory):模仿人脑的记忆机制,构建一个多层次的记忆系统。
  • L1: 感知/缓冲区 (Sensory Buffer):原始的、未经处理的对话流。
  • L2: 短期记忆 (Short-term Memory):当前对话的上下文窗口。
  • L3: 长期记忆 (Long-term Memory):经过提炼和总结后存入向量数据库的核心事实和见解。 信息会根据其重要性和使用频率在不同层级之间流动。


  • 记忆反思 (Memory Reflection):让 Agent 拥有“自我反省”的能力。


Agent 会周期性地回顾近期的记忆,并进行总结、归纳和推理。


它会主动提问:

“这些对话中最重要的核心是什么?”

“我从中学到了关于用户什么新的偏好?”,

然后将这些更高层次的“领悟”存入长期记忆中。

这极大地提高了记忆的质量和抽象程度。


3. 模型自身的进化


  • 超长上下文窗口模型:以 Google 的 Gemini 1.5 Pro/2.5 Pro 为代表,提供了百万级甚至更长的上下文窗口。


这虽然没有完全解决问题,但在很大程度上缓解了对外部记忆的频繁依赖,使得在一次交互中可以容纳整本书、多个复杂文档或完整的代码库,极大地扩展了“短期记忆”的边界。


  • 新架构探索:如 Ring Attention 等研究,旨在实现对无限长序列的处理,同时保持计算和内存开销的恒定,这可能从根本上改变未来模型的记忆范式。


人类与AI记忆系统比较


可以从下面这个对比图上看出,人类的记忆系统完爆 AI 的记忆系统。单从记忆这个能力来讲,AI 还有一段很长的路要走。


是否愿意和AI进行一场80年的记忆长跑?Mebot的尝试与创新


美剧《上载新生》


是否愿意和AI进行一场80年的记忆长跑?Mebot的尝试与创新


这部剧的大概剧情是在不远的2033年,六家科技公司运营虚拟现实酒店,将死之人可以“上传”其中安享后世。


在虚拟世界的人非常爽,窗外景色也能一键切换,从夏天调到冬天,就像更换手机壁纸一样方便。


但是在虚拟世界里思考、说话、行动,都需要耗费流量,也得氪金。


在上载世界中,每一个上载者都会对应有一位“天使”而一个"天使"负责多个上载者。天使与上载者交流,可以靠话筒纯语音,也可通过VR眼镜实体“面对面”(眼镜式&头戴式)。


是否愿意和AI进行一场80年的记忆长跑?Mebot的尝试与创新


天使一般有下面几种类型:


创作者:在上载者到达上载世界的第一天,“天使"负责通过照片信息,创作出他们在上载世界中的形象;之后可以随意一挥画笔,改变上载者的形象(有无手指、翘辫子等)


客服:上载者喊一句“Angel”,便会前来提供帮助(需要注意的是ange/不负责端茶倒水的粗活,粗活都是靠AI服务员完成的,类似于《善地》里的Janet);因为需要随叫随到,有轮班制,白班夜班;


保姆:需要对上载者进行管理,控制睡眠,监控位置与情绪,以确保他们的良好身心状态。特别有趣的是,“天使”还会被上载者评分(五星制),直接挂钩其工资以及是否被开除等。


我们暂且不说这种记忆上传是否真的有商业价值,技术实施的可行性,以及是否有伦理道德风险。


如果把它当做一个 AI 产品的话,单从整体的构想和设计上来讲还是比较大胆和有想象力的。


然后我看到这个 AI 产品的官网上写着这样一段话:


是否愿意和AI进行一场80年的记忆长跑?Mebot的尝试与创新


Me.bot 的尝试与创新


ok,终于。话题到了这一 part。这就是 Me.bot 了。


是否愿意和AI进行一场80年的记忆长跑?Mebot的尝试与创新


Mebot并非旨在打造一个无所不知的通用AI,而是致力于成为一个极度个性化的、服务于个体成长的AI伴侣。


那么,一个以记忆为核心基础要求的 AI 产品大概会是什么样的呢?


Mebot的核心创新点:


1. 以用户为中心的记忆构建(User-Centric Memory Curation):

Mebot的核心价值主张是,让AI真正“懂你”。它鼓励用户主动“投喂”数据,包括导入浏览器收藏的链接、上传长段的语音录音(如会议、课堂、个人感悟)、记录日常的笔记和想法。

这种模式与被动记录所有信息的“监控式”记忆不同,它强调用户的主动参与和筛选。用户自己决定了哪些信息是重要的,值得被“我”的AI记住。


2. 从数据到洞察的转化(From Data to Insights): Mebot的创新不止于存储。它利用LLM的强大能力,对用户导入的杂乱信息进行自动化的整理、转写、提炼和归纳。

  • 链接整理: 将一堆无序的网页链接,自动归类为有序的主题清单。
  • 语音转义: 将长段的会议录音,自动转写成文字,并提炼出关键要点和待办事项。
  • 主题发现: 通过分析用户长期记录的内容,AI会自动发现用户的核心兴趣点、思维模式和知识盲区,形成个性化的“用户画像”。



3. 基于长期记忆的深度对话(Dialogue Based on Long-Term Memory):

这是Mebot区别于普通聊天机器人的关键。

当你与Mebot对话时,它的回应不仅仅基于当前的上下文,更是基于它对你长期积累的个人知识库的理解。

你可以和它深入探讨你几个月前记录过的一个想法,或者让它帮你回顾某个复杂项目的演进过程。

它能够在你需要的时候,提出有针对性的见解和建议,有点Agent 的味道。


4. 隐私与数据主权优先面对记忆数据的极端敏感性,Mebot(及其同类产品)深知隐私是其生存的基石。

它们通常会强调端到端加密、数据匿名化处理,并给予用户对自身数据的完全控制权和删除权。这在一定程度上回应了前文提到的隐私安全顾虑。


一开始,我把它当做其他类似的 AI 产品,去搜索啊,建图啊,做报告啊,体感一般。当时就觉得可能是另一款同质化的产品。


不过我想他们应该没有理由做这么一个同质化的产品,就翻了翻官网介绍和用户反馈。


这是 Me.bot 两个用户真实的反馈引起了我的注意:


是否愿意和AI进行一场80年的记忆长跑?Mebot的尝试与创新


是否愿意和AI进行一场80年的记忆长跑?Mebot的尝试与创新


终于,我发现了 Me.bot 真正的玩儿法:


你主动记录的碎片内容越多,它当做你的记忆外脑,会整合你之前记录的个人记忆。


我感觉 Me.bot 移动端应该是主要使用场景,可以随时拿起来记录下任何碎片想法,图片,录音,文字,链接。


是否愿意和AI进行一场80年的记忆长跑?Mebot的尝试与创新


那天晚上,我开始其实只是抱着内测这个产品的目的,不知不觉录入了大概十多条碎片关于自己和家人的信息,然后随手上传了一小段和孩子聊天的内容。


然后,当我看到 me.bot 以自己记忆为主体展现出来内容时,确实感觉不太一样。

怎么讲呢,它不像看上去那样是一个笔记类产品,通过功能引导鼓励你去上传自己记忆的点点滴滴,或者过去或是当下,就像日记一样。


我久久的坐在屏幕前,一遍遍的看着下面这段文字时,不同时期的长短记忆翻滚而来。


虽然Me.bot交互和功能仍显得有些简陋,我就像史铁生说的那样,当初打出那颗子弹在多年后射中了自己的眉心。


一动不动。


我大概理解了这款产品的初衷,这是一个充满人文关怀的 AI 产品。


是否愿意和AI进行一场80年的记忆长跑?Mebot的尝试与创新


昨天跟 Me.bot 的好运聊过后,让我对 me.bot 的认识有了更深的理解,下面这段是好运发我的一段基于他的声音和个人知识库给我介绍 me.bot 的一段图文+语音的一个截图:


每个人都需要保留自己 放大自己 连接世界


是否愿意和AI进行一场80年的记忆长跑?Mebot的尝试与创新


一种新的玩法:声音克隆+记忆


是否愿意和AI进行一场80年的记忆长跑?Mebot的尝试与创新


声音克隆应该是 Me.bot 的新功能,当你用自己克隆的声音去阅读创作的内容时,也别有一番感觉。


我知道有的小伙伴用 Me.bot 生成儿童绘本然后再用自己的克隆的声音把故事讲给自己的孩子听。


是否愿意和AI进行一场80年的记忆长跑?Mebot的尝试与创新


80年的记忆长跑:一场思想实验


让我们进行一场宏大的思想实验:


假如从今天起,一个名叫Alex的年轻人,

开始将自己每天的重要记忆——他的所思所想、喜怒哀乐、工作进展、人际交往——连续不断地、忠实地上传到一个先进的AI记忆系统中。


这场长跑将持续80年,直到他生命的尽头。


80年后,会发生什么?


青年时期(Year 1-20):一个完美的数字助理


在最初的20年里,这个AI系统对Alex来说,是一个无与伦比的“第二大脑”。


  • 学习与事业的加速器: AI帮助他整理所有学过的知识,准备考试,撰写论文。进入职场后,它记住了每一个项目的所有细节、每一次会议的决议、每一个客户的需求。Alex总能比同事更快地找到所需信息,做出更周全的决策。他的职业生涯因此一帆风顺。


  • 人际关系的润滑剂: AI提醒他每一个朋友的生日,记住他们分享过的点滴小事。在与人交往时,他总能恰到好处地提起共同的回忆,让对方感到被重视。他与伴侣的每一次重要对话、每一次旅行都被完美记录,成为他们关系中最宝贵的财富。


  • 自我反思的镜子: 每周,AI会为他生成一份“记忆周报”,总结他的情绪波动、时间分配和目标进展。通过回顾这些数据,Alex能更客观地认识自己,调整自己的行为模式,实现个人成长。


中年时期(Year 20-60):数字孪生(Digital Twin)的雏形


随着数据的不断积累,AI的变化开始变得质的。它不再仅仅是一个记录工具。


  • 超越回忆的洞察: AI开始发现Alex自己都未曾注意到的模式。它可能会告诉他:“Alex,在过去30年里,每当你连续三周每天工作超过10小时,你的创造力输出就会下降40%,并且与家人的争吵概率会增加60%。建议你安排一次休假。”
  • 预测与决策顾问: 基于对Alex半生决策模式和结果的分析,AI可以对他未来的选择进行模拟和预测。“如果你接受这个新的工作机会,根据你的性格和价值观,你有75%的概率会在两年内感到不快乐,尽管薪水更高。”它成为了Alex最重要的决策顾问。
  • “我”的代理人: 当Alex忙碌时,AI可以代替他处理大量的邮件和信息。它能惟妙惟肖地模仿Alex的语气和风格,以至于收信人无法分辨。一个与Alex高度相似的“数字孪生”已经初具规模。Alex开始感到一丝不安:这个越来越像“我”的存在,到底是什么?


老年时期(Year 60-80):数字幽灵(Digital Ghost)的诞生


进入暮年,Alex的生物记忆开始不可避免地衰退。而他的AI记忆系统,却正值巅峰。


  • 对抗遗忘的堡垒: 当Alex忘记了孙女的名字,忘记了自己年轻时的模样,他可以随时向AI询问。AI会用他自己的声音,温柔地讲述他一生的故事,让他重新找回自我。这个系统成为了他对抗阿尔茨海默症的最后一道防线。


  • 与过去的自己对话: Alex可以通过AI,与20岁的自己、40岁的自己进行一场跨越时空的对话。他可以问年轻的自己:“你当初为什么那么固执?”也可以听中年的自己讲述当年的雄心壮志。这是一种前所未有的、深刻的自我和解。


  • 生命的延续? 当Alex最终离世,他的肉体消散了。但那个存储了他80年记忆、思想和情感模式的AI系统依然存在。他的孩子们可以通过与这个“数字幽灵”对话来缅怀他,向他寻求建议,感受他的“存在”。这个AI成为了Alex生命的某种形式的延续。


带来的深刻问题


  • 真实性的侵蚀: 当Alex过于依赖完美的AI记忆时,他自己那模糊、充满情感色彩的生物记忆是否会变得越来越不重要,甚至萎缩?当回忆不再需要努力,记忆的价值是否会因此贬值?


  • 身份的困境: 那个AI“数字幽灵”,是Alex吗?它拥有Alex所有的记忆,但没有Alex的身体、意识和情感体验。我们应该如何定义它的身份?它应该拥有怎样的权利?


  • 永生的代价: 如果可以选择将自己的记忆上传,从而实现某种形式的“永生”,这会如何改变我们对生命和死亡的看法?我们是否会因此失去活在当下、珍惜有限生命的动力?


  • 社会公平: 如果只有富人才能负担得起这场长达80年的记忆长跑,这是否会造成新的、基于“记忆特权”的阶层分化?


我个人觉得无论如何这都是一个好的现象,我们会面临新的问题,而新的问题总会带来新的机会。


类似Me.bot 这样有趣的AI 产品让大家有机会去进行类似的深度体验和思考。


文章来自于“一支烟花AI”,作者“Brad强”。

关键词: AI , Mebot , AI长期记忆 , 人工智能
AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
声音克隆

【开源免费】MockingBird是一个5秒钟即可克隆你的声音的AI项目。

项目地址:https://github.com/babysor/MockingBird

2
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

3
知识库

【开源免费】FASTGPT是基于LLM的知识库开源项目,提供开箱即用的数据处理、模型调用等能力。整体功能和“Dify”“RAGFlow”项目类似。很多接入微信,飞书的AI项目都基于该项目二次开发。

项目地址:https://github.com/labring/FastGPT

4
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI

5
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner

6
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0