今天,Moonshot AI 带着首个支持输入 20 万汉字的智能助手产品Kimi Chat 与大家见面了。
据我们所知,这是目前全球市场上能够产品化使用的大模型服务中所能支持的最长上下文输入长度,标志着 Moonshot AI 在“长文本”这一重要技术上取得了世界领先水平。
为什么说大模型的“长文本”能力很重要?
因为从技术视角看,参数量决定了大模型支持多复杂的“计算”,而能够接收多少文本输入(即长文本技术)则决定了大模型有多大的“内存”,两者共同决定模型的应用效果。支持更长的上下文意味着大模型拥有更大的“内存”,从而使得大模型的应用更加深入和广泛:比如通过多篇财报进行市场分析、处理超长的法务合同、快速梳理多篇文章或多个网页的关键信息、基于长篇小说设定进行角色扮演等等,都可以在超长文本技术的加持下,成为我们工作和生活的一部分。
相比当前市面上以英文为基础训练的大模型服务,Kimi Chat 具备较强的多语言能力。例如,Kimi Chat在中文上具备显著优势,实际使用效果能够支持约 20 万汉字的上下文,2.5 倍于 Anthropic 公司的 Claude-100k(实测约8万字),8 倍于 OpenAI 公司的 GPT-4-32k(实测约2.5万字)。
同时,Kimi Chat 通过创新的网络结构和工程优化,在千亿参数下实现了无损的长程注意力机制,不依赖于滑动窗口、降采样、小模型等对性能损害较大的“捷径”方案。
目前,Kimi Chat 已开放内测。
访问 https://www.moonshot.cn 或扫描下方二维码,即可加入内测计划。
在我们看来,当前大模型输入长度普遍较低的现状对其技术落地产生了极大制约。例如:
而上述所有的问题在大模型拥有足够长的上下文输入后都将会迎刃而解。
那么拥有超长上下文输入后的大模型会有怎样的表现?下面一起来看一些 Kimi Chat 实际使用的例子:
公众号的长文直接交给 Kimi Chat ,让它帮你快速总结分析:
新鲜出炉的英伟达财报,交给 Kimi Chat,快速完成关键信息分析:
出差发票太多?全部拖进 Kimi Chat,快速整理成需要的信息:
发现了新的算法论文时,Kimi Chat 能够直接帮你根据论文复现代码:
只需要一个网址,就可以在 Kimi Chat 中和自己喜欢的原神角色聊天:
输入整本《月亮与六便士》,让 Kimi Chat 和你一起阅读,帮助你更好的理解和运用书本中的知识:
通过上述例子,我们可以看到,当模型可以处理的上下文变得更长后,大模型的能力能够覆盖到更多使用场景,真正在人们的工作、生活、学习中发挥作用,而且由于可以直接基于全文理解进行问答和信息处理,大模型生成的“幻觉”问题也可以得到很大程度的解决。
其实长文本技术的开发,存在一些对效果损害很大的“捷径”,主要包含以下几个方面:
我们相信,走这些捷径无法达到理想的产品化效果。为了真正做出可用、好用的产品,就应该直面挑战。
具体来看。训练层面,想训练得到一个支持足够长上下文能力的模型,不可避免地要面对如下困难:
推理层面,在获得了支持超长上下文的模型后,如何让模型能服务众多用户,同样要面临艰巨挑战:
在过去半年多的时间里,Moonshot AI 的技术团队进行了极致的算法和工程优化,克服上述重重困难,终于完成了大内存模型的产品化,带来了首个支持20万字输入的千亿参数LLM产品。
关于 Moonshot AI
Moonshot AI 创立于 2023 年 3 月,致力于寻求将能源转化为智能的最优解,通过产品与用户共创智能。创始团队核心成员参与了 Google Gemini、Google Bard、盘古NLP、悟道等多个大模型的研发,多项核心技术被Google PaLM、Meta LLaMa、Stable Diffusion等主流产品采用。Moonshot AI 融资超2亿美元。
文章来自微信公众号 “Moonshot AI”,作者 Moonshot AI
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md
【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。
项目地址:https://github.com/microsoft/graphrag
【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。
项目地址:https://github.com/langgenius/dify
【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。
项目地址:https://github.com/infiniflow/ragflow/tree/main
【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目
项目地址:https://github.com/phidatahq/phidata
【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。
项目地址:https://github.com/TaskingAI/TaskingAI
【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。
项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md
在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0