ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
Qwen2.5更新百万超长上下文,推理速度4.3倍加速,网友:RAG要过时了
5015点击    2024-11-20 09:56

国产大模型,最近有点卷。


这不,刚在写代码这事儿上刷新SOTA,Qwen2.5系列又双叒突然更新了——


一口气读三本《三体》不费事,并且45秒左右就能完整总结出这69万token的主要内容,be like:





01:39


还真不是糊弄事儿,“大海捞针”实验显示,这个全新的Qwen2.5-Turbo在100万token上下文中有全绿的表现。


也就是说,这100万上下文里,有细节Qwen2.5-Turbo是真能100%捕捉到。




没错,Qwen2.5系列新成员Qwen2.5-Turbo,这回主打的就是支持超长上下文,并且把性价比卷出了花儿:


  • 上下文长度从128k扩展到1M,相当于100万个英文单词或150万个汉字,也就是10部长篇小说、150小时语音记录、30000行代码的量。




  • 更快的推理速度:基于稀疏注意力机制,处理百万上下文时,首字返回时间从4.9分钟降低到了68秒,实现了4.3倍加速。




  • 关键是还便宜:0.3元/1M tokens。这意味着,在相同成本下,Qwen2.5-Turbo可以处理的token数量是GPT-4o-mini的3.6倍





看到这波更新,不少网友直接爆出了***:





有人直言:这么长的上下文这么快的速度下,RAG已经过时了。




还有人开启大赞特赞模式:现在在开源领域,Qwen比Llama还值得期待了。



上下文能力扩展不影响性能


除了一口气啃下3本长篇小说,Qwen官方还展示了Qwen2.5-Turbo超长上下文的更多实用功能。


比如快速掌握一整个代码库的信息。





01:27


如Demo所演示,上传包含Qwen-Agent仓库中所有代码文件的文本文件(13.3万token),只需几秒钟,大模型就能读完全部代码并准确输出各种细节。


用户:这个存储库中有哪些Agent子类?提供它们的文件路径。

Qwen2.5-Turbo:




一口气读7篇论文,完成论文分类、论文摘要,也不在话下:





01:22


我们也实际测试了一下。可以看到,在没有给任何提示的情况下,Qwen2.5-Turbo能准确掌握不同论文的细节信息,并完成对比分析。




除了大海捞针实验之外,Qwen团队还在更复杂的长文本任务上测试了Qwen2.5-Turbo的能力。


包括:


  • RULER:基于大海捞针的扩展基准,任务包括在无关上下文中查找多“针”或回答多个问题,或找到上下文中出现最多或最少的词。数据的上下文长度最长为128K。

  • LV-Eval:要求同时理解众多证据片段的基准测试。Qwen团队对LV-Eval原始版本中的评估指标进行了调整,避免因为过于严苛的匹配规则所导致的假阴性结果。数据的上下文长度最长为128K。

  • Longbench-Chat:一个评价长文本任务中人类偏好对齐的数据集。数据的上下文长度最长为100K。


结果显示,在RULER基准测试中,Qwen2.5-Turbo取得了93.1分,超过了GPT-4o-mini和GPT-4。


在LV-Eval、LongBench-Chat等更接近真实情况的长文本任务中,Qwen2.5-Turbo在多数维度上超越了GPT-4o-mini,并且能够进一步扩展到超过128 tokens上下文的问题上。


值得一提的是,现有的上下文长度扩展方案经常会导致模型在处理短文本时出现比较明显的性能下降。


Qwen团队也在短文本任务上对Qwen2.5-Turbo进行了测试。



结果显示,Qwen2.5-Turbo在大部分任务上显著超越了其他上下文长度为1M tokens的开源模型。


和GPT-4o-mini以及Qwen2.5-14B-Instruct相比,Qwen2.5-Turbo在短文本任务上的能力并不逊色,但同时能hold住8倍于前两个模型的上下文。


此外,在推理速度方面,利用稀疏注意力机制,Qwen2.5-Turbo将注意力部分的计算量压缩到了原来的2/25,在不同硬件配置下实现了3.2-4.3倍的加速比。



现在,在HuggingFace和魔搭社区,Qwen2.5-Turbo均提供了可以在线体验的Demo。


API服务也已上线阿里云大模型服务平台,跟OpenAI API是兼容的。



至于模型权重什么时候开源?


阿里通义开源负责人林俊旸的说法是:目前还没有开源计划,但正在努力中。




反正HuggingFace联合创始人Thomas Wolf是帮咱催上了(手动狗头)。


Demo传送门:

https://huggingface.co/spaces/Qwen/Qwen2.5-Turbo-1M-Demo

https://www.modelscope.cn/studios/Qwen/Qwen2.5-Turbo-1M-Demo

参考链接:

https://qwenlm.github.io/zh/blog/qwen2.5-turbo/


文章来自微信公众号 “量子位“, 作者 ” 鱼羊 “



AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

2
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI

3
逆向大模型

【开源免费】kimi-free-api是一个提供长文本大模型逆向API的开渔免费技术。它支持高速流式输出、智能体对话、联网搜索、长文档解读、图像OCR、多轮对话,零配置部署,多路token支持,自动清理会话痕迹等原大模型支持的相关功能。

项目地址:https://github.com/LLM-Red-Team/kimi-free-api?tab=readme-ov-file

4
免费使用GPT-4o

【免费】ffa.chat是一个完全免费的GPT-4o镜像站点,无需魔法付费,即可无限制使用GPT-4o等多个海外模型产品。

在线使用:https://ffa.chat/