国产大模型,最近有点卷。
这不,刚在写代码这事儿上刷新SOTA,Qwen2.5系列又双叒突然更新了——
一口气读三本《三体》不费事,并且45秒左右就能完整总结出这69万token的主要内容,be like:
01:39
还真不是糊弄事儿,“大海捞针”实验显示,这个全新的Qwen2.5-Turbo在100万token上下文中有全绿的表现。
也就是说,这100万上下文里,有细节Qwen2.5-Turbo是真能100%捕捉到。
没错,Qwen2.5系列新成员Qwen2.5-Turbo,这回主打的就是支持超长上下文,并且把性价比卷出了花儿:
看到这波更新,不少网友直接爆出了***:
有人直言:这么长的上下文这么快的速度下,RAG已经过时了。
还有人开启大赞特赞模式:现在在开源领域,Qwen比Llama还值得期待了。
除了一口气啃下3本长篇小说,Qwen官方还展示了Qwen2.5-Turbo超长上下文的更多实用功能。
比如快速掌握一整个代码库的信息。
01:27
如Demo所演示,上传包含Qwen-Agent仓库中所有代码文件的文本文件(13.3万token),只需几秒钟,大模型就能读完全部代码并准确输出各种细节。
用户:这个存储库中有哪些Agent子类?提供它们的文件路径。
Qwen2.5-Turbo:
一口气读7篇论文,完成论文分类、论文摘要,也不在话下:
01:22
我们也实际测试了一下。可以看到,在没有给任何提示的情况下,Qwen2.5-Turbo能准确掌握不同论文的细节信息,并完成对比分析。
除了大海捞针实验之外,Qwen团队还在更复杂的长文本任务上测试了Qwen2.5-Turbo的能力。
包括:
结果显示,在RULER基准测试中,Qwen2.5-Turbo取得了93.1分,超过了GPT-4o-mini和GPT-4。
在LV-Eval、LongBench-Chat等更接近真实情况的长文本任务中,Qwen2.5-Turbo在多数维度上超越了GPT-4o-mini,并且能够进一步扩展到超过128 tokens上下文的问题上。
值得一提的是,现有的上下文长度扩展方案经常会导致模型在处理短文本时出现比较明显的性能下降。
Qwen团队也在短文本任务上对Qwen2.5-Turbo进行了测试。
结果显示,Qwen2.5-Turbo在大部分任务上显著超越了其他上下文长度为1M tokens的开源模型。
和GPT-4o-mini以及Qwen2.5-14B-Instruct相比,Qwen2.5-Turbo在短文本任务上的能力并不逊色,但同时能hold住8倍于前两个模型的上下文。
此外,在推理速度方面,利用稀疏注意力机制,Qwen2.5-Turbo将注意力部分的计算量压缩到了原来的2/25,在不同硬件配置下实现了3.2-4.3倍的加速比。
现在,在HuggingFace和魔搭社区,Qwen2.5-Turbo均提供了可以在线体验的Demo。
API服务也已上线阿里云大模型服务平台,跟OpenAI API是兼容的。
至于模型权重什么时候开源?
阿里通义开源负责人林俊旸的说法是:目前还没有开源计划,但正在努力中。
反正HuggingFace联合创始人Thomas Wolf是帮咱催上了(手动狗头)。
Demo传送门:
https://huggingface.co/spaces/Qwen/Qwen2.5-Turbo-1M-Demo
https://www.modelscope.cn/studios/Qwen/Qwen2.5-Turbo-1M-Demo
参考链接:
https://qwenlm.github.io/zh/blog/qwen2.5-turbo/
文章来自微信公众号 “量子位“, 作者 ” 鱼羊 “
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md
【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。
项目地址:https://github.com/microsoft/graphrag
【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。
项目地址:https://github.com/langgenius/dify
【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。
项目地址:https://github.com/infiniflow/ragflow/tree/main
【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目
项目地址:https://github.com/phidatahq/phidata
【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。
项目地址:https://github.com/TaskingAI/TaskingAI
【开源免费】kimi-free-api是一个提供长文本大模型逆向API的开渔免费技术。它支持高速流式输出、智能体对话、联网搜索、长文档解读、图像OCR、多轮对话,零配置部署,多路token支持,自动清理会话痕迹等原大模型支持的相关功能。
项目地址:https://github.com/LLM-Red-Team/kimi-free-api?tab=readme-ov-file
【免费】ffa.chat是一个完全免费的GPT-4o镜像站点,无需魔法付费,即可无限制使用GPT-4o等多个海外模型产品。
在线使用:https://ffa.chat/