一觉醒来,中国的开源模型再次震撼了全世界。
坐等许久,Qwen2-72B终于发布了!这个模型一出世,直接杀进开源LLM排行榜第一,完全碾压美国最强的Llama3-70B。
有趣的是,第二名也是来自阿里的Qwen1.5-110B
在各大基准测试中,Qwen2-72B一举斩获了十几项世界冠军,尤其在代码和数学能力上提升最为明显。
同时,相较于上一代Qwen1.5,Qwen2也实现了大幅的性能提升。
另外,开源Qwen2-72B还击败了国内一众闭源大模型,包括文心4.0、豆包Pro、混元Pro等等。
72B指令微调版模型,还增大了上下文长度支持,最高可达128k token。在16个基准测试中,Qwen2-72B-Instruct的性能可与Llama-3-70B-Instruct相匹敌。
得益于高质量的数据,Qwen2-72B-Instruct在数学、代码能力上实现飞升。
值得一提的是,模型训练过程中,除了采用中英文数据,还增加了27种语言相关的高质量数据。
现在,所有人均可在魔搭社区和Hugging Face免费下载Qwen2最新开源模型。
凭借取得的卓越性能,Qwen2-72B深受AI大佬们关注,在整个AI圈掀起了轩然大波。
模型刚发布2小时,HugingFace联创Clément Delangue立即宣布,「HF大模型榜上诞生了一个全新的、排名第一的开源模型——Qwen2-72B」。
AI初创CEO称,「一切都结束了!OSS迎来了一位新王者——Qwen-2的MMLU为84.32,完全堪称GPT-4o/Turbo级别模型」!
4个月不到的时间,Qwen-2-72B的生成质量已经和GPT-4不分伯仲。
网友震惊发现,在编码上Qwen2绝对超越了Llama 3!
加冕为王的Qwen2-72B究竟有多强,接下来让我们一起来看看。
开源新王Qwen2-72B发布!
差不多4个月时间,阿里团队就完成从Qwen1.5到Qwen2跨越式的迭代升级。
除了Qwen2-72B,Qwen2系列包含了5种不同参数规模的预训练和指令微调模型。
其中还有,Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B,都可支持32K上下文。
相比2月推出的通义千问Qwen1.5,Qwen2实现了整体性能的代际飞跃。
在权威模型测评榜单OpenCompass中,此前开源的Qwen1.5-110B已领先于文心4.0等一众国产闭源模型。
刚刚开源的Qwen2-72B,整体性能相比Qwen1.5-110B又取得了大幅提升。
开篇一张表,很明显地可以看出Qwen2-72B在数学(GSM8K、MATH),以及代码(C-Eval)、逻辑推理(CMMLU)、多语言能力上(MMLU),取得了明显的提升。
其性能大幅超越了著名的开源模型Llama3-70B、Mixtral-8x22B。尤其是在代码、逻辑推理上,领先对手20+分。
指令微调版的Qwen2-72B-Instruct,汲取了CodeQwen1.5强大的代码经验,并将其融入研发。
结果如下,在8种编程语言上,尤其是JS、C++,Qwen2-72B-Instruct性能超越Llama-3-70B-Instruct。
在数学上,Qwen2-72B-Instruct同时实现了数学能力显著提升,在如下四个基准测试中,性能分别超越了Llama-3-70B-Instruct。
另外,小模型方面,Qwen2系列基本能够超越同等规模的最优开源模型,甚至更大参数规模的模型。
比起Llama3-8B-Instruct,Qwen2-7B-Instruct能在多个评测上取得显著的优势,尤其是代码及中文理解上。
Qwen2系列中,所有的Instruct模型均在32k上下文中,进行了训练。
在大海捞针实验中,Qwen2-72B-Instruct能够完美处理128k上下文长度内的信息抽取任务,实现了全绿的成绩。
如果有足够的算力,72B指令微调版凭借其强大的性能,一定可以成为处理长文本任务的首选。
更值得一提的是,为了提升模型多语言能力,研究人员还针对性地对除中英文以外的27种语言进行了增强:
比如阿拉伯语、法语、荷兰语等等。
在阿拉伯语榜单上,Qwen2-72B性能直接刷榜。
当然,模型安全也是训俩过程中,至关重要的一部分。
如下,展示了大模型在四种多语言不安全查询类别(非法活动、欺诈、色情、隐私暴力)中生成有害响应的比例。
通过显著性检验(P值),看得出Qwen2-72B-Instruct模型在安全性方面,与GPT-4的表现相当,并且显著优于Mistral-8x22B模型。
坚持开源,唯一引起Altman注意的国产大模型
依靠着强大研发能力、领先的基础设施能力,以及开源社区的充分支持,通义千问大模型一直在持续优化和进步。
2023年8月,这个消息振奋了国内AI圈:阿里云成为国内首个宣布开源自研模型的科技企业,推出第一代开源模型Qwen。
而在随后不到一年时间,通义先后开源了数十款不同尺寸模型,包括大语言模型、多模态模型、混合专家模型、代码大模型等等。
这种开源频率和速度,可以说是全球无二,模型性能也在随着版本迭代肉眼可见地进化。
而自Qwen-72B诞生后,Qwen系列更是逐渐步入全球大模型竞争的核心腹地,在权威榜单上,多次创造中国大模型的「首次」!
不久前,奥特曼在X上转发了一条OpenAI研究员公布的消息,GPT-4o在测试阶段登上了Chatbot Arena(LMSys Arena)榜首位置。
这个榜单,是OpenAI唯一认可证明其地位的榜单,而Qwen,正是其中唯一上榜的国内模型。
另外,早些时候有人做了个LMSys榜单一年动态变化的视频。
结果显示,过去一年内,国产大模型只有Qwen多次冲进这份榜单。
最早出现的,是通义千问14B开源视频Qwen-14B,然后就是Qwen系列的72B、110B以及通义千问闭源模型Qwen-Max。
而且,它们的得分一个比一次高,LMSys也曾官方发推,认证通义千问开源模型的实力。
可以看出,在顶尖模型公司的竞争中,目前为止,中国模型只有通义千问真正入局,能与头部厂商一较高下。
爆火全球AI社区,歪果仁:真香
如今,Qwen系列模型已经在全球范围内爆火,成为最受外国开发者瞩目的中国开源模型之一。
在不到一年时间,通义千问密集推出了Qwen、Qwen1.5、Qwen2三代模型,直接实现了全尺寸、全模态的开源。
就在最近一个月内,Qwen系列的总下载量已经翻了倍,直接突破1600万次。
与此同时,在海内外开源社区,基于Qwen二次开发的模型和应用,已经出现超过1500款!
其实,早在今年2月Qwen1.5发布前后,就有大量开发者在线催更Qwen2。
开发者用脚投票的结果,直接显示了Qwen系列有多受欢迎。
在网上冲浪的时候,会明显发现Qwen的很多忠实拥趸都是海外开发者,他们时常在社交平台发表「我们为什么没有这种模型」的溢美之词。
19岁获得博士的Stability AI研究主任Tanishq表示,以Qwen为代表的最有竞争力、为开源生态做出重大贡献的开源基础模型,就是来自中国。
6月7日晚24点左右,众望所归的Qwen2上线后,也迅速获得多个重要的开源生态伙伴的支持。
其中包括,TensorRT-LLM、OpenVINO、OpenCompass、XTuner、LLaMA-Factory、Firefly、OpenBuddy、vLLM、Ollama等。
可以说,通义大模型用行动证明了开源开放的力量。
阿里云是全球唯一一家积极研发先进AI 模型,并且全方位开源的云计算厂商。
坚持自研与开源,也让阿里云的商业模型更具前景。
在未来的大模型市场,不可能是一个模型能适应所有需求,也不可能只有一种模型服务方式(API)。
开源模型把选择权交给了企业和开发者,让能用户在场景、性能、成本之间,找到理想的配比。
其实,从自身主观来说,这也正是云厂商的本质使然。
云计算算力集中、灵活部署、按需付费、成本较低的特点,天然就适配大规模的推理需求。
在5月,阿里云发起「击穿全球底价」的大模型API降价,目的正是加速AI应用爆发。
如今,坚持做「国货」的阿里云,也在坚持着开放路线。
卷价格,抑或是卷模型本身,都是在为激活AI行业生态贡献力量,加速应用爆发,从而形成有国际竞争力的技术体系和话语体系。
如今,AI大模型已成全球数字技术体系的竞争,这个体系包括芯片、云计算、闭源模型、开源模型、开源生态等等。
中国信息化百人会执委、阿里云副总裁安筱鹏指出,全球AI大模型竞争的制高点,就是AI基础大模型,因为它决定了产业智能化的天花板,商业闭环的可能性,应用生态的繁荣以及产业竞争的格局。
与此同时,开源生态在整个技术体系的竞争中也有着至关重要的作用。
优质的开源模型,让海量的中小企业和开发者免于从头开始训练大模型,直接站在前沿技术成果的肩膀上做创新。就好比从海拔0米的地方把人运送到5000米的珠峰大本营,再去爬剩下的3000米。
阿里云持续开源自研模型,牵头建设中国最大的AI开源社区魔搭,正是为了推动AI应用门槛的降低。
如今,大模型应用创新的奇点还没有到来。
当大模型的大部分潜力被真正挖掘出来,当越来越多开发者和企业结合自己需求,促进大模型的发展和应用,届时必将发生天翻地覆的变化。
文章来源于“新智元”,作者“新智元”
【免费】ffa.chat是一个完全免费的GPT-4o镜像站点,无需魔法付费,即可无限制使用GPT-4o等多个海外模型产品。
在线使用:https://ffa.chat/
【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。
项目地址:https://github.com/InternLM/xtuner