Qwen 系列会是众多大学实验室新的默认基础模型吗? 斯坦福团队套壳清华大模型的事件不断发酵后,中国模型在世界上开始得到了更多关注。不少人发现,原来中国已经有不少成熟的大模型正在赶超国外。
Qwen 系列会是众多大学实验室新的默认基础模型吗? 斯坦福团队套壳清华大模型的事件不断发酵后,中国模型在世界上开始得到了更多关注。不少人发现,原来中国已经有不少成熟的大模型正在赶超国外。
今天,国内大模型圈十分热闹,先是阿里云宣布大模型降价,随后国内多家公司跟进、回应,掀起一轮行业的降价潮。
在发布一周年之际,阿里云通义千问大模型在闭源和开源领域都交上了一份满意的答卷。 国内的开发者们或许没有想到,有朝一日,他们开发的 AI 大模型会像出海的网文、短剧一样,让世界各地的网友坐等更新。甚至,来自韩国的网友已经开始反思:为什么我们就没有这样的模型?
在上一篇文章「Unsloth微调Llama3-8B,提速44.35%,节省42.58%显存,最少仅需7.75GB显存」中,我们介绍了Unsloth,这是一个大模型训练加速和显存高效的训练框架,我们已将其整合到Firefly训练框架中,并且对Llama3-8B的训练进行了测试,Unsloth可大幅提升训练速度和减少显存占用。
一款开源模型火不火,看生态中的产品对他的支持有多快就知道了。
阿里的通义千问(Qwen),终于拼齐了1.5系列的最后一块拼图—— 正式开源Qwen 1.5-32B。
大模型不看图,竟也能正确回答视觉问题?!中科大、香港中文大学、上海AI Lab的研究团队团队意外发现了这一离奇现象。他们首先看到像GPT-4V、GeminiPro、Qwen1.5-72B、Yi-VL-34B以及LLaVA-Next-34B等大模型,不管是闭源还是开源,语言模型还是多模态,竟然只根据在多模态基准MMMU测试中的问题和选项文本,就能获得不错的成绩。
“AI驱动”已覆盖AI基础设施、通用大模型、垂直模型及电商、办公等场景化应用。2月7日,阿里巴巴集团发布2024财年第三季度业绩。在“用户为先、AI驱动”的战略执行下,公司核心业务的结构性调整收获初步成效,集团季度收入实现5%的稳定增长。
阿里大模型,再次开源大放送——发布Qwen1.5版本,直接放出六种尺寸。
赶在春节前,通义千问大模型(Qwen)的 1.5 版上线了。今天上午,新版本的消息引发了 AI 社区关注。