AI资讯新闻榜单内容搜索-Qwen3

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Qwen3
刚刚!阿里开源 Qwen3-VL-Embedding 和 Qwen3-VL-Reranker 模型!图片和视频也可以做RAG了~

刚刚!阿里开源 Qwen3-VL-Embedding 和 Qwen3-VL-Reranker 模型!图片和视频也可以做RAG了~

刚刚!阿里开源 Qwen3-VL-Embedding 和 Qwen3-VL-Reranker 模型!图片和视频也可以做RAG了~

今天,Qwen 家族新成员+2,我们正式发布 Qwen3-VL-Embedding 和 Qwen3-VL-Reranker 模型系列,这两个模型基于 Qwen3-VL 构建,专为多模态信息检索与跨模态理解设计,为图文、视频等混合内容的理解与检索提供统一、高效的解决方案。

来自主题: AI资讯
8954 点击    2026-01-08 23:28
7B扩散语言模型单样例1000+ tokens/s!上交大联合华为推出LoPA

7B扩散语言模型单样例1000+ tokens/s!上交大联合华为推出LoPA

7B扩散语言模型单样例1000+ tokens/s!上交大联合华为推出LoPA

,时长 00:20 视频 1:单样例推理速度对比:SGLang 部署的 Qwen3-8B (NVIDIA) vs. LoPA-Dist 部署 (NVIDIA & Ascend)(注:NVIDIA 平台

来自主题: AI技术研报
7745 点击    2026-01-01 10:09
1.8B!腾讯开源新模型,1GB内存手机离线跑,媲美Qwen3-235B

1.8B!腾讯开源新模型,1GB内存手机离线跑,媲美Qwen3-235B

1.8B!腾讯开源新模型,1GB内存手机离线跑,媲美Qwen3-235B

能翻译33语种+5方言,医学术语/粤语翻译实测“能打”。

来自主题: AI技术研报
7467 点击    2025-12-31 10:34
QwenLong-L1.5发布:一套配方,三大法宝,让30B MoE模型长文本推理能力媲美GPT-5

QwenLong-L1.5发布:一套配方,三大法宝,让30B MoE模型长文本推理能力媲美GPT-5

QwenLong-L1.5发布:一套配方,三大法宝,让30B MoE模型长文本推理能力媲美GPT-5

作为大模型从业者或研究员的你,是否也曾为一个模型的 “长文本能力” 而兴奋,却在实际应用中发现它并没有想象中那么智能?

来自主题: AI技术研报
7692 点击    2025-12-29 14:35
807道灵魂拷问后,中国模型竟在「意义测试」中夺冠!

807道灵魂拷问后,中国模型竟在「意义测试」中夺冠!

807道灵魂拷问后,中国模型竟在「意义测试」中夺冠!

AI不仅会做PPT,写代码,它还能理解更深层次的问题。在美国的一项偏重于文化领域的新基准测试中,中国开源模型Qwen3夺冠,DeepSeek的R1跻身前六,力压多家全球顶级的明星模型。

来自主题: AI资讯
5349 点击    2025-12-23 10:06
英伟达开源发布最新AI模型!引入突破性专家混合架构,推理性能超越Qwen3和GPT,百万token上下文,模型数据集全开源!

英伟达开源发布最新AI模型!引入突破性专家混合架构,推理性能超越Qwen3和GPT,百万token上下文,模型数据集全开源!

英伟达开源发布最新AI模型!引入突破性专家混合架构,推理性能超越Qwen3和GPT,百万token上下文,模型数据集全开源!

就在刚刚,英伟达正式开源发布了其新一代AI模型:NVIDIA Nemotron 3。Nemotron 3 系列由三种型号组成:Nano、Super 和 Ultra。官方介绍其具备强大的智能体、推理和对话能力。

来自主题: AI技术研报
8783 点击    2025-12-16 17:21
Thinking Machines首款产品重大更新:K2 Thinking、Qwen3-VL都可以微调了

Thinking Machines首款产品重大更新:K2 Thinking、Qwen3-VL都可以微调了

Thinking Machines首款产品重大更新:K2 Thinking、Qwen3-VL都可以微调了

当前,AI 领域的研究者与开发者在关注 OpenAI、Google 等领先机构最新进展的同时,也将目光投向了由前 OpenAI CTO Mira Murati 创办的 Thinking Machines Lab。

来自主题: AI技术研报
5529 点击    2025-12-16 16:31
Scaling Law的焦虑差距可以由「交互深度」解决,MiroMind用Qwen3-72B在GAIA中超越GPT5

Scaling Law的焦虑差距可以由「交互深度」解决,MiroMind用Qwen3-72B在GAIA中超越GPT5

Scaling Law的焦虑差距可以由「交互深度」解决,MiroMind用Qwen3-72B在GAIA中超越GPT5

在过去五年,AI领域一直被一条“铁律”所支配,Scaling Law(扩展定律)。它如同计算领域的摩尔定律一般,简单、粗暴、却魔力无穷:投入更多的数据、更多的参数、更多的算力,模型的性能就会线性且可预测地增长。无数的团队,无论是开源巨头还是商业实验室,都将希望孤注一掷地押在了这条唯一的救命稻草上。

来自主题: AI技术研报
5761 点击    2025-11-24 10:19