AI资讯新闻榜单内容搜索-Moe

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Moe
Step-3 发布:包括发布会上没说的,都在这了

Step-3 发布:包括发布会上没说的,都在这了

Step-3 发布:包括发布会上没说的,都在这了

今天下午,阶跃星辰在 WAIC 2025 开幕前夕发布新一代基础大模型 Step 3,并宣布将在 7 月 31 日面向全球企业和开发者开源。MoE 架构,321B 总参,38B 激活

来自主题: AI资讯
7506 点击    2025-07-25 23:25
Kimi K2模型API性能优化进行时:月之暗面积极应对高负载挑战

Kimi K2模型API性能优化进行时:月之暗面积极应对高负载挑战

Kimi K2模型API性能优化进行时:月之暗面积极应对高负载挑战

近日,月之暗面(Moonshot AI)正式发布了其万亿参数开源大模型Kimi K2,这一具有里程碑意义的AI模型凭借其创新的MoE架构和强大的Agentic能力迅速获得全球开发者关注。然而,随着用户量激增,部分开发者开始反映其API服务响应速度不尽如人意。面对这一情况,月之暗面于7月15日迅速作出官方回应,坦诚当前服务延迟问题,并详细说明了优化方案。

来自主题: AI资讯
6904 点击    2025-07-21 12:18
AI圈水太深:OpenAI保密、Meta作弊!国产MoE却异军突起

AI圈水太深:OpenAI保密、Meta作弊!国产MoE却异军突起

AI圈水太深:OpenAI保密、Meta作弊!国产MoE却异军突起

从GPT-2到Llama 4,大模型这几年到底「胖」了多少?从百亿级密集参数到稀疏MoE架构,从闭源霸权到开源反击,Meta、OpenAI、Mistral、DeepSeek……群雄割据,谁能称王?

来自主题: AI技术研报
6235 点击    2025-07-16 16:18
独家:Kimi悄悄发布了全球首个参数量达到1万亿的K2模型

独家:Kimi悄悄发布了全球首个参数量达到1万亿的K2模型

独家:Kimi悄悄发布了全球首个参数量达到1万亿的K2模型

结果点进去一看,我人直接傻了——这家伙用的竟然是 kimi-k2-0711-preview 模型!这个K2模型的简直离谱到家了: 业界第一个说自己是1万亿参数的模型,这规模直接吓人 MoE架构 + 32B激活参数

来自主题: AI资讯
7787 点击    2025-07-11 18:38
用MoE打造DNA基础模型更强范式!人大实现seq2func全新突破

用MoE打造DNA基础模型更强范式!人大实现seq2func全新突破

用MoE打造DNA基础模型更强范式!人大实现seq2func全新突破

中国人民大学高瓴人工智能学院的研究团队提出通过创新模型架构来提升性能,其SPACE模型引入新架构,提升了DNA基础模型的性能与泛化能力,在多项测试中表现优异。

来自主题: AI资讯
8175 点击    2025-07-11 16:59
华为盘古大模型“抄袭”阿里Qwen?官方回应

华为盘古大模型“抄袭”阿里Qwen?官方回应

华为盘古大模型“抄袭”阿里Qwen?官方回应

7月5日下午16:59分,隶属于华为的负责开发盘古大模型的诺亚方舟实验室发布声明对于“抄袭”指控进行了官方回应。诺亚方舟实验室表示,盘古Pro MoE开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来,在架构设计、技术特性等方面做了关键创新,是全球首个面向昇腾硬件平台设计的同规格混合专家模型

来自主题: AI资讯
8541 点击    2025-07-06 11:06
vivo突破手机AI部署难题,绕开MoE架构限制,骁龙8 Elite流畅运行|ICCV 2025

vivo突破手机AI部署难题,绕开MoE架构限制,骁龙8 Elite流畅运行|ICCV 2025

vivo突破手机AI部署难题,绕开MoE架构限制,骁龙8 Elite流畅运行|ICCV 2025

vivo AI研究院联合港中文以及上交团队为了攻克这些难题,从训练数据和模型结构两方面,系统性地分析了如何在MLLM训练中维持纯语言能力,并基于此提出了GenieBlue——专为移动端手机NPU设计的高效MLLM结构方案。

来自主题: AI技术研报
5897 点击    2025-07-05 13:12
MoE那么大,几段代码就能稳稳推理 | 开源

MoE那么大,几段代码就能稳稳推理 | 开源

MoE那么大,几段代码就能稳稳推理 | 开源

混合专家网络模型架构(MoE)已经成为当前大模型的一个主流架构选择,以最近开源的盘古Pro MoE为例

来自主题: AI资讯
8190 点击    2025-07-03 10:58
华为又开源了个大的:超大规模MoE推理秘籍

华为又开源了个大的:超大规模MoE推理秘籍

华为又开源了个大的:超大规模MoE推理秘籍

超大规模MoE模型(如DeepSeek),到底该怎么推理才能做到又快又稳。现在,这个问题似乎已经有了标准答案——华为一个新项目,直接把推理超大规模MoE背后的架构、技术和代码,统统给开源了!

来自主题: AI资讯
5507 点击    2025-07-01 16:05
刚刚!华为首个开源大模型来了

刚刚!华为首个开源大模型来了

刚刚!华为首个开源大模型来了

刚刚,华为正式宣布开源盘古 70 亿参数的稠密模型、盘古 Pro MoE 720 亿参数的混合专家模型(参见机器之心报道:华为盘古首次露出,昇腾原生72B MoE架构,SuperCLUE千亿内模型并列国内第一 )和基于昇腾的模型推理技术。

来自主题: AI资讯
8152 点击    2025-06-30 09:19