AI资讯新闻榜单内容搜索-混合专家模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 混合专家模型
华为:让DeepSeek的“专家们”动起来,推理延迟降10%!

华为:让DeepSeek的“专家们”动起来,推理延迟降10%!

华为:让DeepSeek的“专家们”动起来,推理延迟降10%!

要问最近哪个模型最火,混合专家模型(MoE,Mixture of Experts)绝对是榜上提名的那一个。

来自主题: AI技术研报
7995 点击    2025-05-20 15:16
一文详解:DeepSeek 第三天开源的 DeepGEMM

一文详解:DeepSeek 第三天开源的 DeepGEMM

一文详解:DeepSeek 第三天开源的 DeepGEMM

DeepSeek 开源周的第三天,带来了专为 Hopper 架构 GPU 优化的矩阵乘法库 — DeepGEMM。这一库支持标准矩阵计算和混合专家模型(MoE)计算,为 DeepSeek-V3/R1 的训练和推理提供强大支持,在 Hopper GPU 上达到 1350+FP8 TFLOPS 的高性能。

来自主题: AI技术研报
5869 点击    2025-02-26 10:46
一文详解:DeepSeek 第二天开源的 DeepEP

一文详解:DeepSeek 第二天开源的 DeepEP

一文详解:DeepSeek 第二天开源的 DeepEP

DeepSeek 本周正在连续 5 天发布开源项目,今天是第 2 天,带来了专为混合专家模型(MoE)和专家并行(EP)打造的高效通信库 — DeepEP。就在半小时前,官方对此进行了发布,以下是由赛博禅心带来的详解。

来自主题: AI技术研报
7452 点击    2025-02-25 11:18
阿里云通义大模型新技术:MoE模型训练专家平衡的关键细节

阿里云通义大模型新技术:MoE模型训练专家平衡的关键细节

阿里云通义大模型新技术:MoE模型训练专家平衡的关键细节

本周,在阿里云通义千问 Qwen 团队提交的一篇论文中,研究人员发现了目前最热门的 MoE(混合专家模型)训练中存在的一个普遍关键问题,并提出一种全新的方法——通过轻量的通信将局部均衡放松为全局均衡,使得 MoE 模型的性能和专家特异性都得到了显著的提升。

来自主题: AI技术研报
2841 点击    2025-01-26 11:12
腾讯开源“最大”大模型:如果你也相信MoE,那咱们就是好朋友

腾讯开源“最大”大模型:如果你也相信MoE,那咱们就是好朋友

腾讯开源“最大”大模型:如果你也相信MoE,那咱们就是好朋友

一个是开源,一个是MoE (混合专家模型)。 开源好理解,在大模型火热之后,加入战局的腾讯已经按照它自己的节奏开源了一系列模型,包括混元文生图模型等。

来自主题: AI资讯
3627 点击    2024-11-06 14:49
MoE再下一城!港大提出AnyGraph:首次开启「图大模型」Scaling Law之路

MoE再下一城!港大提出AnyGraph:首次开启「图大模型」Scaling Law之路

MoE再下一城!港大提出AnyGraph:首次开启「图大模型」Scaling Law之路

AnyGraph聚焦于解决图数据的核心难题,跨越多种场景、特征和数据集进行预训练。其采用混合专家模型和特征统一方法处理结构和特征异质性,通过轻量化路由机制和高效设计提升快速适应能力,且在泛化能力上符合Scaling Law。

来自主题: AI技术研报
8140 点击    2024-09-02 16:35
从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

最近 ACL 2024 论文放榜,扫了下,SMoE(稀疏混合专家)的论文不算多,这里就仔细梳理一下,包括动机、方法、有趣的发现,方便大家不看论文也能了解的七七八八,剩下只需要感兴趣再看就好。

来自主题: AI技术研报
9452 点击    2024-08-25 11:48
从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

最近ACL 2024 论文放榜,扫了下,SMoE(稀疏混合专家)的论文不算多,这里就仔细梳理一下,包括动机、方法、有趣的发现,方便大家不看论文也能了解的七七八八,剩下只需要感兴趣再看就好。

来自主题: AI技术研报
2787 点击    2024-08-15 10:17
用MoE横扫99个子任务!浙大等提出全新通用机器人策略GeRM

用MoE横扫99个子任务!浙大等提出全新通用机器人策略GeRM

用MoE横扫99个子任务!浙大等提出全新通用机器人策略GeRM

多任务机器人学习在应对多样化和复杂情景方面具有重要意义。然而,当前的方法受到性能问题和收集训练数据集的困难的限制

来自主题: AI技术研报
5977 点击    2024-04-17 18:16
马斯克为什么一定要开源AI?

马斯克为什么一定要开源AI?

马斯克为什么一定要开源AI?

拒绝赛博朋克,千呼万唤始出来。为了兑现牛逼,马斯克最近下了血本:Grok-1宣布开源。据官方信息,这是一个参数高达3140亿的混合专家模型,是目前所有开源模型中规模最大的。

来自主题: AI资讯
5050 点击    2024-03-25 12:06