AI资讯新闻榜单内容搜索-Mixture-of

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Mixture-of
Transformer终结者!谷歌DeepMind全新MoR架构问世,新一代魔王来了

Transformer终结者!谷歌DeepMind全新MoR架构问世,新一代魔王来了

Transformer终结者!谷歌DeepMind全新MoR架构问世,新一代魔王来了

Transformer杀手来了?KAIST、谷歌DeepMind等机构刚刚发布的MoR架构,推理速度翻倍、内存减半,直接重塑了LLM的性能边界,全面碾压了传统的Transformer。网友们直呼炸裂:又一个改变游戏规则的炸弹来了。

来自主题: AI技术研报
7323 点击    2025-07-17 17:00
RMoA残差提取Mixture-of-Agents,让Agent发现新东西,并自适应停止「ACL2025」

RMoA残差提取Mixture-of-Agents,让Agent发现新东西,并自适应停止「ACL2025」

RMoA残差提取Mixture-of-Agents,让Agent发现新东西,并自适应停止「ACL2025」

如果你正在开发Agent产品,一定听过或用过Mixture-of-Agents(MoA)架构。这个让多个AI模型协作解决复杂问题的框架,理论上能够集众家之长,实际使用中却让人又爱又恨:

来自主题: AI技术研报
4821 点击    2025-06-05 10:47
ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍

ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍

ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍

Mixture-of-Experts(MoE)在推理时仅激活每个 token 所需的一小部分专家,凭借其稀疏激活的特点,已成为当前 LLM 中的主流架构。然而,MoE 虽然显著降低了推理时的计算量,但整体参数规模依然大于同等性能的 Dense 模型,因此在显存资源极为受限的端侧部署场景中,仍然面临较大挑战。

来自主题: AI技术研报
5923 点击    2025-05-07 09:30
上海AI Lab最新推出Mixture-of-Memories:线性注意力也有稀疏记忆了

上海AI Lab最新推出Mixture-of-Memories:线性注意力也有稀疏记忆了

上海AI Lab最新推出Mixture-of-Memories:线性注意力也有稀疏记忆了

回顾 AGI 的爆发,从最初的 pre-training (model/data) scaling,到 post-training (SFT/RLHF) scaling,再到 reasoning (RL) scaling,找到正确的 scaling 维度始终是问题的本质。

来自主题: AI技术研报
4111 点击    2025-03-06 09:46
谷歌更新Transformer架构,更节省计算资源!50%性能提升

谷歌更新Transformer架构,更节省计算资源!50%性能提升

谷歌更新Transformer架构,更节省计算资源!50%性能提升

谷歌终于更新了Transformer架构。最新发布的Mixture-of-Depths(MoD),改变了以往Transformer计算模式。它通过动态分配大模型中的计算资源,跳过一些不必要计算,显著提高训练效率和推理速度。

来自主题: AI技术研报
6291 点击    2024-04-05 17:04