独家|字节迎战阿里快乐马:开源多模统一模型Mamoda2.5,推理速度快18倍
独家|字节迎战阿里快乐马:开源多模统一模型Mamoda2.5,推理速度快18倍独家获悉,字节跳动日前低调公布全球首个25B级、基于混合专家 (MoE) -扩散自注意力机制(DiT) 的开源增强统一多模态模型Mamoda2.5。Mamoda2.5依托Qwen3-VL-8B、128 个专家,Top-8 路由的MoE+DiT架构搭建,最终模型参数高达250亿,而每次仅激活约30亿参数(约12%)。
来自主题: AI资讯
8599 点击 2026-05-06 10:44