
MoE那么大,几段代码就能稳稳推理 | 开源
MoE那么大,几段代码就能稳稳推理 | 开源混合专家网络模型架构(MoE)已经成为当前大模型的一个主流架构选择,以最近开源的盘古Pro MoE为例
混合专家网络模型架构(MoE)已经成为当前大模型的一个主流架构选择,以最近开源的盘古Pro MoE为例
6月30日,上海交通大学医学院附属瑞金医院宣布,RuiPath病理大模型的视觉基础模型正式开源。
超大规模MoE模型(如DeepSeek),到底该怎么推理才能做到又快又稳。现在,这个问题似乎已经有了标准答案——华为一个新项目,直接把推理超大规模MoE背后的架构、技术和代码,统统给开源了!
最近,看到各大厂商,在不断地将自己的AI大模型进行开源。华为宣布开源:盘古7B稠密和72B混合专家模型。
刚刚,华为正式宣布开源盘古 70 亿参数的稠密模型、盘古 Pro MoE 720 亿参数的混合专家模型(参见机器之心报道:华为盘古首次露出,昇腾原生72B MoE架构,SuperCLUE千亿内模型并列国内第一 )和基于昇腾的模型推理技术。
今年,AI大厂采购GPU的投入又双叒疯狂加码——马斯克xAI打算把自家的10万卡超算扩增10倍,Meta也计划投资100亿建设一个130万卡规模的数据中心……GPU的数量,已经成为了互联网企业AI实力的直接代表。
聚光灯下,思想的交锋激荡出智慧的火花。在前几日刚刚落幕的华为开发者大会(HDC 2025)期间,在华为云AI创业生态高峰论坛活动上,一场围绕“AI 2.0时代的创业:技术愿景与商业实践的平衡”展开的深度辩论,吸引了众多与会者的目光,也精准切中了当下AI创业浪潮中的核心脉搏。
「卖铲人」华为给具身智能出了另一种解法。
6月20日-22日,华为开发者大会2025(HDC 2025)于东莞举办,正式发布鸿蒙HarmonyOS 6操作系统及多项创新技术,来自全球各地的开发者、行业专家和合作伙伴齐聚现场,其中不乏AI+生物、医疗领域企业。
一个大模型有了火星图片,能做什么?