3B模型不输7B LLaVA!北大多模态MoE模型登GitHub热榜 关键词: MoE-LLaVA,MoE,7B LLaVA,3B模型 混合专家(MoE)架构已支持多模态大模型,开发者终于不用卷参数量了!北大联合中山大学、腾讯等机构推出的新模型MoE-LLaVA,登上了GitHub热榜。 来自主题: AI技术研报 3489 点击 2024-02-09 13:54