首个开源MoE大模型发布!7Bx8个专家,离GPT-4最近的一集 首个开源MoE大模型发布!7Bx8个专家,离GPT-4最近的一集 关键词: MoE大模型,Mistral AI “取消今晚所有计划!”,许多AI开发者决定不睡了。只因首个开源MoE大模型刚刚由Mistral AI发布。 来自主题: AI资讯 7202 点击 2023-12-09 15:42