微软连发3款Phi-3.5模型:128K上下文,首用MoE架构,部分性能超GPT-4o mini 微软连发3款Phi-3.5模型:128K上下文,首用MoE架构,部分性能超GPT-4o mini 关键词: 微软A,Phi-3.5,Phi-3.5-vision-instruct,Phi-3.5-MoE-instruct 轻量级模型的春天要来了吗? 来自主题: AI资讯 6895 点击 2024-08-22 09:29