EMNLP2025 | 通研院揭秘MoE可解释性,提升Context忠实性! EMNLP2025 | 通研院揭秘MoE可解释性,提升Context忠实性! 关键词: AI,模型训练,CEFT,微调 在大模型研究领域,做混合专家模型(MoE)的团队很多,但专注机制可解释性(Mechanistic Interpretability)的却寥寥无几 —— 而将二者深度结合,从底层机制理解复杂推理过程的工作,更是凤毛麟角。 来自主题: AI技术研报 8673 点击 2025-11-17 09:25