
多模态大模型学杂了能力反下降?新研究:MoE+通用专家解决冲突
多模态大模型学杂了能力反下降?新研究:MoE+通用专家解决冲突多模态大模型做“多任务指令微调”,大模型可能会“学得多错得多”,因为不同任务之间的冲突,导致泛化能力下降。
来自主题: AI资讯
3629 点击 2023-12-30 14:39
多模态大模型做“多任务指令微调”,大模型可能会“学得多错得多”,因为不同任务之间的冲突,导致泛化能力下降。
过度训练让中度模型出现了结构泛化能力。
针对Transformer,谷歌DeepMind一项新的发现引起了不小争议: 它的泛化能力,无法扩展到训练数据以外的内容。