一招缓解LLM偏科!调整训练集组成,“秘方”在此 | 上交大&上海AI Lab等

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
一招缓解LLM偏科!调整训练集组成,“秘方”在此 | 上交大&上海AI Lab等
6054点击    2025-06-11 12:01

大幅缓解LLM偏科,只需调整SFT训练集的组成。


本来不擅长coding的Llama 3.1-8B,代码能力明显提升。


上海交大&上海AI Lab联合团队提出创新方法IDEAL,可显著提升LLM在多种不同领域上的综合性能。


一招缓解LLM偏科!调整训练集组成,“秘方”在此 | 上交大&上海AI Lab等


此外,研究还有一些重要发现,比如:


  • SFT阶段训练数据的数量不是关键
  • 配比不合适,训练数据越多,反而会加剧模型“偏科”


具体来看——


SFT后LLM部分能力甚至退化


大型语言模型 (LLM) 凭借其强大的理解和逻辑推理能力,在多个领域展现了惊人的能力。除了模型参数量的增大,高质量的数据是公认的LLM性能提升最关键的影响因素。


当对模型进行监督微调(SFT)时,研究人员发现LLM在多任务场景下常出现“偏科”现象——部分能力突出而部分能力并未涨进,甚至退化。这种不平衡的现象导致大模型在不同的领域上能力不同,进而影响用户体验。


上海交大和上海AI Lab的研究者迅速将目光聚焦到SFT训练的训练集上,是否可以通过调整训练集的组成来缓解LLM偏科的情况?直觉上来看,直接将LLM的弱势科目的训练数据增加一倍,就可以让最后的结果发生变化。但是,由于训练数据之间的耦合关系,研究者通过建模量化每个领域数据对于最终结果的影响情况,科学地调整训练数据集的组成,最终提高了模型的。


IDEAL方法


问题建模:


一招缓解LLM偏科!调整训练集组成,“秘方”在此 | 上交大&上海AI Lab等


高效计算:


由于式子中存在参数二阶矩阵的逆的操作,计算的资源消耗非常大。为了能够扩展到LLM的参数量级,论文采用了K-FAC的理论来近似简化计算Hessian矩阵的逆。通过挑选模型参数中的“重要”层的数值来近似刻画各个领域数据对于最后模型性能的影响,并最后通过合理的放缩超参数m来控制最后的调整比例大小:


一招缓解LLM偏科!调整训练集组成,“秘方”在此 | 上交大&上海AI Lab等


整体的算法流程图如下所示:


一招缓解LLM偏科!调整训练集组成,“秘方”在此 | 上交大&上海AI Lab等


实验结果


论文主要以Llama3.1 8B模型作为Base model,测试了IDEAL对四个典型领域上多任务训练的模型的提升效果。可以看到,无论是epoch1还是epoch3,IDEAL都能够在2轮迭代后将原先不擅长的Coding能力显著提升。


一招缓解LLM偏科!调整训练集组成,“秘方”在此 | 上交大&上海AI Lab等


除此之外,论文还有其他的发现:


  • 一般随机初始的训练集分布都是有进一步优化的空间:文章中,无论在在四个领域四个benchmark,还是5个领域8个benchmark上,无论初始分布是各个领域是数量相等的或者不等的分布上,IDEAL都实现了对于平均结果的提升。
  • SFT阶段训练数据的数量不是关键:因为以往的re-weighting工作会控制整体的训练数据量,研究团队将对比的方法DoReMi和DOGE,都提升了整体的数据量到IDEAL对应的数量,但实验结果证明,提升数据量而没有改变数据混合分布,对于模型的提升效果甚微。
  • 如果数据分布配比不合适,更多数据量,训练地更久,反而会导致更加不均衡的模型效果。团队发现相比训练epoch1,训练同样的数据3epoch会导致数据之间的负面冲突被放大,导致最终的模型性能更加不均衡。
  • 论文还指导了超参数m的选取:m的取值最好选在0.15。因为理论要求,应该在原始分布的周围优化数据配比,所以m应该选取不大的步长。而选取过小的步长,对于模型最终的效果影响也会较小。综上所述,论文在m=0.1,0.15,和0.3三个设定的实验中更加推荐0.15的取值。


应用价值


IDEAL解决了得到各个领域高质量训练数据之后如何配比组合成为统一的训练集的问题。通过迭代优化的方式优化训练集的各个领域数据数量。避免了之前研究者需要按经验,人工调整各个数据集配比的dirty work,具有较大的实用价值。


论文信息:

标题:IDEAL: Data Equilibrium Adaptation for Multi-Capability Language Model Alignment

作者:上海交通大学、上海AI实验室、清华大学等

GitHub代码库:https://anonymous.4open.science/r/IDEAL-678C520/README.md

arxiv:https://arxiv.org/abs/2505.12762


文章来自于“量子位”,作者“IDEAL团队”。


一招缓解LLM偏科!调整训练集组成,“秘方”在此 | 上交大&上海AI Lab等

关键词: AI , 模型训练 , IDEAL , 人工智能
AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner