余天予,清华大学计算机系一年级博士生,导师为清华大学自然语言处理实验室刘知远副教授。研究兴趣主要包括高效多模态大模型、多模态大模型对齐和强化学习,在 CVPR、AAAI等人工智能领域的著名国际会议和期刊发表多篇学术论文,谷歌学术引用1000余次。
Deepseek 的 R1、OpenAI 的 o1/o3 等推理模型的出色表现充分展现了 RLVR(Reinforcement Learning with Verifiable Reward,基于可验证奖励的强化学习)的巨大潜力。
然而,现有方法的应用范围局限于数学和代码等少数领域。面对自然语言固有的丰富多样性,依赖规则验证器的方法难以拓展到通用领域上。
针对这一关键挑战,清华大学自然语言处理实验室提出了一项关键性技术 —— 基于参考概率奖励的强化学习(Reinforcement Learning with Reference Probability Reward,RLPR)。
这项技术通过 Prob-to-Reward 方法显著提高了概率奖励(Probability-based Reward, PR)的质量,相比基于似然度的基线方法取得了明显更佳的性能优势和训练稳定性。
同时,RLPR 提出基于奖励标准差的动态过滤机制,进一步提升强化学习的稳定性和性能提升。目前 RLPR 相关代码、模型、数据、论文均已开源。
PR 为何有效?挖掘模型的内在评估
研究团队观察到,大语言模型(LLM)在推理过程中对于参考答案的生成概率直接反映了模型对于本次推理的质量评估。也就是说,模型的推理越正确,其生成参考答案的概率通常就越高。
在论文中,研究团队给出了一个具体示例:当模型在输出 o2 中错误地把选项 A 排在了第二位时,可以观察到参考答案在第二个正确选项位置上的生成概率出现了显著下降。这一现象清晰地表明,PR 能够精准捕捉模型对于自身推理质量的判断,并且与模型推理的正确性表现出高度相关性。
PR 示例,更深的颜色代表更大的输出概率
RLPR 核心特点
领域无关的高效奖励生成
现有 RLVR 方法通常需要投入大量的人力和工程资源,为每个领域编写特定的验证规则,相比之下,RLPR 仅需要简单的一次前向传播(forward pass)就可以生成奖励分数。通过使用参考答案的生成概率均值作为奖励。这种方法能够有效地应对自然语言固有的复杂多样性。
如下图所示(右侧示例),基于规则匹配的方式无法识别出 y2 和 y3 和参考答案语义等价,而 RLPR 的 PR 机制准确地给予了这两个答案更高的分数。
RLPR 与现有 RLVR 范式的对比
奖励纠偏和动态过滤
基础的 PR 已经呈现出和回答质量很高的相关性,但是仍然受到问题和参考答案风格等无关因素的干扰(即存在偏差)。为此,研究团队提出构建一个不包含思维链过程(z)的对照奖励,并通过做差的方式去除无关因素对于分数的影响,实现奖励纠偏。
传统基于准确率(Accuracy Filtering)的样本过滤方法难以适用于连续的 PR 值。RLPR 提出基于奖励标准差的动态过滤机制,保留那些取得较高奖励标准差的样本用于训练,有效提升了训练的稳定性和效果。考虑到训练过程中奖励的标准差会持续变化,RLPR 进一步采用指数移动平均(EMA)的方式持续动态更新过滤阈值。
可靠的奖励质量和框架鲁棒性
研究团队通过 ROC-AUC 指标定量评估了不同来源奖励的质量。结果表明,PR 在 0.5B 规模即取得了显著优于规则奖励和验证器模型奖励的质量。同时,通用领域奖励质量随着模型能力的增强可以进一步提高到 0.91 水平。
PR 奖励质量优于规则奖励和验证器模型奖励
为了验证框架的鲁棒性,研究团队使用多种不同的训练模板结合 RLPR 训练 Qwen2.5 3B 模型,并观察到 RLPR 在不同训练模板上都可以取得稳定的性能提升。
RLPR 对不同训练模板的鲁棒性
研究团队还进一步在 Gemma、Llama 等更多系列的基座模型上进行实验,验证 RLPR 框架对于不同基座模型均可以稳定提升模型的推理能力,并超过了使用规则奖励的 RLVR 基线。
RLPR 在 Gemma、Llama、Qwen 等不同基座模型上均稳定提升推理能力
总结
RLPR 提出了创新的 Prob-to-Reward 奖励机制,解决了现有 RLVR 范式的领域依赖问题。通过在 Gemma、Llama、Qwen 等主流模型系列上的广泛验证,RLPR 不仅证明了其卓越的有效性和相对于传统规则奖励的显著优势,更在推动强化学习(RL)向更大规模(scaling)发展的道路上,迈出了坚实而有力的一步。
更多研究细节,可参考原论文。
文章来自公众号“机器之心”