AI资讯新闻榜单内容搜索-奖励模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 奖励模型
类R1强化学习迁移到视觉定位!全开源Vision-R1将图文大模型性能提升50%

类R1强化学习迁移到视觉定位!全开源Vision-R1将图文大模型性能提升50%

类R1强化学习迁移到视觉定位!全开源Vision-R1将图文大模型性能提升50%

图文大模型通常采用「预训练 + 监督微调」的两阶段范式进行训练,以强化其指令跟随能力。受语言领域的启发,多模态偏好优化技术凭借其在数据效率和性能增益方面的优势,被广泛用于对齐人类偏好。目前,该技术主要依赖高质量的偏好数据标注和精准的奖励模型训练来提升模型表现。然而,这一方法不仅资源消耗巨大,训练过程仍然极具挑战。

来自主题: AI技术研报
9129 点击    2025-04-08 14:18
DeepSeek R2来了?全新推理时Scaling论文联手清华震撼发布!

DeepSeek R2来了?全新推理时Scaling论文联手清华震撼发布!

DeepSeek R2来了?全新推理时Scaling论文联手清华震撼发布!

DeepSeek新论文来了!在清华研究者共同发布的研究中,他们发现了奖励模型推理时Scaling的全新方法。DeepSeek R2,果然近了。

来自主题: AI技术研报
7843 点击    2025-04-05 01:14
全面增强LLM推理/规划/执行力!北航提出全新「内置CoT」思考方法

全面增强LLM推理/规划/执行力!北航提出全新「内置CoT」思考方法

全面增强LLM推理/规划/执行力!北航提出全新「内置CoT」思考方法

基于内置思维链的思考方法为解决多轮会话中存在的问题提供了研究方向。按照思考方法收集训练数据集,通过有监督学习微调大语言模型;训练一个一致性奖励模型,并将该模型用作奖励函数,以使用强化学习来微调大语言模型。结果大语言模型的推理能力和计划能力,以及执行计划的能力得到了增强。

来自主题: AI资讯
5918 点击    2025-03-04 19:46
图像生成推理大模型,港中文北大等联手破解画质提升难题

图像生成推理大模型,港中文北大等联手破解画质提升难题

图像生成推理大模型,港中文北大等联手破解画质提升难题

图像生成模型,也用上思维链(CoT)了!此外,作者还提出了两种专门针对该任务的新型奖励模型——潜力评估奖励模型。(Potential Assessment Reward Model,PARM)及其增强版本PARM++。

来自主题: AI技术研报
4969 点击    2025-02-10 11:09
1/10训练数据超越GPT-4o!清华等提出隐式过程奖励模型PRIME,在线刷SOTA

1/10训练数据超越GPT-4o!清华等提出隐式过程奖励模型PRIME,在线刷SOTA

1/10训练数据超越GPT-4o!清华等提出隐式过程奖励模型PRIME,在线刷SOTA

1/10训练数据激发高级推理能力!近日,来自清华的研究者提出了PRIME,通过隐式奖励来进行过程强化,提高了语言模型的推理能力,超越了SFT以及蒸馏等方法。

来自主题: AI技术研报
2701 点击    2025-01-08 11:12
过程奖励模型PRM成版本答案!谷歌DeepMind全自动标注逐步骤奖励PAV,准确率提升8%

过程奖励模型PRM成版本答案!谷歌DeepMind全自动标注逐步骤奖励PAV,准确率提升8%

过程奖励模型PRM成版本答案!谷歌DeepMind全自动标注逐步骤奖励PAV,准确率提升8%

通过过程奖励模型(PRM)在每一步提供反馈,并使用过程优势验证器(PAV)来预测进展,从而优化基础策略,该方法在测试时搜索和在线强化学习中显示出比传统方法更高的准确性和计算效率,显著提升了解决复杂问题的能力。

来自主题: AI技术研报
5331 点击    2024-11-16 15:41
自一致性首选项优化SCPO,让LLM多次回答同一个问题,选输出频率最高的答案 |Meta最新

自一致性首选项优化SCPO,让LLM多次回答同一个问题,选输出频率最高的答案 |Meta最新

自一致性首选项优化SCPO,让LLM多次回答同一个问题,选输出频率最高的答案 |Meta最新

传统的训练方法通常依赖于大量人工标注的数据和外部奖励模型,这些方法往往受到成本、质量控制和泛化能力的限制。因此,如何减少对人工标注的依赖,并提高模型在复杂推理任务中的表现,成为了当前的主要挑战之一。

来自主题: AI技术研报
6680 点击    2024-11-14 14:42
4轮暴训,Llama 7B击败GPT-4!Meta等让LLM「分饰三角」自评自进化

4轮暴训,Llama 7B击败GPT-4!Meta等让LLM「分饰三角」自评自进化

4轮暴训,Llama 7B击败GPT-4!Meta等让LLM「分饰三角」自评自进化

Meta、UC伯克利、NYU共同提出元奖励语言模型,给「超级对齐」指条明路:让AI自己当裁判,自我改进对齐,效果秒杀自我奖励模型。

来自主题: AI技术研报
8484 点击    2024-07-31 16:05