AI资讯新闻榜单内容搜索-GRPO

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: GRPO
大模型推理学习新范式!ExGRPO框架:从盲目刷题到聪明复盘

大模型推理学习新范式!ExGRPO框架:从盲目刷题到聪明复盘

大模型推理学习新范式!ExGRPO框架:从盲目刷题到聪明复盘

大模型在强化学习过程中,终于知道什么经验更宝贵了! 来自上海人工智能实验室、澳门大学、南京大学和香港中文大学的研究团队,最近提出了一套经验管理和学习框架ExGRPO—— 通过科学地识别、存储、筛选和学习有价值的经验,让大模型在优化推理能力的道路上,走得更稳、更快、更远。

来自主题: AI技术研报
5265 点击    2025-10-23 15:42
X上63万人围观的Traning-Free GRPO:把GRPO搬进上下文空间学习

X上63万人围观的Traning-Free GRPO:把GRPO搬进上下文空间学习

X上63万人围观的Traning-Free GRPO:把GRPO搬进上下文空间学习

年初的 DeepSeek-R1,带来了大模型强化学习(RL)的火爆。无论是数学推理、工具调用,还是多智能体协作,GRPO(Group Relative Policy Optimization)都成了最常见的 RL 算法。

来自主题: AI技术研报
5745 点击    2025-10-23 11:41
多轮Agent训练遇到级联失效?熵控制强化学习来破局

多轮Agent训练遇到级联失效?熵控制强化学习来破局

多轮Agent训练遇到级联失效?熵控制强化学习来破局

在训练多轮 LLM Agent 时(如需要 30 + 步交互才能完成单个任务的场景),研究者遇到了一个严重的训练不稳定问题:标准的强化学习方法(PPO/GRPO)在稀疏奖励环境下表现出剧烈的熵值震荡,导致训练曲线几乎不收敛。

来自主题: AI技术研报
5888 点击    2025-10-19 12:06
腾讯发布超低成本AI训练法!120元效果秒杀70000元微调方案

腾讯发布超低成本AI训练法!120元效果秒杀70000元微调方案

腾讯发布超低成本AI训练法!120元效果秒杀70000元微调方案

只花120元,效果吊打70000元微调!腾讯提出一种升级大模型智能体的新方法——无训练组相对策略优化Training-Free GRPO。无需调整任何参数,只要在提示词中学习简短经验,即可实现高性价比提升模型性能。

来自主题: AI技术研报
8846 点击    2025-10-15 17:06
北大彭一杰教授课题组提出RiskPO,用风险度量优化重塑大模型后训练

北大彭一杰教授课题组提出RiskPO,用风险度量优化重塑大模型后训练

北大彭一杰教授课题组提出RiskPO,用风险度量优化重塑大模型后训练

当强化学习(RL)成为大模型后训练的核心工具,「带可验证奖励的强化学习(RLVR)」凭借客观的二元反馈(如解题对错),迅速成为提升推理能力的主流范式。从数学解题到代码生成,RLVR 本应推动模型突破「已知答案采样」的局限,真正掌握深度推理逻辑 —— 但现实是,以 GRPO 为代表的主流方法正陷入「均值优化陷阱」。

来自主题: AI技术研报
5770 点击    2025-10-15 14:19
只需1/4预算,性能反超基线:阿里高德提出Tree-GRPO,高效破解智能体RL难题

只需1/4预算,性能反超基线:阿里高德提出Tree-GRPO,高效破解智能体RL难题

只需1/4预算,性能反超基线:阿里高德提出Tree-GRPO,高效破解智能体RL难题

对于大模型的强化学习已在数学推理、代码生成等静态任务中展现出不俗实力,而在需要与开放世界交互的智能体任务中,仍面临「两朵乌云」:高昂的 Rollout 预算(成千上万的 Token 与高成本的工具调用)和极其稀疏的「只看结果」的奖励信号。

来自主题: AI技术研报
7402 点击    2025-10-15 12:07
苹果再发论文:精准定位LLM幻觉,GPT-5、o3都办不到

苹果再发论文:精准定位LLM幻觉,GPT-5、o3都办不到

苹果再发论文:精准定位LLM幻觉,GPT-5、o3都办不到

论文提出的方法名为 RL4HS,它使用了片段级奖励(span-level rewards)和类别感知的 GRPO(Class-Aware Group Relative Policy Optimization),从而避免模型偷懒、只输出无错误预测。

来自主题: AI资讯
8502 点击    2025-10-07 22:11
加速近5倍!北大与字节团队提出BranchGRPO,用「树形分叉 + 剪枝」重塑扩散模型对齐

加速近5倍!北大与字节团队提出BranchGRPO,用「树形分叉 + 剪枝」重塑扩散模型对齐

加速近5倍!北大与字节团队提出BranchGRPO,用「树形分叉 + 剪枝」重塑扩散模型对齐

近期,北京大学与字节团队提出了名为 BranchGRPO 的新型树形强化学习方法。不同于顺序展开的 DanceGRPO,BranchGRPO 通过在扩散反演过程中引入分叉(branching)与剪枝(pruning),让多个轨迹共享前缀、在中间步骤分裂,并通过逐层奖励融合实现稠密反馈。

来自主题: AI技术研报
5694 点击    2025-09-23 10:07