AI资讯新闻榜单内容搜索-RL

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: RL
首次结合RL与SFT各自优势,动态引导模型实现推理⾼效训练

首次结合RL与SFT各自优势,动态引导模型实现推理⾼效训练

首次结合RL与SFT各自优势,动态引导模型实现推理⾼效训练

新一代大型推理模型,如 OpenAI-o3、DeepSeek-R1 和 Kimi-1.5,在复杂推理方面取得了显著进展。该方向核心是一种名为 ZERO-RL 的训练方法,即采用可验证奖励强化学习(RLVR)逐步提升大模型在强推理场景 (math, coding) 的 pass@1 能力。

来自主题: AI技术研报
5892 点击    2025-07-28 10:36
任务级奖励提升App Agent思考力,淘天提出Mobile-R1,3B模型可超32B

任务级奖励提升App Agent思考力,淘天提出Mobile-R1,3B模型可超32B

任务级奖励提升App Agent思考力,淘天提出Mobile-R1,3B模型可超32B

现有Mobile/APP Agent的工作可以适应实时环境,并执行动作,但由于它们大部分都仅依赖于动作级奖励(SFT或RL)。

来自主题: AI技术研报
10257 点击    2025-07-21 12:25
MiniMax 技术闭门会分享:长上下文是 Agent 的 Game Changer

MiniMax 技术闭门会分享:长上下文是 Agent 的 Game Changer

MiniMax 技术闭门会分享:长上下文是 Agent 的 Game Changer

MiniMax 在 7 月 10 日面向全球举办了 M1 技术研讨会,邀请了来自香港科技大学、滑铁卢大学、Anthropic、Hugging Face、SGLang、vLLM、RL领域的研究者及业界嘉宾,就模型架构创新、RL训练、长上下文应用等领域进行了深入的探讨。

来自主题: AI资讯
7064 点击    2025-07-20 12:37
7B模型“情商”比肩GPT-4o,腾讯突破开放域RL难题,得分直翻5倍

7B模型“情商”比肩GPT-4o,腾讯突破开放域RL难题,得分直翻5倍

7B模型“情商”比肩GPT-4o,腾讯突破开放域RL难题,得分直翻5倍

在没有标准答案的开放式对话中,RL该怎么做?多轮对话是大模型最典型的开放任务:高频、多轮、强情境依赖,且“好回复”因人而异。

来自主题: AI技术研报
6909 点击    2025-07-19 11:13
前 OpenAI 研究员 Kevin Lu:别折腾 RL 了,互联网才是让大模型进步的关键

前 OpenAI 研究员 Kevin Lu:别折腾 RL 了,互联网才是让大模型进步的关键

前 OpenAI 研究员 Kevin Lu:别折腾 RL 了,互联网才是让大模型进步的关键

「停止研究 RL 吧,研究者更应该将精力投入到产品开发中,真正推动人工智能大规模发展的关键技术是互联网,而不是像 Transformer 这样的模型架构。」

来自主题: AI资讯
7240 点击    2025-07-13 11:23
Meta发布40页报告,具身智能的下一步是「心智世界模型」:能听,能看,能理解,会共情

Meta发布40页报告,具身智能的下一步是「心智世界模型」:能听,能看,能理解,会共情

Meta发布40页报告,具身智能的下一步是「心智世界模型」:能听,能看,能理解,会共情

这篇报告第一次把对人心智状态的推断,放到和物理世界模型(physical world model)同等重要的位置上,并将其概念化为心智世界模型(mental world model)。相比于传统世界模型(如LeCun的JEPA)仅关注物理规律(物体运动、机械因果),心智世界模型则首次将心理规律(意图、情感、社会关系)纳入世界模型框架,实现“双轨建模”。

来自主题: AI资讯
6365 点击    2025-07-11 12:25