AI资讯新闻榜单内容搜索-强化学习

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 强化学习
智源开源EditScore:为图像编辑解锁在线强化学习的无限可能

智源开源EditScore:为图像编辑解锁在线强化学习的无限可能

智源开源EditScore:为图像编辑解锁在线强化学习的无限可能

随着多模态大模型的不断演进,指令引导的图像编辑(Instruction-guided Image Editing)技术取得了显著进展。然而,现有模型在遵循复杂、精细的文本指令方面仍面临巨大挑战,往往需要用户进行多次尝试和手动筛选,难以实现稳定、高质量的「一步到位」式编辑。

来自主题: AI技术研报
9345 点击    2025-10-23 12:28
X上63万人围观的Traning-Free GRPO:把GRPO搬进上下文空间学习

X上63万人围观的Traning-Free GRPO:把GRPO搬进上下文空间学习

X上63万人围观的Traning-Free GRPO:把GRPO搬进上下文空间学习

年初的 DeepSeek-R1,带来了大模型强化学习(RL)的火爆。无论是数学推理、工具调用,还是多智能体协作,GRPO(Group Relative Policy Optimization)都成了最常见的 RL 算法。

来自主题: AI技术研报
6026 点击    2025-10-23 11:41
清华、快手提出AttnRL:让大模型用「注意力」探索

清华、快手提出AttnRL:让大模型用「注意力」探索

清华、快手提出AttnRL:让大模型用「注意力」探索

从 AlphaGo 战胜人类棋手,到 GPT 系列展现出惊人的推理与语言能力,强化学习(Reinforcement Learning, RL)一直是让机器「学会思考」的关键驱动力。

来自主题: AI技术研报
7113 点击    2025-10-22 11:46
AGI前夜重磅:RL突破模型「认知上限」,真·学习发生了!

AGI前夜重磅:RL突破模型「认知上限」,真·学习发生了!

AGI前夜重磅:RL突破模型「认知上限」,真·学习发生了!

UC Berkeley、UW、AI2 等机构联合团队最新工作提出:在恰当的训练范式下,强化学习(RL)不仅能「打磨」已有能力,更能逼出「全新算法」级的推理模式。他们构建了一个专门验证这一命题的测试框架 DELTA,并观察到从「零奖励」到接近100%突破式跃迁的「RL grokking」现象。

来自主题: AI技术研报
7252 点击    2025-10-22 11:33
RewardMap: 通过多阶段强化学习解决细粒度视觉推理的Sparse Reward

RewardMap: 通过多阶段强化学习解决细粒度视觉推理的Sparse Reward

RewardMap: 通过多阶段强化学习解决细粒度视觉推理的Sparse Reward

近年来,大语言模型(LLMs)以及多模态大模型(MLLMs)在多种场景理解和复杂推理任务中取得突破性进展。

来自主题: AI技术研报
5784 点击    2025-10-21 15:53
AGILE:视觉学习新范式!自监督+交互式强化学习助力VLMs感知与推理全面提升

AGILE:视觉学习新范式!自监督+交互式强化学习助力VLMs感知与推理全面提升

AGILE:视觉学习新范式!自监督+交互式强化学习助力VLMs感知与推理全面提升

现有视觉语言大模型(VLMs)在多模态感知和推理任务上仍存在明显短板:1. 对图像中的细粒度视觉信息理解有限,视觉感知和推理能力未被充分激发;2. 强化学习虽能带来改进,但缺乏高质量、易扩展的 RL 数据。

来自主题: AI技术研报
6490 点击    2025-10-21 15:30
Meta用40万个GPU小时做了一个实验,只为弄清强化学习Scaling Law

Meta用40万个GPU小时做了一个实验,只为弄清强化学习Scaling Law

Meta用40万个GPU小时做了一个实验,只为弄清强化学习Scaling Law

在 LLM 领域,扩大强化学习算力规模正在成为一个关键的研究范式。但要想弄清楚 RL 的 Scaling Law 具体是什么样子,还有几个关键问题悬而未决:如何 scale?scale 什么是有价值的?RL 真的能如预期般 scale 吗?

来自主题: AI技术研报
8756 点击    2025-10-19 17:54
Karpathy泼冷水:AGI要等10年!根本没有「智能体元年」

Karpathy泼冷水:AGI要等10年!根本没有「智能体元年」

Karpathy泼冷水:AGI要等10年!根本没有「智能体元年」

在近日的一次访谈中,Andrej Karpathy深入探讨了AGI、智能体与AI未来十年的走向。他认为当前的「智能体」仍处早期阶段,强化学习虽不完美,却是目前的最优解。他预测未来10年的AI架构仍然可能是类似Transformer的巨大神经网络。

来自主题: AI资讯
7215 点击    2025-10-19 12:48
多轮Agent训练遇到级联失效?熵控制强化学习来破局

多轮Agent训练遇到级联失效?熵控制强化学习来破局

多轮Agent训练遇到级联失效?熵控制强化学习来破局

在训练多轮 LLM Agent 时(如需要 30 + 步交互才能完成单个任务的场景),研究者遇到了一个严重的训练不稳定问题:标准的强化学习方法(PPO/GRPO)在稀疏奖励环境下表现出剧烈的熵值震荡,导致训练曲线几乎不收敛。

来自主题: AI技术研报
6096 点击    2025-10-19 12:06
稳定训练、数据高效,清华大学提出「流策略」强化学习新方法SAC Flow

稳定训练、数据高效,清华大学提出「流策略」强化学习新方法SAC Flow

稳定训练、数据高效,清华大学提出「流策略」强化学习新方法SAC Flow

本文介绍了一种用高数据效率强化学习算法 SAC 训练流策略的新方案,可以端到端优化真实的流策略,而无需采用替代目标或者策略蒸馏。SAC FLow 的核心思想是把流策略视作一个 residual RNN,再用 GRU  门控和 Transformer Decoder 两套速度参数化。

来自主题: AI技术研报
7043 点击    2025-10-19 11:48