
通义实验室新研究:大模型自己「扮演」搜索引擎,提升推理能力无需搜索API
通义实验室新研究:大模型自己「扮演」搜索引擎,提升推理能力无需搜索API强化学习(RL)+真实搜索引擎,可以有效提升大模型检索-推理能力。
强化学习(RL)+真实搜索引擎,可以有效提升大模型检索-推理能力。
不用引入外部数据,通过自我博弈(Self-play)就能让预训练大模型学会推理?
在人工智能领域,推理能力的进化已成为通向通用智能的核心挑战。近期,Reinforcement Learning with Verifiable Rewards(RLVR)范式下涌现出一批「Zero」类推理模型,摆脱了对人类显式推理示范的依赖,通过强化学习过程自我学习推理轨迹,显著减少了监督训练所需的人力成本。
OpenAI 的 o1 系列和 DeepSeek-R1 的成功充分证明,大规模强化学习已成为一种极为有效的方法,能够激发大型语言模型(LLM) 的复杂推理行为并显著提升其能力。
人和智能体共享奖励参数,这才是强化学习正确的方向?
其实大模型在DeepSeek-V3时期就已经「顿悟」了?
DeepSeek啥都开源了,就是没有开源训练代码和数据。现在,开源RL训练方法只需要用1/30的训练步骤就能赶上相同尺寸的DeepSeek-R1-Zero蒸馏Qwen。
回应DeepSeek,阶跃星辰亮出“三件套”:开源,多模态推理,AI Agent。
中国首个全自研空间智能AI诞生了,单图即可生成360度无限3D场景,实时互动自由探索。这不仅是技术的革新,更预示着,游戏电影等领域即将迎来颠覆性的变革。
2025 年普遍被认为是智能体爆发元年,AI 应用将出现井喷式增长。然而,在大家纷纷将目光投向智能体的同时,另一个 AI 领域也可能迎来它的「ChatGPT 时刻」。