
泛化性暴涨47%!首个意图检测奖励范式,AI工具爆炸时代意图识别新解法
泛化性暴涨47%!首个意图检测奖励范式,AI工具爆炸时代意图识别新解法近日,腾讯 PCG 社交线的研究团队针对这一问题,采用强化学习(RL)训练方法,通过分组相对策略优化(Group Relative Policy Optimization, GRPO)算法,结合基于奖励的课程采样策略(Reward-based Curriculum Sampling, RCS),将其创新性地应用在意图识别任务上,
近日,腾讯 PCG 社交线的研究团队针对这一问题,采用强化学习(RL)训练方法,通过分组相对策略优化(Group Relative Policy Optimization, GRPO)算法,结合基于奖励的课程采样策略(Reward-based Curriculum Sampling, RCS),将其创新性地应用在意图识别任务上,
谷歌DeepMind重磅推出AlphaEvolve,最强通用AI智能体横扫数学难题!它不仅推动了300年「接吻数难题」,一举颠覆了56年前Strassen算法神话。而且,还在AI训推、TPU设计、数据中心领域,展现出了极强的实力。
Vibe coding正火得一塌糊涂,但谁能想到,刚刚一位大佬已经把当红的AI编程神器Cursor和Windsurf背后的核心算法机制研究出来了!
R1 横空出世,带火了 GRPO 算法,RL 也随之成为 2025 年的热门技术探索方向,近期,字节 Seed 团队就在图像生成方向进行了相关探索。
美国AI监管或将暂停10年!共和党议员在预算法案中加入条款,禁止联邦和州政府监管AI,同时计划拨款5亿美元推动AI商业化。硅谷欢呼「创新得救」,但反对者警告:DeepFake泛滥、数据隐私失控、环境问题加剧……这场监管与自由的博弈,究竟是AI的黄金时代,还是潘多拉魔盒的开启?
当您的Agent需要规划多步骤操作以达成目标时,比如游戏策略制定或旅行安排优化等等,传统规划方法往往需要复杂的搜索算法和多轮提示,计算成本高昂且效率不佳。来自Google DeepMind和CMU的研究者提出了一个简单却非常烧脑的问题:我们是否一直在用错误的方式选择示例来引导LLM学习规划?
扩散模型(Diffusion Models)近年来在生成任务上取得了突破性的进展,不仅在图像生成、视频合成、语音合成等领域都实现了卓越表现,推动了文本到图像、视频生成的技术革新。然而,标准扩散模型的设计通常只适用于从随机噪声生成数据的任务,对于图像翻译或图像修复这类明确给定输入和输出之间映射关系的任务并不适合。
过去一年,AI 领域在开源力量的推动下呈现爆发式增长。大模型不再是少数巨头专属的技术高地,而是在社区协作与开放共享中不断演化,覆盖基础架构、算法优化、推理部署等多个层面。开源,让 AI 更快、更平、更广,也让越来越多的开发者、研究者、创业者拥有了参与下一代智能系统构建的机会。
这就是为什么数据被称作"新石油"或"新黄金"——它极其珍贵,因为算法的一切认知都来源于输入的数据。
训练成本高昂已经成为大模型和人工智能可持续发展的主要障碍之一。