AI资讯新闻榜单内容搜索-泛化

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 泛化
四万字·深度求索|泛聊一下强化学习(RL)下的深度推理(DR)对真实世界(RW)建模与泛化的本质

四万字·深度求索|泛聊一下强化学习(RL)下的深度推理(DR)对真实世界(RW)建模与泛化的本质

四万字·深度求索|泛聊一下强化学习(RL)下的深度推理(DR)对真实世界(RW)建模与泛化的本质

强化学习·RL范式尝试为LLMs应用于广泛的Agentic AI甚至构建AGI打开了一扇“深度推理”的大门,而RL是否是唯一且work的一扇门,先按下不表(不作为今天跟大家唠的重点),至少目前看来,随着o1/o3/r1/qwq..等一众语言推理模型的快速发展,正推动着LLMs和Agentic AI在不同领域的价值与作用,

来自主题: AI技术研报
7787 点击    2025-06-13 10:48
开启 AI 自主进化时代,普林斯顿Alita颠覆传统通用智能体,GAIA榜单引来终章

开启 AI 自主进化时代,普林斯顿Alita颠覆传统通用智能体,GAIA榜单引来终章

开启 AI 自主进化时代,普林斯顿Alita颠覆传统通用智能体,GAIA榜单引来终章

智能体技术日益发展,但现有的许多通用智能体仍然高度依赖于人工预定义好的工具库和工作流,这极大限制了其创造力、可扩展性与泛化能力。

来自主题: AI技术研报
5949 点击    2025-06-05 11:50
SFT在帮倒忙?新研究:直接进行强化学习,模型多模态推理上限更高

SFT在帮倒忙?新研究:直接进行强化学习,模型多模态推理上限更高

SFT在帮倒忙?新研究:直接进行强化学习,模型多模态推理上限更高

「尽管经过 SFT 的模型可能看起来在进行推理,但它们的行为更接近于模式模仿 —— 一种缺乏泛化推理能力的伪推理形式。」

来自主题: AI技术研报
7141 点击    2025-06-02 15:24
英伟达让机器人「做梦学习」,靠梦境实现真·从0泛化

英伟达让机器人「做梦学习」,靠梦境实现真·从0泛化

英伟达让机器人「做梦学习」,靠梦境实现真·从0泛化

「仿生人会梦见电子羊吗?」这是科幻界一个闻名遐迩的问题。现在英伟达给出答案:Yes!而且还可以从中学习新技能。如下面各种丝滑操作,都没有真实世界数据作为训练支撑。仅凭文本指令,机器人就完成相应任务。

来自主题: AI资讯
6610 点击    2025-05-22 13:44
比Sora更疯狂!英伟达AI让机器人「做梦」修炼,无师自通直接上岗

比Sora更疯狂!英伟达AI让机器人「做梦」修炼,无师自通直接上岗

比Sora更疯狂!英伟达AI让机器人「做梦」修炼,无师自通直接上岗

当OpenAI、谷歌还在用Sora等AI模型「拍视频」,英伟达直接用视频生成模型让机器人「做梦」学习!新方法DreamGen不仅让机器人掌握从未见过的新动作,还能泛化至完全陌生的环境。利用新方法合成数据直接暴涨333倍。机器人终于「做梦成真」了!

来自主题: AI技术研报
6707 点击    2025-05-22 10:15
泛化性暴涨47%!首个意图检测奖励范式,AI工具爆炸时代意图识别新解法

泛化性暴涨47%!首个意图检测奖励范式,AI工具爆炸时代意图识别新解法

泛化性暴涨47%!首个意图检测奖励范式,AI工具爆炸时代意图识别新解法

近日,腾讯 PCG 社交线的研究团队针对这一问题,采用强化学习(RL)训练方法,通过分组相对策略优化(Group Relative Policy Optimization, GRPO)算法,结合基于奖励的课程采样策略(Reward-based Curriculum Sampling, RCS),将其创新性地应用在意图识别任务上,

来自主题: AI技术研报
5859 点击    2025-05-16 15:25
ICML Spotlight | MCU:全球首个生成式开放世界基准,革新通用AI评测范式

ICML Spotlight | MCU:全球首个生成式开放世界基准,革新通用AI评测范式

ICML Spotlight | MCU:全球首个生成式开放世界基准,革新通用AI评测范式

开发能在开放世界中完成多样任务的通用智能体,是AI领域的核心挑战。开放世界强调环境的动态性及任务的非预设性,智能体必须具备真正的泛化能力才能稳健应对。然而,现有评测体系多受限于任务多样化不足、任务数量有限以及环境单一等因素,难以准确衡量智能体是否真正「理解」任务,或仅是「记住」了特定解法。

来自主题: AI技术研报
5790 点击    2025-05-14 10:26
只有通过海量测试才能抓住泛化性的本质吗?

只有通过海量测试才能抓住泛化性的本质吗?

只有通过海量测试才能抓住泛化性的本质吗?

当以端到端黑盒训练为代表的深度学习深陷低效 Scaling Law 而无法自拔时,我们是否可以回到起点重看模型表征本身——究竟什么才是一个人工智能模型的「表征质量」或者「泛化性」?我们真的只有通过海量的测试数据才能抓住泛化性的本质吗?或者说,能否在数学上找到一个定理,直接从表征逻辑复杂度本身就给出一个对模型泛化性的先验的判断呢?

来自主题: AI技术研报
7732 点击    2025-05-11 14:35
AI无师自通,搞定所有家务!π0.5突破泛化极限,UC伯克利系出品

AI无师自通,搞定所有家务!π0.5突破泛化极限,UC伯克利系出品

AI无师自通,搞定所有家务!π0.5突破泛化极限,UC伯克利系出品

具身智能最大的挑战在于泛化能力,即在陌生环境中正确完成任务。最近,Physical Intelligence推出全新的π0.5 VLA模型,通过异构任务协同训练实现了泛化,各种家务都能拿捏。

来自主题: AI技术研报
7265 点击    2025-05-06 14:29