AI资讯新闻榜单内容搜索-泛化能力

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 泛化能力
ICCV 2025 Highlight | 3D真值生成新范式,开放驾驶场景的语义Occupancy自动化标注!

ICCV 2025 Highlight | 3D真值生成新范式,开放驾驶场景的语义Occupancy自动化标注!

ICCV 2025 Highlight | 3D真值生成新范式,开放驾驶场景的语义Occupancy自动化标注!

本文介绍了来自北京大学王选计算机研究所王勇涛团队及合作者的最新研究成果 AutoOcc。针对开放自动驾驶场景,该篇工作提出了一个高效、高质量的 Open-ended 三维语义占据栅格真值标注框架,无需任何人类标注即可超越现有语义占据栅格自动化标注和预测管线,并展现优秀的通用性和泛化能力,论文已被 ICCV 2025 录用为 Highlight。

来自主题: AI技术研报
6110 点击    2025-08-29 11:42
手把手教机器人:斯坦福大学提出RTR框架,让机械臂助力人形机器人真机训练

手把手教机器人:斯坦福大学提出RTR框架,让机械臂助力人形机器人真机训练

手把手教机器人:斯坦福大学提出RTR框架,让机械臂助力人形机器人真机训练

人形机器人的运动控制,正成为强化学习(RL)算法应用的下一个热点研究领域。当前,主流方案大多遵循 “仿真到现实”(Sim-to-Real)的范式。研究者们通过域随机化(Domain Randomization)技术,在成千上万个具有不同物理参数的仿真环境中训练通用控制模型,期望它能凭借强大的泛化能力,直接适应动力学特性未知的真实世界。

来自主题: AI技术研报
6373 点击    2025-08-27 11:05
打工半年后,Atlas觉醒!「大行为模型」零代码上新技能,AI工业革命来了?

打工半年后,Atlas觉醒!「大行为模型」零代码上新技能,AI工业革命来了?

打工半年后,Atlas觉醒!「大行为模型」零代码上新技能,AI工业革命来了?

Atlas进厂打工技能再进化!波士顿动力联手丰田研究院,首次让人形机器人Atlas能够通过语言指令驱动,一次性处理从折叠配件到整理仓架的复杂作业。这种LBM(Large Behavior Models,大行为模型)方法让机器人具备跨任务泛化能力,迈出了工业化实践的一大步。

来自主题: AI资讯
6369 点击    2025-08-22 11:20
CoRL 2025|隐空间扩散世界模型LaDi-WM大幅提升机器人操作策略的成功率和跨场景泛化能力

CoRL 2025|隐空间扩散世界模型LaDi-WM大幅提升机器人操作策略的成功率和跨场景泛化能力

CoRL 2025|隐空间扩散世界模型LaDi-WM大幅提升机器人操作策略的成功率和跨场景泛化能力

在机器人操作任务中,预测性策略近年来在具身人工智能领域引起了广泛关注,因为它能够利用预测状态来提升机器人的操作性能。然而,让世界模型预测机器人与物体交互的精确未来状态仍然是一个公认的挑战,尤其是生成高质量的像素级表示。

来自主题: AI技术研报
6255 点击    2025-08-18 11:53
专访星海图赵行:热闹的Demo不等于泛化能力,具身智能胜负仍在数据量

专访星海图赵行:热闹的Demo不等于泛化能力,具身智能胜负仍在数据量

专访星海图赵行:热闹的Demo不等于泛化能力,具身智能胜负仍在数据量

人头攒动的2025WRC(世界机器人大会)上,不乏各种酷炫的Demo展示,可在一众敲锣打鼓的机器人表演中,具身智能公司星海图展位上,机器人却在安静地执行铺床任务。

来自主题: AI资讯
5695 点击    2025-08-13 12:43
1句话高质量生成游戏3D动作,北大新方法刷新动画制作SOTA

1句话高质量生成游戏3D动作,北大新方法刷新动画制作SOTA

1句话高质量生成游戏3D动作,北大新方法刷新动画制作SOTA

北京大学提出了ReMoMask:一种全新的基于检索增强生成的Text-to-Motion框架。它是一个集成三项关键创新的统一框架:(1)基于动量的双向文本-动作模型,通过动量队列将负样本的尺度与批次大小解耦,显著提高了跨模态检索精度;(2)语义时空注意力机制,在部件级融合过程中强制执行生物力学约束,消除异步伪影;(3)RAG-无分类器引导结合轻微的无条件生成以增强泛化能力。

来自主题: AI技术研报
7212 点击    2025-08-09 11:32
机器人不只会抓和放!北京大学X银河通用「世界-动作模型」赋能全面泛化的非抓握技能

机器人不只会抓和放!北京大学X银河通用「世界-动作模型」赋能全面泛化的非抓握技能

机器人不只会抓和放!北京大学X银河通用「世界-动作模型」赋能全面泛化的非抓握技能

尽管当前的机器人视觉语言操作模型(VLA)展现出一定的泛化能力,但其操作模式仍以准静态的抓取与放置(pick-and-place)为主。相比之下,人类在操作物体时常常采用推动、翻转等更加灵活的方式。若机器人仅掌握抓取,将难以应对现实环境中的复杂任务。

来自主题: AI技术研报
5917 点击    2025-08-02 13:19
ACM MM 2025 | EventVAD:7B参数免训练,视频异常检测新SOTA

ACM MM 2025 | EventVAD:7B参数免训练,视频异常检测新SOTA

ACM MM 2025 | EventVAD:7B参数免训练,视频异常检测新SOTA

现有视频异常检测(Video Anomaly Detection, VAD)方法中,有监督方法依赖大量领域内训练数据,对未见过的异常场景泛化能力薄弱;而无需训练的方法虽借助大语言模型(LLMs)的世界知识实现检测,但存在细粒度视觉时序定位不足、事件理解不连贯、模型参数冗余等问题。

来自主题: AI技术研报
5979 点击    2025-07-21 10:28
VLA 推理新范式!一致性模型 CEED-VLA 实现四倍加速!

VLA 推理新范式!一致性模型 CEED-VLA 实现四倍加速!

VLA 推理新范式!一致性模型 CEED-VLA 实现四倍加速!

近年来,视觉 - 语言 - 动作(Vision-Language-Action, VLA)模型因其出色的多模态理解与泛化能力,已成为机器人领域的重要研究方向。尽管相关技术取得了显著进展,但在实际部署中,尤其是在高频率和精细操作等任务中,VLA 模型仍受到推理速度瓶颈的严重制约。

来自主题: AI技术研报
6048 点击    2025-07-14 11:12
用MoE打造DNA基础模型更强范式!人大实现seq2func全新突破

用MoE打造DNA基础模型更强范式!人大实现seq2func全新突破

用MoE打造DNA基础模型更强范式!人大实现seq2func全新突破

中国人民大学高瓴人工智能学院的研究团队提出通过创新模型架构来提升性能,其SPACE模型引入新架构,提升了DNA基础模型的性能与泛化能力,在多项测试中表现优异。

来自主题: AI资讯
8380 点击    2025-07-11 16:59