AI资讯新闻榜单内容搜索-VLA

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: VLA
目标更重要?国内公司超越Generalist,进化到动作中心世界模型

目标更重要?国内公司超越Generalist,进化到动作中心世界模型

目标更重要?国内公司超越Generalist,进化到动作中心世界模型

最近,具身智能圈被 Generalist CEO 的一篇长文《Going Beyond World Models & VLAs》刷屏。文章抛出了一个看似振聋发聩的观点:目标远比工具标签更重要。与其陷入 “我们到底是在做 VLA(视觉 - 语言 - 动作模型)还是世界模型(World Model)” 的教条之争,不如回归本源:让机器高效、准确地作用于物理世界。

来自主题: AI技术研报
9919 点击    2026-04-15 09:45
统一VLA范式!港科大开源StarVLA乐高式架构,复现成本大幅降低

统一VLA范式!港科大开源StarVLA乐高式架构,复现成本大幅降低

统一VLA范式!港科大开源StarVLA乐高式架构,复现成本大幅降低

当前具身智能的VLA(Vision-Language-Action)赛道正陷入典型的「碎片化」泥潭:不同团队采用异构的动作解码范式、强耦合的数据管线、互不兼容的评测协议,导致方法难以横向对比,复现成本极高。

来自主题: AI技术研报
8624 点击    2026-04-14 08:42
国内首个!加入六维力的全感知数采,让VLA模型进化出力触觉

国内首个!加入六维力的全感知数采,让VLA模型进化出力触觉

国内首个!加入六维力的全感知数采,让VLA模型进化出力触觉

这个月,具身智能领域又卷出新高度:硅谷独角兽公司 Generalist AI 发布全新一代基础模型 GEN-1,将机器人包装手机、折纸箱这些活的平均成功率直接拉到了创纪录的 99%,折纸箱的速度更是飙到了以前的三倍(34s vs 12.1s)。

来自主题: AI资讯
8000 点击    2026-04-13 14:33
迎接范式革命:最新、最全的大模型Latent Space综述,NUS、复旦、清华等联合出品

迎接范式革命:最新、最全的大模型Latent Space综述,NUS、复旦、清华等联合出品

迎接范式革命:最新、最全的大模型Latent Space综述,NUS、复旦、清华等联合出品

从 2024 年底的关于潜在空间的早期探索,再到 2025 年底和 2026 年初的相关研究爆发,潜空间范式正在彻底重塑大模型 (LLMs, VLMs, VLAs 等延伸模型) 的底层设计逻辑。

来自主题: AI技术研报
7095 点击    2026-04-13 14:31
对标英伟达EgoScale数据路径,清华系孵化星忆科技拿到首轮融资

对标英伟达EgoScale数据路径,清华系孵化星忆科技拿到首轮融资

对标英伟达EgoScale数据路径,清华系孵化星忆科技拿到首轮融资

具身数据层的全球竞赛正在迅速升温。NVIDIA Research在2026年发布EgoScale数据与训练框架,在Ego-centric人类操作视频上训练VLA模型,用 20,854小时带动作标注的第一人称人类视频,观察到数据规模和验证损失之间接近对数线性的scaling law。1X收集人类第一视角及家庭行为数据,通过 Sunday项目采集百万小时级家庭场景视频。

来自主题: AI资讯
6966 点击    2026-03-31 15:03
直指具身智能核心瓶颈,千寻智能高阳团队提出 Point-VLA:首次以视觉定位实现语言指令精准执行

直指具身智能核心瓶颈,千寻智能高阳团队提出 Point-VLA:首次以视觉定位实现语言指令精准执行

直指具身智能核心瓶颈,千寻智能高阳团队提出 Point-VLA:首次以视觉定位实现语言指令精准执行

设想这样一个场景:你打电话让同事去办公室某个地方拿东西,仅凭语言描述位置是多么困难。在办公室里,从一堆已经喝过的矿泉水瓶中,让对面同学递过来你之前喝过的那个,只用语言几乎无法准确描述——「左边第二个」?「有点旧的那个」?这时候,人们更倾向于用手指一下,或者拿出图片来指代。

来自主题: AI技术研报
7278 点击    2026-03-31 14:37
ICRA 2026 | NUS邵林团队提出Goal-VLA:生成式大模型化身「世界模型」,实现零样本机器人操作

ICRA 2026 | NUS邵林团队提出Goal-VLA:生成式大模型化身「世界模型」,实现零样本机器人操作

ICRA 2026 | NUS邵林团队提出Goal-VLA:生成式大模型化身「世界模型」,实现零样本机器人操作

在具身智能领域,机器人操作的泛化能力一直是一个核心挑战。当前,视觉 - 语言 - 动作(VLA)模型主要分为两大范式:端到端模型与分层模型。端到端 VLA 模型(如 RT-2 [1], OpenVLA [2])严重依赖海量的 “指令 - 视觉 - 动作” 成对数据,获取成本极高,导致其在面对新任务或新场景时零样本泛化能力受限。

来自主题: AI技术研报
5882 点击    2026-03-30 15:00
告别噪声初始化:NTU MARS Lab提出A2A新范式,实现机器人高性能单步动作生成

告别噪声初始化:NTU MARS Lab提出A2A新范式,实现机器人高性能单步动作生成

告别噪声初始化:NTU MARS Lab提出A2A新范式,实现机器人高性能单步动作生成

在机器人领域,扩散策略(Diffusion Policy)已经成为了标准模仿学习策略和 VLA 动作生成范式,但其「从随机噪声中迭代解噪」的机制带来了不容忽视的推理延迟。如果机器人不再从随机高斯噪声开始「盲猜」,是否可以基于「刚刚做了什么」来预测「下一步做什么」呢?

来自主题: AI技术研报
5904 点击    2026-03-20 09:39
LaPha:你的Agent轨迹其实嵌入在一个Poincaré球?

LaPha:你的Agent轨迹其实嵌入在一个Poincaré球?

LaPha:你的Agent轨迹其实嵌入在一个Poincaré球?

在经典强化学习问题中,动作空间通常是离散且有限的。例如在围棋中,一步棋就是一次行动;在机器人控制或视觉 - 语言 - 行动(VLA)模型中,动作往往来自一个有限的控制指令集合。

来自主题: AI技术研报
5958 点击    2026-03-18 14:54