
亿级短视频数据突破具身智能Scaling Law!Being-H0提出VLA训练新范式
亿级短视频数据突破具身智能Scaling Law!Being-H0提出VLA训练新范式如何让机器人从看懂世界,到理解意图,再到做出动作,是具身智能领域当下最受关注的技术重点。 但真机数据的匮乏,正在使对应的视觉-语言-动作(VLA)模型面临发展瓶颈。
如何让机器人从看懂世界,到理解意图,再到做出动作,是具身智能领域当下最受关注的技术重点。 但真机数据的匮乏,正在使对应的视觉-语言-动作(VLA)模型面临发展瓶颈。
你有没有想过,有一天你可能会对着手机屏幕吐露最深的心事,而屏幕另一端的不是人类治疗师,而是一个AI聊天机器人?听起来很奇怪对吧?但如果我告诉你,这个机器人可能比你见过的任何治疗师都更了解你,24小时随时在那里倾听,永远不会评判你,而且正在帮助成千上万的人走出心理困境,你还会觉得奇怪吗?
我们知道,训练大模型本就极具挑战,而随着模型规模的扩大与应用领域的拓展,难度也在不断增加,所需的数据更是海量。大型语言模型(LLM)主要依赖大量文本数据,视觉语言模型(VLM)则需要同时包含文本与图像的数据,而在机器人领域,视觉 - 语言 - 行动模型(VLA)则要求大量真实世界中机器人执行任务的数据。
这也太惊人了吧?!
如何让AI像人一样,仅凭少量演示,就能稳健适应复杂多变的真实场景? 美国东北大学和波士顿动力RAI提出了HEP(Hierarchical Equivariant Policy via Frame Transfer)框架,首创“坐标系转移接口”,让机器人学习更高效、泛化更灵活。
人形机器人作为用于复杂运动控制、人机交互和通用物理智能的多功能平台,正受到前所未有的关注。然而,由于其复杂的动力学、欠驱动和多样化的任务需求,实现高效的人形机器人全身控制 (Whole-Body Control,WBC) 仍然是一项根本性的挑战。
机器人也能实现新陈代谢,自我生长了?!
让机器人像人一样边看边理解,来自浙江大学和vivo人工智能实验室的研究团队带来了新进展。
7月21日,《朝鲜新报》发布了对金日成综合大学信息科学部人工智能技术研究所所长金光赫(김광혁)的专访。7月21日,《朝鲜新报》发布了对金日成综合大学信息科学部人工智能技术研究所所长金光赫(김광혁)的专访。
刚刚,继4月初获得5.28亿融资后,短短2个月,国内顶尖具身智能玩家又斩获近6亿元融资!不久前,其首款商用级人形机器人Moz1震撼发布,可单手精准抽纸,具备超强感知与执行力。凭借三维核心竞争力,他们正向万亿级赛道加速冲刺。