独家丨雷军马云罕见握手,千寻智能30天完成30亿元融资
独家丨雷军马云罕见握手,千寻智能30天完成30亿元融资雷军和马云在具身智能赛道罕见"握手"。
雷军和马云在具身智能赛道罕见"握手"。
具身智能独角兽Generalist,刚刚推出了最新的研究成果——新模型Gen-1。在包装手机和折叠纸箱这些精细活儿上,它把机器人的成功率从64%硬生生拉到了99%,几乎告别了手残职业病。
Harness(驾驭)的风,终究还是从大模型,吹到了机器人!
近年来,Decision-Coupled World Model 与 Model-based RL 在机器人领域取得了显著成功。通过学习环境动力学模型,智能体能够在内部模拟未来,从而进行规划与决策。但当系统从单机器人扩展到多机器人时,问题开始变得棘手。
独家获悉,星海图近日再次斩获20亿B+轮融资。本轮融资的投资方,几乎集齐了“全生态”阵容:据悉,距离上轮融资仅过去1个月,星海图估值已接近翻倍,突破200+亿,刷新国产具身智能赛道估值新高。
没有仿真,没有预设参数,也没有剪辑空间。
一家具身智能公司,3月初刚刚注册,3月还没过完,估值就已远远超过10亿美元……
设想这样一个场景:你打电话让同事去办公室某个地方拿东西,仅凭语言描述位置是多么困难。在办公室里,从一堆已经喝过的矿泉水瓶中,让对面同学递过来你之前喝过的那个,只用语言几乎无法准确描述——「左边第二个」?「有点旧的那个」?这时候,人们更倾向于用手指一下,或者拿出图片来指代。
机器人能认出杯子,却看不懂杯口朝哪、离自己多远、该抓哪里。
在具身智能领域,机器人操作的泛化能力一直是一个核心挑战。当前,视觉 - 语言 - 动作(VLA)模型主要分为两大范式:端到端模型与分层模型。端到端 VLA 模型(如 RT-2 [1], OpenVLA [2])严重依赖海量的 “指令 - 视觉 - 动作” 成对数据,获取成本极高,导致其在面对新任务或新场景时零样本泛化能力受限。