AI资讯新闻榜单内容搜索-VLA

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: VLA
真机数据白采了?银河通用具身VLA大模型已充分泛化,预训练基于仿真合成大数据!

真机数据白采了?银河通用具身VLA大模型已充分泛化,预训练基于仿真合成大数据!

真机数据白采了?银河通用具身VLA大模型已充分泛化,预训练基于仿真合成大数据!

今天,银河通用机器人发布了端到端具身抓取基础大模型「GraspVLA」,全球第一个预训练完全基于仿真合成大数据的具身大模型,展现出了比OpenVLA、π0、RT-2、RDT等模型更全面强大的泛化性和真实场景实用潜力。

来自主题: AI技术研报
3571 点击    2025-01-10 12:23
李想谈“理想”最新战略 —— 转型 AI 公司,目标国内大模型 Top3,未来构建统一 VLA 模型,成为你的硅基家人

李想谈“理想”最新战略 —— 转型 AI 公司,目标国内大模型 Top3,未来构建统一 VLA 模型,成为你的硅基家人

李想谈“理想”最新战略 —— 转型 AI 公司,目标国内大模型 Top3,未来构建统一 VLA 模型,成为你的硅基家人

2024 年,理想汽车以突破 100 万辆的累计交付量成为中国智能电动车市场的一大亮点。然而,在这一辉煌背后,理想汽车正迎来一场前所未有的转型。

来自主题: AI资讯
6240 点击    2024-12-26 10:05
开炒VLA,“端到端”过气了?

开炒VLA,“端到端”过气了?

开炒VLA,“端到端”过气了?

2024年,智驾领域最热的词,就是“端到端”。甚至,到了不聊端到端都没法出门的程度。

来自主题: AI资讯
5268 点击    2024-12-20 15:21
清华新VLA框架加速破解具身智能止步实验室“魔咒”,LLM开销节省4-6倍 | NeurIPS'24

清华新VLA框架加速破解具身智能止步实验室“魔咒”,LLM开销节省4-6倍 | NeurIPS'24

清华新VLA框架加速破解具身智能止步实验室“魔咒”,LLM开销节省4-6倍 | NeurIPS'24

计算、存储消耗高,机器人使用多模态模型的障碍被解决了! 来自清华大学的研究者们设计了DeeR-VLA框架,一种适用于VLA的“动态推理”框架,能将LLM部分的相关计算、内存开销平均降低4-6倍。

来自主题: AI技术研报
5881 点击    2024-11-30 16:29