能看AI推理过程的端到端自动驾驶,理想在走一条前所未有的路
能看AI推理过程的端到端自动驾驶,理想在走一条前所未有的路城市、高速一体化,从车位到车位的全程自动。
城市、高速一体化,从车位到车位的全程自动。
2024 年,理想汽车以突破 100 万辆的累计交付量成为中国智能电动车市场的一大亮点。然而,在这一辉煌背后,理想汽车正迎来一场前所未有的转型。
只凭同一个原生机器人大模型,五指灵巧手就能学会100多个复杂操作任务。
在智能驾驶行业激烈的“端到端”竞赛中,蔚来汽车计划提升“端到端”高阶智驾方案的交付节奏。
2024年,智驾领域最热的词,就是“端到端”。甚至,到了不聊端到端都没法出门的程度。
近期,智驾行业出现了一个融合了视觉、语言和动作的多模态大模型范式——VLA(Vision-Language-Action Model,即视觉-语言-动作模型),拥有更高的场景推理能力与泛化能力。不少智驾人士都将VLA视为当下“端到端”方案的2.0版本。
做好研发投入和成本控制的平衡,成为智驾比拼输赢的关键。
西安电子科大、上海AI Lab等提出多模态融合检测算法E2E-MFD,将图像融合和目标检测整合到一个单阶段、端到端框架中,简化训练的同时,提升目标解析性能。 相关论文已入选顶会NeurlPS 2024 Oral,代码、模型均已开源。
又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!
拔草星人的好消息来啦!中科院自动化所和阿里云一起推出了街景定位大模型,只要一张照片就能实现街道级精度的定位。