近期,智驾行业出现了一个融合了视觉、语言和动作的多模态大模型范式——VLA(Vision-Language-Action Model,即视觉-语言-动作模型),拥有更高的场景推理能力与泛化能力。不少智驾人士都将VLA视为当下“端到端”方案的2.0版本。
近期,智驾行业出现了一个融合了视觉、语言和动作的多模态大模型范式——VLA(Vision-Language-Action Model,即视觉-语言-动作模型),拥有更高的场景推理能力与泛化能力。不少智驾人士都将VLA视为当下“端到端”方案的2.0版本。
做好研发投入和成本控制的平衡,成为智驾比拼输赢的关键。
西安电子科大、上海AI Lab等提出多模态融合检测算法E2E-MFD,将图像融合和目标检测整合到一个单阶段、端到端框架中,简化训练的同时,提升目标解析性能。 相关论文已入选顶会NeurlPS 2024 Oral,代码、模型均已开源。
又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!
拔草星人的好消息来啦!中科院自动化所和阿里云一起推出了街景定位大模型,只要一张照片就能实现街道级精度的定位。
在AI-2.0时代,OCR模型的研究难道到头了吗!?
在"无人泊车show挑战"环节,64辆小鹏汽车实现了车辆离人自动泊车;在"编队相互绕行挑战"中,6辆小鹏G9以8分57秒创造了AI智驾“语音操控6辆汽车轮流绕桩时间最快”吉尼斯世界纪录荣誉。
端到端是不是被“神话”了。
7月27号,蔚来举办了一场技术发布会,有芯片亮相,也有整车操作系统发布,有Nio Phone的正式上市,也有智能驾驶世界模型NWM的展示。发布会后的第二天,虎嗅汽车来到蔚来位于上海漕河泾的办公室,和蔚来智能驾驶副总裁任少卿聊了两个小时。
防不胜防!黑客通过显示器数据线泄露的信号,就能偷窥你的屏幕内容。