# 热门搜索 #
搜索
多模态大模型+自动驾驶=?ECCV'24这场Workshop开启招募啦
8066点击    2024-06-03 11:14

多模态,已经成为大模型最重要的发展方向之一。


从GPT-4V到GPT-4o,多模态大模型在多模态感知与理解方面的进展,正在不断惊艳世界。


然而,利用多模态大模型来应对自动驾驶中复杂场景,特别是罕见但关键的难例场景,仍然是一个未解的难题。



围绕这一挑战,现在,一场由香港科技大学、香港中文大学等研究机构发起的ECCV 2024 Workshop来了。


这场Workshop旨在研讨当前最先进的自动驾驶技术,与完全可靠的智能自动驾驶代理之间的差距,促进多模态大模型感知与理解、先进的AIGC技术在自动驾驶系统中的应用,以及端到端自动驾驶等方面的创新研究。


活动主要包括论文投稿和挑战赛两部分,如果你对此感兴趣,详情请看——


Workshop征稿


本次论文征稿关注自动驾驶场景多模态感知与理解、自动驾驶场景图像与视频生成、端到端自动驾驶、下一代工业级自动驾驶解决方案等主题,包括但不限于:


  • Corner case mining and generation for autonomous driving.
  • 3D object detection and scene understanding.
  • Semantic occupancy prediction.
  • Weakly supervised learning for 3D Lidar and 2D images.
  • One/few/zero-shot learning for autonomous perception.
  • End-to-end autonomous driving systems with Large Multimodal Models.
  • Large Language Models techniques adaptable for self-driving systems.
  • Safety/explainability/robustness for end-to-end autonomous driving.
  • Domain adaptation and generalization for end-to-end autonomous driving.


投稿规则:


本次投稿将通过OpenReview平台实行双盲审稿,接收两种形式的投稿:


  1. 完整论文:论文篇幅在14页内,采用ECCV格式,参考文献和补充材料篇幅不限。被接收的论文将成为ECCV官方论文集的一部分,不允许重新提交到其他会议。
  2. 扩展摘要:论文篇幅为4页内,采用CVPR格式,参考文献和补充材料篇幅不限。被接收的论文不会被包含在ECCV官方论文集中,允许重新提交到其他的会议。


投稿入口:


  1. 完整论文:https://openreview.net/group?id=thecvf.com/ECCV/2024/Workshop/W-CODA
  2. 扩展摘要:https://openreview.net/group?id=thecvf.com/ECCV/2024/Workshop/W-CODA_Abstract_Paper_Track


自动驾驶难例场景多模态理解与视频生成挑战赛


本次竞赛旨在提升多模态模型在自动驾驶中极端情况的感知与理解,并生成描绘这些极端情况的能力。


赛道一:自动驾驶难例场景感知与理解


本赛道关注多模态大模型(MLLMs)在自动驾驶难例场景的感知和理解能力,包括整体场景理解、区域理解和行驶建议等方面的能力,旨在推动更加可靠且可解释的自动驾驶代理的发展。


赛道二:自动驾驶难例场景视频生成


本赛道关注扩散模型生成多视角自动驾驶场景视频的能力。基于给定的自动驾驶场景3D几何结构,模型需要生成与之对应的自动驾驶场景视频,并保证时序一致性、多视角一致性、指定的分辨率和视频时长。


竞赛时间:2024年6月15日至2024年8月15日


奖项设置:冠军1000美元,亚军800美元,季军600美元(每赛道)


时间节点



Workshop主页:


https://coda-dataset.github.io/w-coda2024/


文章来源于“量子位”,作者“CK”


AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
免费使用GPT-4o

【免费】ffa.chat是一个完全免费的GPT-4o镜像站点,无需魔法付费,即可无限制使用GPT-4o等多个海外模型产品。

在线使用:https://ffa.chat/