
CVPR 2024 | 一统所有目标感知任务,华科&字节提出目标感知基础模型GLEE
CVPR 2024 | 一统所有目标感知任务,华科&字节提出目标感知基础模型GLEE近年来,LLM 已经一统所有文本任务,展现了基础模型的强大潜力。一些视觉基础模型如 CLIP 在多模态理解任务上同样展现出了强大的泛化能力,其统一的视觉语言空间带动了一系列多模态理解、生成、开放词表等任务的发展。然而针对更细粒度的目标级别的感知任务,目前依然缺乏一个强大的基础模型。
来自主题: AI技术研报
9057 点击 2024-03-21 18:35