AI资讯新闻榜单内容搜索-目标检测

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 目标检测
不再靠「猜坐标」!颜水成团队等联合发布PaDT多模态大模型:实现真正的多模态表征输出

不再靠「猜坐标」!颜水成团队等联合发布PaDT多模态大模型:实现真正的多模态表征输出

不再靠「猜坐标」!颜水成团队等联合发布PaDT多模态大模型:实现真正的多模态表征输出

近年来,多模态大语言模型(Multimodal Large Language Models, MLLMs)在图文理解、视觉问答等任务上取得了令人瞩目的进展。然而,当面对需要精细空间感知的任务 —— 比如目标检测、实例分割或指代表达理解时,现有模型却常常「力不从心」。

来自主题: AI技术研报
9020 点击    2025-10-16 12:31
ICCV 2025 | 基于时序增强关系敏感知识迁移的弱监督动态场景图生成

ICCV 2025 | 基于时序增强关系敏感知识迁移的弱监督动态场景图生成

ICCV 2025 | 基于时序增强关系敏感知识迁移的弱监督动态场景图生成

本文主要介绍来自该团队的最新论文:TRKT,该任务针对弱监督动态场景图任务展开研究,发现目前的性能瓶颈在场景中目标检测的质量,因为外部预训练的目标检测器在需要考虑关系信息和时序上下文的场景图视频数据上检测结果欠佳。

来自主题: AI技术研报
7237 点击    2025-09-05 11:18
会“思考”的目标检测模型来了!IDEA提出Rex-Thinker:基于思维链的指代物体检测模型,准确率+可解释性双突破

会“思考”的目标检测模型来了!IDEA提出Rex-Thinker:基于思维链的指代物体检测模型,准确率+可解释性双突破

会“思考”的目标检测模型来了!IDEA提出Rex-Thinker:基于思维链的指代物体检测模型,准确率+可解释性双突破

在日常生活中,我们常通过语言描述寻找特定物体:“穿蓝衬衫的人”“桌子左边的杯子”。如何让 AI 精准理解这类指令并定位目标,一直是计算机视觉的核心挑战。

来自主题: AI技术研报
8208 点击    2025-07-01 10:11
One RL to See Them All?一个强化学习统一视觉-语言任务!

One RL to See Them All?一个强化学习统一视觉-语言任务!

One RL to See Them All?一个强化学习统一视觉-语言任务!

强化学习 (RL) 显著提升了视觉-语言模型 (VLM) 的推理能力。然而,RL 在推理任务之外的应用,尤其是在目标检测 和目标定位等感知密集型任务中的应用,仍有待深入探索。

来自主题: AI技术研报
9023 点击    2025-05-27 17:33
视觉强化微调!DeepSeek R1技术成功迁移到多模态领域,全面开源

视觉强化微调!DeepSeek R1技术成功迁移到多模态领域,全面开源

视觉强化微调!DeepSeek R1技术成功迁移到多模态领域,全面开源

通过针对视觉的细分类、目标检测等任务设计对应的规则奖励,Visual-RFT 打破了 DeepSeek-R1 方法局限于文本、数学推理、代码等少数领域的认知,为视觉语言模型的训练开辟了全新路径!

来自主题: AI技术研报
6988 点击    2025-03-04 20:09
超越KL!大连理工发布Wasserstein距离知识蒸馏新方法|NeurIPS 2024

超越KL!大连理工发布Wasserstein距离知识蒸馏新方法|NeurIPS 2024

超越KL!大连理工发布Wasserstein距离知识蒸馏新方法|NeurIPS 2024

大连理工大学的研究人员提出了一种基于Wasserstein距离的知识蒸馏方法,克服了传统KL散度在Logit和Feature知识迁移中的局限性,在图像分类和目标检测任务上表现更好。

来自主题: AI技术研报
5952 点击    2025-01-10 16:00
超图计算+目标检测,性能新SOTA!清华发布Hyper-YOLO:用超图捕捉高阶视觉关联

超图计算+目标检测,性能新SOTA!清华发布Hyper-YOLO:用超图捕捉高阶视觉关联

超图计算+目标检测,性能新SOTA!清华发布Hyper-YOLO:用超图捕捉高阶视觉关联

Hyper-YOLO是一种新型目标检测方法,通过超图计算增强了特征之间的高阶关联,提升了检测性能,尤其在识别复杂场景下的中小目标时表现更出色。

来自主题: AI技术研报
7322 点击    2024-12-12 14:35
NeurIPS 2024 | 无需训练,一个框架搞定开放式目标检测、实例分割

NeurIPS 2024 | 无需训练,一个框架搞定开放式目标检测、实例分割

NeurIPS 2024 | 无需训练,一个框架搞定开放式目标检测、实例分割

本文介绍了来自北京大学王选计算机研究所的王勇涛团队的最新研究成果 VL-SAM。针对开放场景,该篇工作提出了一个基于注意力图提示的免训练开放式目标检测和分割框架 VL-SAM,在无需训练的情况下,取得了良好的开放式 (Open-ended) 目标检测和实例分割结果,论文已被 NeurIPS 2024 录用。

来自主题: AI技术研报
3759 点击    2024-11-16 15:21
超越YOLOv10/11、RT-DETRv2/3!中科大D-FINE重新定义边界框回归任务

超越YOLOv10/11、RT-DETRv2/3!中科大D-FINE重新定义边界框回归任务

超越YOLOv10/11、RT-DETRv2/3!中科大D-FINE重新定义边界框回归任务

在当前内卷严重的实时目标检测 (Real-time Object Detection) 领域,性能与效率始终是难以平衡的核心问题。绝大多数现有的 SOTA 方法仅依赖于更先进的模块替换或训练策略,导致性能逐渐趋于饱和。

来自主题: AI技术研报
10283 点击    2024-10-29 13:30