AI资讯新闻榜单内容搜索-ICL

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: ICL
ICLR 2025 | 原生3D+流匹配,现有SOTA被GaussianAnything超越

ICLR 2025 | 原生3D+流匹配,现有SOTA被GaussianAnything超越

ICLR 2025 | 原生3D+流匹配,现有SOTA被GaussianAnything超越

在 ICLR 2025 中,来自南洋理工大学 S-Lab、上海 AI Lab、北京大学以及香港大学的研究者提出的基于 Flow Matching 技术的全新 3D 生成框架 GaussianAnything,针对现有问题引入了一种交互式的点云结构化潜空间,实现了可扩展的、高质量的 3D 生成,并支持几何-纹理解耦生成与可控编辑能力。

来自主题: AI技术研报
6688 点击    2025-03-11 16:13
AI研究员首次通过双盲同行评审,论文登上顶会ICLR!但已撤稿

AI研究员首次通过双盲同行评审,论文登上顶会ICLR!但已撤稿

AI研究员首次通过双盲同行评审,论文登上顶会ICLR!但已撤稿

历史上首个能通过双盲同行评审的AI系统Carl诞生了。它是Autoscience研究所的成果,能完成从构思到展示的整个研究过程,撰写的论文已被国际顶会ICLR接受,其能力令人惊叹。

来自主题: AI技术研报
5936 点击    2025-03-09 14:17
无需大量标注也能理解3D!新研究登上ICLR 2025 Spotlight

无需大量标注也能理解3D!新研究登上ICLR 2025 Spotlight

无需大量标注也能理解3D!新研究登上ICLR 2025 Spotlight

来自哥本哈根大学、苏黎世联邦理工学院等机构的研究人员,提出了一个全新的多模态Few-shot 3D分割设定和创新方法。无需额外标注成本,该方法就可以融合文本、2D和3D信息,让模型迅速掌握新类别。

来自主题: AI技术研报
3545 点击    2025-03-08 09:45
用AgenticLU长上下文理解,LLM澄清链CoC实现自学,答案召回率高达97.8% | 最新

用AgenticLU长上下文理解,LLM澄清链CoC实现自学,答案召回率高达97.8% | 最新

用AgenticLU长上下文理解,LLM澄清链CoC实现自学,答案召回率高达97.8% | 最新

LLM一个突出的挑战是如何有效处理和理解长文本。就像下图所示,准确率会随着上下文长度显著下降,那么究竟应该怎样提升LLM对长文本理解的准确率呢?

来自主题: AI技术研报
7105 点击    2025-03-06 09:54
搞RAG开发,听都没听说过Embedding模型排名,快看下MMTEB嵌入基准 | ICLR2025

搞RAG开发,听都没听说过Embedding模型排名,快看下MMTEB嵌入基准 | ICLR2025

搞RAG开发,听都没听说过Embedding模型排名,快看下MMTEB嵌入基准 | ICLR2025

什么,你在开发RAG竟然还没听说过Embedding模型还有排名?在AI应用开发热潮中,Embedding模型的选择已成为决定RAG系统成败的关键因素。然而,令人惊讶的是,许多开发者仍依靠直觉或跟风选择模型,而非基于系统化评估。

来自主题: AI技术研报
8992 点击    2025-03-03 10:40
ICLR 2025 | 机器人安灯泡、切东西都能拿捏,可操控轨迹跟踪的DexTrack来了

ICLR 2025 | 机器人安灯泡、切东西都能拿捏,可操控轨迹跟踪的DexTrack来了

ICLR 2025 | 机器人安灯泡、切东西都能拿捏,可操控轨迹跟踪的DexTrack来了

现实世界的机器人距离科幻小说里的机器人世界还有多远?通用灵巧操控何时才能实现?朝着这一伟大的目标,研究通用灵巧操控轨迹跟踪的 DexTrack 便应用而生。

来自主题: AI技术研报
8373 点击    2025-03-02 15:29
无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25

无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25

无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25

Diffusion Transformer模型模型通过token粒度的缓存方法,实现了图像和视频生成模型上无需训练的两倍以上的加速。

来自主题: AI技术研报
5987 点击    2025-02-28 15:06
ICLR 2025|浙大、千问发布预训练数据管理器DataMan,53页细节满满

ICLR 2025|浙大、千问发布预训练数据管理器DataMan,53页细节满满

ICLR 2025|浙大、千问发布预训练数据管理器DataMan,53页细节满满

在 Scaling Law 背景下,预训练的数据选择变得越来越重要。然而现有的方法依赖于有限的启发式和人类的直觉,缺乏全面和明确的指导方针。在此背景下,该研究提出了一个数据管理器 DataMan,其可以从 14 个质量评估维度对 15 个常见应用领域的预训练数据进行全面质量评分和领域识别。

来自主题: AI技术研报
8145 点击    2025-02-28 14:04
西湖大学提出闭环扩散控制策略,高效与闭环兼得

西湖大学提出闭环扩散控制策略,高效与闭环兼得

西湖大学提出闭环扩散控制策略,高效与闭环兼得

高效闭环控制是复杂系统控制的核心要求。传统控制方法受限于效率与适用性挑战;而新兴的扩散模型虽然表现出色,却难以满足高效闭环控制的要求。西湖大学研究团队最新提出的 CL-DiffPhyCon 框架,通过异步并行去噪技术,在闭环控制要求下,显著提升了控制效率和效果。论文最近被人工智能领域顶级会议 ICLR 2025 接收。

来自主题: AI资讯
5026 点击    2025-02-28 09:48
ICLR 2025|南洋理工大学AvatarGO,探索4D人与物体交互生成新方法

ICLR 2025|南洋理工大学AvatarGO,探索4D人与物体交互生成新方法

ICLR 2025|南洋理工大学AvatarGO,探索4D人与物体交互生成新方法

近年来,随着扩散模型和 Transformer 技术的快速发展,4D 人体 - 物体交互(HOI)的生成与驱动效果取得了显著进展。然而,当前主流方法仍依赖 SMPL [1] 这一人体先验模型来生成动作。

来自主题: AI技术研报
8192 点击    2025-02-23 16:39