AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: 模型训练
喝下这一碗模型汤,掌握向量模型的训练秘方

喝下这一碗模型汤,掌握向量模型的训练秘方

喝下这一碗模型汤,掌握向量模型的训练秘方

那些曾在KDD时代Kaggle上打榜刷分的老炮儿,每每提起 Bagging 与 Boosting 这两项技术嘴角都压不住笑。

来自主题: AI技术研报
6655 点击    2025-05-10 14:49
Harmon:协调视觉表征,统一多模态理解和生成(模型已开源)

Harmon:协调视觉表征,统一多模态理解和生成(模型已开源)

Harmon:协调视觉表征,统一多模态理解和生成(模型已开源)

GPT-4o 生图功能的出现揭示了统一理解与生成模型的巨大潜力,然而如何在同一个框架内协调图像理解与生成这两种不同粒度的任务,是一个巨大的挑战。

来自主题: AI技术研报
7938 点击    2025-05-10 13:35
KuaiMod来了!快手用大模型重构短视频生态格局

KuaiMod来了!快手用大模型重构短视频生态格局

KuaiMod来了!快手用大模型重构短视频生态格局

在短视频成为亿万用户日常生活标配的当下,它不仅是一种娱乐方式,更是人们获取信息、表达观点、构建社交的主要媒介。

来自主题: AI技术研报
7049 点击    2025-05-09 17:19
谷歌DeepMind&CMU:过去引导LLM规划的方法是错的? 用GRASE-DC改进。ICLR2025

谷歌DeepMind&CMU:过去引导LLM规划的方法是错的? 用GRASE-DC改进。ICLR2025

谷歌DeepMind&CMU:过去引导LLM规划的方法是错的? 用GRASE-DC改进。ICLR2025

当您的Agent需要规划多步骤操作以达成目标时,比如游戏策略制定或旅行安排优化等等,传统规划方法往往需要复杂的搜索算法和多轮提示,计算成本高昂且效率不佳。来自Google DeepMind和CMU的研究者提出了一个简单却非常烧脑的问题:我们是否一直在用错误的方式选择示例来引导LLM学习规划?

来自主题: AI技术研报
8804 点击    2025-05-09 11:58
ICML 2025 | 清华、上海AI Lab等提出傅里叶位置编码,多项任务远超RoPE

ICML 2025 | 清华、上海AI Lab等提出傅里叶位置编码,多项任务远超RoPE

ICML 2025 | 清华、上海AI Lab等提出傅里叶位置编码,多项任务远超RoPE

长文本能力对语言模型(LM,Language Model)尤为重要,试想,如果 LM 可以处理无限长度的输入文本,我们可以预先把所有参考资料都喂给 LM,或许 LM 在应对人类的提问时就会变得无所不能。

来自主题: AI技术研报
7687 点击    2025-05-09 10:42
绝对零监督Absolute Zero:类AlphaZero自博弈赋能大模型推理,全新零数据训练范式问世

绝对零监督Absolute Zero:类AlphaZero自博弈赋能大模型推理,全新零数据训练范式问世

绝对零监督Absolute Zero:类AlphaZero自博弈赋能大模型推理,全新零数据训练范式问世

在人工智能领域,推理能力的进化已成为通向通用智能的核心挑战。近期,Reinforcement Learning with Verifiable Rewards(RLVR)范式下涌现出一批「Zero」类推理模型,摆脱了对人类显式推理示范的依赖,通过强化学习过程自我学习推理轨迹,显著减少了监督训练所需的人力成本。

来自主题: AI技术研报
6687 点击    2025-05-08 14:49
ICLR 2025 | 无需训练加速20倍,清华朱军组提出用于图像翻译的扩散桥模型推理算法DBIM

ICLR 2025 | 无需训练加速20倍,清华朱军组提出用于图像翻译的扩散桥模型推理算法DBIM

ICLR 2025 | 无需训练加速20倍,清华朱军组提出用于图像翻译的扩散桥模型推理算法DBIM

扩散模型(Diffusion Models)近年来在生成任务上取得了突破性的进展,不仅在图像生成、视频合成、语音合成等领域都实现了卓越表现,推动了文本到图像、视频生成的技术革新。然而,标准扩散模型的设计通常只适用于从随机噪声生成数据的任务,对于图像翻译或图像修复这类明确给定输入和输出之间映射关系的任务并不适合。

来自主题: AI技术研报
6846 点击    2025-05-08 14:23
北大、清华、UvA、CMU等联合发布:大模型逻辑推理能力最新综述

北大、清华、UvA、CMU等联合发布:大模型逻辑推理能力最新综述

北大、清华、UvA、CMU等联合发布:大模型逻辑推理能力最新综述

当前大模型研究正逐步从依赖扩展定律(Scaling Law)的预训练,转向聚焦推理能力的后训练。鉴于符号逻辑推理的有效性与普遍性,提升大模型的逻辑推理能力成为解决幻觉问题的关键途径。

来自主题: AI技术研报
6638 点击    2025-05-08 10:50