AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
英伟达拿出推理版VLA:Alpamayo-R1让自动驾驶AI更会动脑子

英伟达拿出推理版VLA:Alpamayo-R1让自动驾驶AI更会动脑子

英伟达拿出推理版VLA:Alpamayo-R1让自动驾驶AI更会动脑子

当今自动驾驶模型越来越强大,摄像头、雷达、Transformer 网络一齐上阵,似乎什么都「看得见」。但真正的挑战在于:模型能否像人一样「想明白」为什么要这么开?

来自主题: AI技术研报
7420 点击    2025-12-02 09:19
2025必看系列:AI如何重新定义研究?万字长文讲透Deep Research

2025必看系列:AI如何重新定义研究?万字长文讲透Deep Research

2025必看系列:AI如何重新定义研究?万字长文讲透Deep Research

如果AI的终极使命是拓展人类认知的边界,那么“研究”——这项系统性探索未知的核心活动,无疑是其最重要的试金石。2024年,AI Agent技术迎来突破性进展,一个名为 Deep Research(深度研究) 的方向正以前所未有的速度站上风口,成为推动“AI应用元年”的真正引擎。

来自主题: AI技术研报
9925 点击    2025-12-01 15:08
如何让Agent具备「情感」当前趋势、挑战与未来|来自298篇研究的最新综述

如何让Agent具备「情感」当前趋势、挑战与未来|来自298篇研究的最新综述

如何让Agent具备「情感」当前趋势、挑战与未来|来自298篇研究的最新综述

在当前的情感计算研究中,存在一个显著的“断层”:我们拥有越来越精准的情感识别算法(输入端),也有了逼真的语音和面部生成技术(输出端),但连接这两端的“中间层”却鲜有人问津。机器能识别出你在愤怒,也能模拟出抱歉的语气,但它真的理解愤怒的起因吗?它能基于这种理解去调整后续的决策逻辑吗?

来自主题: AI技术研报
7448 点击    2025-12-01 14:33
你对ChatGPT越粗鲁,它赚得越多!最新研究揭秘:一条不礼貌提示语会多输出14个token,企业用户每天或多花数十万美元

你对ChatGPT越粗鲁,它赚得越多!最新研究揭秘:一条不礼貌提示语会多输出14个token,企业用户每天或多花数十万美元

你对ChatGPT越粗鲁,它赚得越多!最新研究揭秘:一条不礼貌提示语会多输出14个token,企业用户每天或多花数十万美元

一般人和 ChatGPT 聊天时,往往不会在意要不要讲究礼貌。但来自爱荷华大学的一项最新研究显示:即便回答内容几乎相同,对 ChatGPT 粗鲁无礼也会让你花费更高的输出成本。

来自主题: AI技术研报
6675 点击    2025-12-01 14:29
NeurIPS 2025 | DePass:通过单次前向传播分解实现统一的特征归因

NeurIPS 2025 | DePass:通过单次前向传播分解实现统一的特征归因

NeurIPS 2025 | DePass:通过单次前向传播分解实现统一的特征归因

随着大型语言模型在各类任务中展现出卓越的生成与推理能力,如何将模型输出精确地追溯到其内部计算过程,已成为 AI 可解释性研究的重要方向。然而,现有方法往往计算代价高昂、难以揭示中间层的信息流动;同时,不同层面的归因(如 token、模型组件或表示子空间)通常依赖各自独立的特定方法,缺乏统一且高效的分析框架。

来自主题: AI技术研报
5411 点击    2025-12-01 13:49
NeurIPS 2025 | 英伟达发布Nemotron-Flash:以GPU延迟为核心重塑小模型架构

NeurIPS 2025 | 英伟达发布Nemotron-Flash:以GPU延迟为核心重塑小模型架构

NeurIPS 2025 | 英伟达发布Nemotron-Flash:以GPU延迟为核心重塑小模型架构

导读 过去两年,小语言模型(SLM)在业界备受关注:参数更少、结构更轻,理应在真实部署中 “更快”。但只要真正把它们跑在 GPU 上,结论往往令人意外 —— 小模型其实没有想象中那么快。

来自主题: AI技术研报
7498 点击    2025-12-01 10:09
NeurIPS 2025 | Language Ranker:从推荐系统的视角反思并优化大模型解码过程

NeurIPS 2025 | Language Ranker:从推荐系统的视角反思并优化大模型解码过程

NeurIPS 2025 | Language Ranker:从推荐系统的视角反思并优化大模型解码过程

在大语言模型(LLM)的研究浪潮中,绝大多数工作都聚焦于优化模型的输出分布 —— 扩大模型规模、强化分布学习、优化奖励信号…… 然而,如何将这些输出分布真正转化为高质量的生成结果 —— 即解码(decoding)阶段,却没有得到足够的重视。

来自主题: AI技术研报
6048 点击    2025-12-01 10:06
AIGC检测为何频频“看走眼”?腾讯优图揭秘:问题可能出在数据源头

AIGC检测为何频频“看走眼”?腾讯优图揭秘:问题可能出在数据源头

AIGC检测为何频频“看走眼”?腾讯优图揭秘:问题可能出在数据源头

近日,腾讯优图实验室联合华东理工大学、北京大学等研究团队在A生成图像检测(AI-Generated Image Detection)泛化问题上展开研究,提出Dual Data Alignment(双重数据对齐,DDA)方法,从数据层面系统性抑制“偏差特征”,显著提升检测器在跨模型、跨数据域场景下的泛化能力。

来自主题: AI技术研报
6253 点击    2025-11-30 15:10