AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
大模型哪里出问题、怎么修,这篇可解释性综述一次讲清

大模型哪里出问题、怎么修,这篇可解释性综述一次讲清

大模型哪里出问题、怎么修,这篇可解释性综述一次讲清

过去几年,机制可解释性(Mechanistic Interpretability)让研究者得以在 Transformer 这一 “黑盒” 里追踪信息如何流动、表征如何形成:从单个神经元到注意力头,再到跨层电路。但在很多场景里,研究者真正关心的不只是 “模型为什么这么答”,还包括 “能不能更稳、更准、更省,更安全”。

来自主题: AI技术研报
10525 点击    2026-01-28 10:13
高效智能体的「幕后推手」是谁?一篇综述带你从记忆×工具学习×规划看透

高效智能体的「幕后推手」是谁?一篇综述带你从记忆×工具学习×规划看透

高效智能体的「幕后推手」是谁?一篇综述带你从记忆×工具学习×规划看透

随着大模型能力的跃迁,业界关注点正在从 “模型能不能做” 快速转向 “智能体能不能落地”。过去一年可以看到大量工作在提升智能体的有效性(effectiveness):如何让它更聪明、更稳、更会用工具、更能完成复杂任务。

来自主题: AI技术研报
7579 点击    2026-01-27 16:19
思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

在 LLM 时代,思维链( CoT)已成为解锁模型复杂推理能力的关键钥匙。然而,CoT 的冗长问题一直困扰着研究者——中间推理步骤和解码操作带来了巨大的计算开销和显存占用,严重制约了模型的推理效率。

来自主题: AI技术研报
7413 点击    2026-01-27 16:17
让Agent画思维导图稳固长期记忆:新框架实现稳定长期学习,准确率提升38%

让Agent画思维导图稳固长期记忆:新框架实现稳定长期学习,准确率提升38%

让Agent画思维导图稳固长期记忆:新框架实现稳定长期学习,准确率提升38%

思维导图曾被证明可以帮助学习障碍者快速提升成绩,那么当前已经可堪一用的智能体系统如果引入类似工具是否可以帮助改善长期学习记忆能力呢?有研究团队做出了探索性尝试。

来自主题: AI技术研报
6077 点击    2026-01-27 09:40
北大AI研究颠覆认知:我们看到的不是真实,而是被语言润色过的现实

北大AI研究颠覆认知:我们看到的不是真实,而是被语言润色过的现实

北大AI研究颠覆认知:我们看到的不是真实,而是被语言润色过的现实

近日,北京大学朱毅鑫教授课题组、北京大学毕彦超教授课题组和山西医科大学第一医院王效春团队通过结合 AI 模型和大脑损伤患者的数据,发现语言其实是一副无形的智能眼镜,时刻在悄悄修饰着我们看到的世界。我们可能以为视觉就是眼睛看到什么就是什么,但是这项成果说明了视觉从来都不是孤立的。事实上,当我们在看图片的时候,其实不只是在看,而是在进行被语言调制过的看。

来自主题: AI技术研报
8132 点击    2026-01-27 09:27
DeepSeek-R1推理智能从哪儿来?谷歌新研究:模型内心多个角色吵翻了

DeepSeek-R1推理智能从哪儿来?谷歌新研究:模型内心多个角色吵翻了

DeepSeek-R1推理智能从哪儿来?谷歌新研究:模型内心多个角色吵翻了

过去两年,大模型的推理能力出现了一次明显的跃迁。在数学、逻辑、多步规划等复杂任务上,推理模型如 OpenAI 的 o 系列、DeepSeek-R1、QwQ-32B,开始稳定拉开与传统指令微调模型的差距。直观来看,它们似乎只是思考得更久了:更长的 Chain-of-Thought、更高的 test-time compute,成为最常被引用的解释。

来自主题: AI技术研报
6514 点击    2026-01-26 15:02
斯坦福×英伟达发布AI推理新范式,刷新了多领域SOTA

斯坦福×英伟达发布AI推理新范式,刷新了多领域SOTA

斯坦福×英伟达发布AI推理新范式,刷新了多领域SOTA

斯坦福与英伟达联合发布重磅论文 TTT-Discover,打破「模型训练完即定型」的铁律。它让 AI 在推理阶段针对特定难题「现场长脑子」,不惜花费数百美元算力,只为求得一次打破纪录的极值。从重写数学猜想到碾压人类代码速度,这种「激进进化」正在重新定义机器发现的边界。

来自主题: AI技术研报
7572 点击    2026-01-26 14:23
关于多模态大模型Token压缩技术进展,看这一篇就够了

关于多模态大模型Token压缩技术进展,看这一篇就够了

关于多模态大模型Token压缩技术进展,看这一篇就够了

近年来多模态大模型在视觉感知,长视频问答等方面涌现出了强劲的性能,但是这种跨模态融合也带来了巨大的计算成本。高分辨率图像和长视频会产生成千上万个视觉 token ,带来极高的显存占用和延迟,限制了模型的可扩展性和本地部署。

来自主题: AI技术研报
9456 点击    2026-01-26 14:22