AI资讯新闻榜单内容搜索-思维链

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 思维链
腾讯发布SpecExit算法,无损压缩端到端加速2.5倍!解决大模型长思考效率难题

腾讯发布SpecExit算法,无损压缩端到端加速2.5倍!解决大模型长思考效率难题

腾讯发布SpecExit算法,无损压缩端到端加速2.5倍!解决大模型长思考效率难题

为破解大模型长思维链的效率难题,并且为了更好的端到端加速落地,我们将思考早停与投机采样无缝融合,提出了 SpecExit 方法,利用轻量级草稿模型预测 “退出信号”,在避免额外探测开销的同时将思维链长度缩短 66%,vLLM 上推理端到端加速 2.5 倍。

来自主题: AI技术研报
7157 点击    2025-10-24 16:53
Meta「透视」AI思维链:CRV推理诊断,准确率达 92%!

Meta「透视」AI思维链:CRV推理诊断,准确率达 92%!

Meta「透视」AI思维链:CRV推理诊断,准确率达 92%!

在最近一篇来自Meta FAIR团队的论文里,研究者找到了一种前所未有的方式——他们能实时看到AI的思考过程。这项名为CRV的方法,通过替换模型内部的MLP模块,让每一步推理都变得「可见」。这不是隐喻,而是可量化的现象。Meta用它让错误检测精度提升到92.47%,也让人类第一次得以窥见AI是怎么想错的。

来自主题: AI技术研报
8247 点击    2025-10-24 10:19
推理提速4倍!莫纳什、浙大提出动态拼接,大小模型智能协作

推理提速4倍!莫纳什、浙大提出动态拼接,大小模型智能协作

推理提速4倍!莫纳什、浙大提出动态拼接,大小模型智能协作

针对「大模型推理速度慢,生成token高延迟」的难题,莫纳什、北航、浙大等提出R-Stitch框架,通过大小模型动态协作,衡量任务风险后灵活选择:简单任务用小模型,关键部分用大模型。实验显示推理速度提升最高4倍,同时保证高准确率。

来自主题: AI技术研报
5883 点击    2025-10-18 12:21
又一推理新范式:将LLM自身视作「改进操作符」,突破长思维链极限

又一推理新范式:将LLM自身视作「改进操作符」,突破长思维链极限

又一推理新范式:将LLM自身视作「改进操作符」,突破长思维链极限

Meta 超级智能实验室、伦敦大学学院、Mila、Anthropic 等机构的研究者进行了探索。从抽象层面来看,他们将 LLM 视为其「思维」的改进操作符,实现一系列可能的策略。研究者探究了一种推理方法家族 —— 并行 - 蒸馏 - 精炼(Parallel-Distill-Refine, PDR),

来自主题: AI技术研报
8306 点击    2025-10-10 10:33
田渊栋与Russell团队联手,证明Transformer能在训练中自然学会叠加推理

田渊栋与Russell团队联手,证明Transformer能在训练中自然学会叠加推理

田渊栋与Russell团队联手,证明Transformer能在训练中自然学会叠加推理

该团队 2025 年的研究《Reasoning by superposition: A theoretical perspective on chain of continuous thought》已从理论上指出,连续思维链的一个关键优势在于它能使模型在叠加(superposition)状态下进行推理:当模型面对多个可能的推理路径而无法确定哪一个是正确时,它可以在连续空间中并行地保留所有可能的路

来自主题: AI技术研报
8497 点击    2025-10-08 11:41
DeepMind率先提出CoF:视频模型有自己的思维链

DeepMind率先提出CoF:视频模型有自己的思维链

DeepMind率先提出CoF:视频模型有自己的思维链

CoT思维链的下一步是什么? DeepMind提出帧链CoF(chain-of-frames)。

来自主题: AI技术研报
6001 点击    2025-09-28 18:04
Prompt的尽头,居然是MBTI。

Prompt的尽头,居然是MBTI。

Prompt的尽头,居然是MBTI。

论文的标题很学术,叫《心理学增强AI智能体》但是大白话翻译一下就是,想要让大模型更好地完成任务,你们可能不需要那些动辄几百上千字的复杂Prompt,不需要什么思维链、思维图谱,甚至不需要那些精巧的指令。

来自主题: AI技术研报
6795 点击    2025-09-23 10:08
突破单链思考上限,清华团队提出原生「并行思考」scale范式

突破单链思考上限,清华团队提出原生「并行思考」scale范式

突破单链思考上限,清华团队提出原生「并行思考」scale范式

近年来,大语言模型(LLMs)在复杂推理任务上的能力突飞猛进,这在很大程度上得益于深度思考的策略,即通过增加测试时(test-time)的计算量,让模型生成更长的思维链(Chain-of-Thought)。

来自主题: AI技术研报
6571 点击    2025-09-18 14:49
隐式推理,继CoT思维链之后,LLM的下一个技术奇点系统性综述来了|港科大最新

隐式推理,继CoT思维链之后,LLM的下一个技术奇点系统性综述来了|港科大最新

隐式推理,继CoT思维链之后,LLM的下一个技术奇点系统性综述来了|港科大最新

您对“思维链”(Chain-of-Thought)肯定不陌生,从最早的GPT-o1到后来震惊世界的Deepseek-R1,它通过让模型输出详细的思考步骤,确实解决了许多复杂的推理问题。但您肯定也为它那冗长的输出、高昂的API费用和感人的延迟头疼过,这些在产品落地时都是实实在在的阻碍。

来自主题: AI技术研报
8332 点击    2025-09-05 10:22