AI资讯新闻榜单内容搜索-CoT

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: CoT
NeurIPS 2025 Spotlight | FSDrive统一VLA和世界模型,推动自动驾驶迈向视觉推理

NeurIPS 2025 Spotlight | FSDrive统一VLA和世界模型,推动自动驾驶迈向视觉推理

NeurIPS 2025 Spotlight | FSDrive统一VLA和世界模型,推动自动驾驶迈向视觉推理

面向自动驾驶的多模态大模型在 “推理链” 上多以文字或符号为中介,易造成空间 - 时间关系模糊与细粒度信息丢失。FSDrive(FutureSightDrive)提出 “时空视觉 CoT”(Spatio-Temporal Chain-of-Thought),让模型直接 “以图思考”,用统一的未来图像帧作为中间推理步骤,联合未来场景与感知结果进行可视化推理。

来自主题: AI技术研报
6074 点击    2025-10-06 13:42
全新合成框架SOTA:强化学习当引擎,任务合成当燃料,蚂蚁港大联合出品

全新合成框架SOTA:强化学习当引擎,任务合成当燃料,蚂蚁港大联合出品

全新合成框架SOTA:强化学习当引擎,任务合成当燃料,蚂蚁港大联合出品

蚂蚁通用人工智能中心自然语言组联合香港大学自然语言组(后简称“团队”)推出PromptCoT 2.0,要在大模型下半场押注任务合成。实验表明,通过“强起点、强反馈”的自博弈式训练,PromptCoT 2.0可以让30B-A3B模型在一系列数学代码推理任务上实现新的SOTA结果,达到和DeepSeek-R1-0528, OpenAI o3, Gemini 2.5 Pro等相当的表现。

来自主题: AI技术研报
6065 点击    2025-10-01 17:12
DeepMind率先提出CoF:视频模型有自己的思维链

DeepMind率先提出CoF:视频模型有自己的思维链

DeepMind率先提出CoF:视频模型有自己的思维链

CoT思维链的下一步是什么? DeepMind提出帧链CoF(chain-of-frames)。

来自主题: AI技术研报
5261 点击    2025-09-28 18:04
攻克AI过度思考难题!美团新研究让通过“可验证”过程奖励激活LRM的高效推理

攻克AI过度思考难题!美团新研究让通过“可验证”过程奖励激活LRM的高效推理

攻克AI过度思考难题!美团新研究让通过“可验证”过程奖励激活LRM的高效推理

LRM通过简单却有效的RLVR范式,培养了强大的CoT推理能力,但伴随而来的冗长的输出内容,不仅显著增加推理开销,还会影响服务的吞吐量,这种消磨用户耐心的现象被称为“过度思考”问题。

来自主题: AI技术研报
8490 点击    2025-09-12 10:47
隐式推理,继CoT思维链之后,LLM的下一个技术奇点系统性综述来了|港科大最新

隐式推理,继CoT思维链之后,LLM的下一个技术奇点系统性综述来了|港科大最新

隐式推理,继CoT思维链之后,LLM的下一个技术奇点系统性综述来了|港科大最新

您对“思维链”(Chain-of-Thought)肯定不陌生,从最早的GPT-o1到后来震惊世界的Deepseek-R1,它通过让模型输出详细的思考步骤,确实解决了许多复杂的推理问题。但您肯定也为它那冗长的输出、高昂的API费用和感人的延迟头疼过,这些在产品落地时都是实实在在的阻碍。

来自主题: AI技术研报
7605 点击    2025-09-05 10:22
告别无效计算!新TTS框架拯救19%被埋没答案,推理准确率飙升

告别无效计算!新TTS框架拯救19%被埋没答案,推理准确率飙升

告别无效计算!新TTS框架拯救19%被埋没答案,推理准确率飙升

大语言模型通过 CoT 已具备强大的数学推理能力,而 Beam Search、DVTS 等测试时扩展(Test-Time Scaling, TTS)方法可通过分配额外计算资源进一步提升准确性。然而,现有方法存在两大关键缺陷:路径同质化(推理路径趋同)和中间结果利用不足(大量高质量推理分支被丢弃)。

来自主题: AI技术研报
7502 点击    2025-09-03 12:03
链式思维是幻象吗?从数据分布视角重新审视大模型推理,马斯克回复,Grok破防

链式思维是幻象吗?从数据分布视角重新审视大模型推理,马斯克回复,Grok破防

链式思维是幻象吗?从数据分布视角重新审视大模型推理,马斯克回复,Grok破防

思维链 (CoT) 提示技术常被认为是让大模型分步思考的关键手段,通过在输入中加入「Let’s think step by step」等提示,模型会生成类似人类的中间推理步骤,显著提升复杂任务的表现。然而,这些流畅的推理链条是否真的反映了模型的推理能力?

来自主题: AI技术研报
5789 点击    2025-08-15 12:38
多模态后训练反常识:长思维链SFT和RL的协同困境

多模态后训练反常识:长思维链SFT和RL的协同困境

多模态后训练反常识:长思维链SFT和RL的协同困境

在语言模型领域,长思维链监督微调(Long-CoT SFT)与强化学习(RL)的组合堪称黄金搭档 —— 先让模型学习思考模式,再用奖励机制优化输出,性能通常能实现叠加提升。

来自主题: AI技术研报
6654 点击    2025-08-02 12:49
ICML 2025 | CoTo:让LoRA训练「渐入佳境」,模型融合、剪枝样样精通

ICML 2025 | CoTo:让LoRA训练「渐入佳境」,模型融合、剪枝样样精通

ICML 2025 | CoTo:让LoRA训练「渐入佳境」,模型融合、剪枝样样精通

还在为 LoRA 训练不稳定、模型融合效果差、剪枝后性能大降而烦恼吗?来自香港城市大学、南方科技大学、浙江大学等机构的研究者们提出了一种简单的渐进式训练策略,CoTo,通过在训练早期随机失活一部分适配器,并逐渐提高其激活概率,有效缓解了层级不均衡问题,并显著增强了模型在多任务融合和剪枝等操作上的鲁棒性和有效性。该工作已被机器学习顶会 ICML 2025 接收。

来自主题: AI技术研报
5922 点击    2025-07-27 13:12
ICML 2025 | 大模型能在信息不完备的情况下问出正确的问题吗?

ICML 2025 | 大模型能在信息不完备的情况下问出正确的问题吗?

ICML 2025 | 大模型能在信息不完备的情况下问出正确的问题吗?

大语言模型(Large Language Model, LLM)在复杂推理任务中表现卓越。借助链式思维(Chain-of-Thought, CoT),LLM 能够将复杂问题分解为简单步骤,充分探索解题思路并得出正确答案。LLM 已在多个基准上展现出优异的推理能力,尤其是数学推理和代码生成。

来自主题: AI技术研报
5362 点击    2025-07-24 15:10