
清华耶鲁推理模型新范式:动态推理实现高效测试时扩展,大大节省Token消耗
清华耶鲁推理模型新范式:动态推理实现高效测试时扩展,大大节省Token消耗推理性能提升的同时,还大大减少Token消耗!
来自主题: AI技术研报
6795 点击 2025-04-08 09:25
推理性能提升的同时,还大大减少Token消耗!
「慢思考」(Slow-Thinking),也被称为测试时扩展(Test-Time Scaling),成为提升 LLM 推理能力的新方向。近年来,OpenAI 的 o1 [4]、DeepSeek 的 R1 [5] 以及 Qwen 的 QwQ [6] 等顶尖推理大模型的发布,进一步印证了推理过程的扩展是优化 LLM 逻辑能力的有效路径。