AI资讯新闻榜单内容搜索-思维链

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 思维链
ICLR 2026|隐式思考模型LRT:「隐式思维链」推理,更快更强!

ICLR 2026|隐式思考模型LRT:「隐式思维链」推理,更快更强!

ICLR 2026|隐式思考模型LRT:「隐式思维链」推理,更快更强!

近日,哈尔滨工业大学(深圳)联合深圳河套学院、Independent Researcher提出了隐式思考模型 LRT(Latent Reasoning Tuning),通过一个轻量级的推理网络,将大模型冗长的「思维链」压缩为紧凑的隐式向量表征,一次前向计算即可完成推理,无需逐 token 生成数千字的中间推理过程。

来自主题: AI技术研报
9516 点击    2026-04-13 09:35
OpenAI测谎13款大模型:Claude 3.7封神,GPT-5.2近乎失控!

OpenAI测谎13款大模型:Claude 3.7封神,GPT-5.2近乎失控!

OpenAI测谎13款大模型:Claude 3.7封神,GPT-5.2近乎失控!

OpenAI的最新研究揭示了一个反直觉的真相:越强大的推理模型,越管不住自己的「脑子」。在CoT-Control套件测试的13款前沿模型中,DeepSeek R1控制自身思维链的成功率仅为0.1%,Claude Sonnet 4.5也只有2.7%。

来自主题: AI资讯
9124 点击    2026-03-09 15:08
不是所有token都平等!谷歌提出真·深度思考:思维链长≠深度推理

不是所有token都平等!谷歌提出真·深度思考:思维链长≠深度推理

不是所有token都平等!谷歌提出真·深度思考:思维链长≠深度推理

大模型的思维链越长,推理能力就越强?谷歌Say No——token数量和推理质量,真没啥正相关,因为token和token还不一样,有些纯凑数,深度思考token才真有用。新研究抛弃字数论,甩出衡量模型推理质量的全新标准DTR,专门揪模型是在真思考还是水字数。

来自主题: AI技术研报
8535 点击    2026-02-25 14:32
0.3B参数,600MB内存!腾讯混元实现产业级2Bit量化,端侧模型小如手机App

0.3B参数,600MB内存!腾讯混元实现产业级2Bit量化,端侧模型小如手机App

0.3B参数,600MB内存!腾讯混元实现产业级2Bit量化,端侧模型小如手机App

等效参数量仅0.3B,内存占用仅600MB,更适合端侧部署还带思维链的模型来了。腾讯混元最新推出面向消费级硬件场景的“极小”模型HY-1.8B-2Bit,体量甚至比常用的一些手机应用还小。

来自主题: AI技术研报
6950 点击    2026-02-10 14:28
具身大模型LaST₀:双臂/移动/灵巧手全面新SOTA,首次引入隐空间时空思维链

具身大模型LaST₀:双臂/移动/灵巧手全面新SOTA,首次引入隐空间时空思维链

具身大模型LaST₀:双臂/移动/灵巧手全面新SOTA,首次引入隐空间时空思维链

LaST₀团队 投稿 量子位 | 公众号 QbitAI 近日,至简动力、北京大学、香港中文大学、北京人形机器人创新中心提出了一种名为LaST₀的全新隐空间推理VLA模型,在基于Transformer混

来自主题: AI技术研报
6554 点击    2026-02-08 11:50
思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

在 LLM 时代,思维链( CoT)已成为解锁模型复杂推理能力的关键钥匙。然而,CoT 的冗长问题一直困扰着研究者——中间推理步骤和解码操作带来了巨大的计算开销和显存占用,严重制约了模型的推理效率。

来自主题: AI技术研报
7543 点击    2026-01-27 16:17
Kimi张予彤首次分享AI创业“思维链” | 不鸣创业营

Kimi张予彤首次分享AI创业“思维链” | 不鸣创业营

Kimi张予彤首次分享AI创业“思维链” | 不鸣创业营

1月10日,在蓝驰创投举办的第五期不鸣创业营中,Kimi总裁张予彤分享了在AI浪潮奔涌的当下,创业者如何思考决策,以及如何应对各种波动与变化。

来自主题: AI资讯
6874 点击    2026-01-26 10:21