不是所有token都平等!谷歌提出真·深度思考:思维链长≠深度推理
不是所有token都平等!谷歌提出真·深度思考:思维链长≠深度推理大模型的思维链越长,推理能力就越强?谷歌Say No——token数量和推理质量,真没啥正相关,因为token和token还不一样,有些纯凑数,深度思考token才真有用。新研究抛弃字数论,甩出衡量模型推理质量的全新标准DTR,专门揪模型是在真思考还是水字数。
大模型的思维链越长,推理能力就越强?谷歌Say No——token数量和推理质量,真没啥正相关,因为token和token还不一样,有些纯凑数,深度思考token才真有用。新研究抛弃字数论,甩出衡量模型推理质量的全新标准DTR,专门揪模型是在真思考还是水字数。
SpeechLLM 是否具备像人类一样解释 “为什么” 做出情绪判断的能力?为此,研究团队提出了EmotionThinker—— 首个面向可解释情感推理(Explainable Emotion Reasoning)的强化学习框架,尝试将 SER 从 “分类任务” 提升为 “多模态证据驱动的推理任务”。
开工第一天,我狠狠补了假期里认为最重要的一期播客:Notion 创始人 Ivan Zhao 的访谈。这期内容在互联网上几乎没有传播,但我认为它的价值被严重低估了。 Ivan 谈到了 AI 对 Noti
复旦大学与微软亚洲研究院带来的 ArcFlow 给出了答案:如果路是弯的,那就学会 “漂移”,而不是把路修直。在扩散模型中,教师模型(Pre-trained Teacher)的生成过程本质上是在高维空间中求解微分方程并进行多步积分。由于图像流形的复杂性,教师模型原本的采样轨迹通常是一条蜿蜒的曲线,其切线方向(即速度场)随时间步不断变化。
在2026当下的智能体(Agent)开发体系中,“为LLM加Skills”已经成为事实上的行业标准。您的Agent表现不好,是因为底层的LLM参数量不够,还是因为您喂给它的“Skills”写得一塌糊涂?无论是日常使用的各类CLI工具,还是最近的Openclaw,其底层能力的跃升很大程度上都依赖于这些特定领域的Agent Skills。
今日,宇树科技继春晚人形机器人“练武术”爆火出圈后,首次上新机器人产品——四足机器人Unitree As2。该产品定位一款轻量化的行业级四足机器人,与其消费级旗舰产品Unitree Go2体积差不多,但宇树称其“动力性能约等于Go2的两倍”。
Basis 将以 11.5 亿美元估值从投资者处募集 1 亿美元资金,公司计划于周二正式宣布。本轮融资由风险投资公司 Accel 领投,参投方包括 GV(原谷歌风投)、高盛集团前首席执行官劳埃德·布兰克费恩,以及现有投资机构科斯拉创投等。
Second Me 也是从这里出发的。他们在春节前的最后一周,把这个问题变成了一场大型实验,办了「Second Me 全球首届 A2A 黑客松」,300 多支团队来了。五天后,一个 Agent 互联网 APP Store 的雏形,出现了。
作为母公司 FansAI 发布的全球首个开放世界互动视频平台,Roto 背后的团队均来自硅谷大厂与国内顶尖科技公司,试图构建一个介于游戏与影视之间的新物种。
最近openclaw实在是太火了,连王慧文都发出英雄招募帖,看重虾实现AGI的潜力。然后紧接着就是 被openclaw作者Peter莫名下架、原因是官方用ASCII把中文判别成了乱码,于是平台把所有的中文Skill判定成虚假空技能,被动下架且无备份。。。连项目贡献者张昊阳的账号都封掉了。.... 这一波三折的剧情,电视剧都不敢这么拍。