AI资讯新闻榜单内容搜索-人工智

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 人工智
不是所有token都平等!谷歌提出真·深度思考:思维链长≠深度推理

不是所有token都平等!谷歌提出真·深度思考:思维链长≠深度推理

不是所有token都平等!谷歌提出真·深度思考:思维链长≠深度推理

大模型的思维链越长,推理能力就越强?谷歌Say No——token数量和推理质量,真没啥正相关,因为token和token还不一样,有些纯凑数,深度思考token才真有用。新研究抛弃字数论,甩出衡量模型推理质量的全新标准DTR,专门揪模型是在真思考还是水字数。

来自主题: AI技术研报
8415 点击    2026-02-25 14:32
ICLR2026 Oral | 当情感识别不再是分类题:EmotionThinker 让 SpeechLLM 学会“解释情绪”

ICLR2026 Oral | 当情感识别不再是分类题:EmotionThinker 让 SpeechLLM 学会“解释情绪”

ICLR2026 Oral | 当情感识别不再是分类题:EmotionThinker 让 SpeechLLM 学会“解释情绪”

SpeechLLM 是否具备像人类一样解释 “为什么” 做出情绪判断的能力?为此,研究团队提出了EmotionThinker—— 首个面向可解释情感推理(Explainable Emotion Reasoning)的强化学习框架,尝试将 SER 从 “分类任务” 提升为 “多模态证据驱动的推理任务”。

来自主题: AI技术研报
8640 点击    2026-02-25 14:28
Notion创始人:不能被Agent使用的产品,必死无疑。

Notion创始人:不能被Agent使用的产品,必死无疑。

Notion创始人:不能被Agent使用的产品,必死无疑。

开工第一天,我狠狠补了假期里认为最重要的一期播客:Notion 创始人 Ivan Zhao 的访谈。这期内容在互联网上几乎没有传播,但我认为它的价值被严重低估了。 Ivan 谈到了 AI 对 Noti

来自主题: AI资讯
8237 点击    2026-02-25 14:25
又快又省?仅5%参数、训练快4倍!ArcFlow用「非线性」魔法实现FLUX/Qwen推理40倍加速

又快又省?仅5%参数、训练快4倍!ArcFlow用「非线性」魔法实现FLUX/Qwen推理40倍加速

又快又省?仅5%参数、训练快4倍!ArcFlow用「非线性」魔法实现FLUX/Qwen推理40倍加速

复旦大学与微软亚洲研究院带来的 ArcFlow 给出了答案:如果路是弯的,那就学会 “漂移”,而不是把路修直。在扩散模型中,教师模型(Pre-trained Teacher)的生成过程本质上是在高维空间中求解微分方程并进行多步积分。由于图像流形的复杂性,教师模型原本的采样轨迹通常是一条蜿蜒的曲线,其切线方向(即速度场)随时间步不断变化。

来自主题: AI技术研报
7995 点击    2026-02-25 14:15
春节归来第一天,Second Me 做了一个「Agent 互联网的 App Store」

春节归来第一天,Second Me 做了一个「Agent 互联网的 App Store」

春节归来第一天,Second Me 做了一个「Agent 互联网的 App Store」

Second Me 也是从这里出发的。他们在春节前的最后一周,把这个问题变成了一场大型实验,办了「Second Me 全球首届 A2A 黑客松」,300 多支团队来了。五天后,一个 Agent 互联网 APP Store 的雏形,出现了。

来自主题: AI资讯
8453 点击    2026-02-25 10:52
DeepSeek连更GitHub,华尔街回想起被支配的恐惧:“DeepSeek第二时刻”要来了

DeepSeek连更GitHub,华尔街回想起被支配的恐惧:“DeepSeek第二时刻”要来了

DeepSeek连更GitHub,华尔街回想起被支配的恐惧:“DeepSeek第二时刻”要来了

DeepSeek员工节后一上班,美国AI圈又要抖三抖了(doge)。就从十几个小时前开始,DeepSeek的GitHub仓库突然一阵猛更新,Merge了一堆PR:维护者主要是mowentian——DeepSeekMoE等论文的署名作者之一Huang Panpan。他这一干活不要紧,大洋彼岸“V4来了???”的紧张神经,又被瞬间挑了起来。

来自主题: AI资讯
9724 点击    2026-02-25 10:37
AI编程创造世界

AI编程创造世界

AI编程创造世界

「世界正在变成乐高」 一个显而易见的趋势是,AI编程工具正在成为网络世界的引擎。 绝大部分APP终将消失。因为绝大部分软件需求,都可以由编程Agent生成的一次性软件来完成,用完即弃,像3D打印一个零

来自主题: AI资讯
7172 点击    2026-02-25 10:37
春节回家我用递归学习法,跟大模型学会了「算八字」

春节回家我用递归学习法,跟大模型学会了「算八字」

春节回家我用递归学习法,跟大模型学会了「算八字」

上个月,我在 X 上刷到一个叫 Gabriel 的年轻人的故事。他从大学辍学,用 AI 自学人工智能,最终成为了 OpenAI 的研究员。真正吸引我的,是他在个人博客里分享的一套学习方法:「递归学习法」。

来自主题: AI资讯
8481 点击    2026-02-25 10:36
让AI智能体「记住」失败经验:微软提出Re-TRAC框架,4B性能SOTA,30B超越358B

让AI智能体「记住」失败经验:微软提出Re-TRAC框架,4B性能SOTA,30B超越358B

让AI智能体「记住」失败经验:微软提出Re-TRAC框架,4B性能SOTA,30B超越358B

来自东南大学、微软亚洲研究院等机构的研究团队提出了一种全新的解决方案——Re-TRAC(REcursive TRAjectory Compression),这个框架让 AI 智能体能够「记住」每次探索的经验,在多个探索轨迹之间传递经验,实现渐进式的智能搜索。

来自主题: AI技术研报
9505 点击    2026-02-25 10:35
别再一键贴代码!Anthropic点名3种「用AI不退化」真方法

别再一键贴代码!Anthropic点名3种「用AI不退化」真方法

别再一键贴代码!Anthropic点名3种「用AI不退化」真方法

在AI编程时代,效率飙升却隐藏危机:Anthropic最新研究揭示,使用AI助手虽能快速生成代码,但开发者在概念理解、代码阅读和调试能力上显著落后。独立解决问题才是技能之钥,AI若不当用,将成「懒惰陷阱」。

来自主题: AI技术研报
7558 点击    2026-02-25 10:32