AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
OpenClaw 霸榜,Agent 全面爆发的前夜(附报告原文PDF)

OpenClaw 霸榜,Agent 全面爆发的前夜(附报告原文PDF)

OpenClaw 霸榜,Agent 全面爆发的前夜(附报告原文PDF)

AI 行业,似乎已经提前进入了以个人 Agent 为代表的「后 ChatGPT 时代」。这印证了独立 AI 基准测试机构「Artificial Analysis」的预测结论:2026,Agent 正在全面爆发。近期,他们发布了对 AI 领域发展的全面总结:《2025 年终 AI 发展报告》。

来自主题: AI技术研报
7821 点击    2026-03-02 10:14
GPT之父Alec Radford新作:给大模型做「脑部手术」,危险知识重学成本暴增7000倍

GPT之父Alec Radford新作:给大模型做「脑部手术」,危险知识重学成本暴增7000倍

GPT之父Alec Radford新作:给大模型做「脑部手术」,危险知识重学成本暴增7000倍

近日, Anthropic 和斯坦福研究者 Neil Rathi 与这位传奇研究者联合发布了一篇新论文,并得到了一些相当惊人的新发现。在这项研究中,他们挑战了当前大模型安全领域的一个核心假设。长期以来,业界普遍认为要在模型发布后通过 RLHF 或微调来限制其危险行为。但 Neil Rathi 和 Alec Radford 提出了一种更本质的解法:

来自主题: AI技术研报
8352 点击    2026-03-02 10:12
让搜索Agent不「傻等」:人大团队依托扩散模型实现「一心二用」,边等搜索结果边思考,加速15%性能不减

让搜索Agent不「傻等」:人大团队依托扩散模型实现「一心二用」,边等搜索结果边思考,加速15%性能不减

让搜索Agent不「傻等」:人大团队依托扩散模型实现「一心二用」,边等搜索结果边思考,加速15%性能不减

中国人民大学团队在论文DLLM-Searcher中,第一次让扩散大语言模型(dLLM)学会了这种“一心二用”的本事。目前主流的搜索Agent,不管是Search-R1还是R1Searcher,用的都是ReAct框架。这个框架的执行流程是严格串行的:

来自主题: AI技术研报
7182 点击    2026-03-02 10:00
支持远程操控和通用GUI操作,开源版桌面虚拟同事Open Cowork来了!

支持远程操控和通用GUI操作,开源版桌面虚拟同事Open Cowork来了!

支持远程操控和通用GUI操作,开源版桌面虚拟同事Open Cowork来了!

我们开源的 Open Cowork,正是一次面向 “桌面端虚拟同事” 的实践:一键安装、无需写代码,让模型在安全沙箱里操作你的工作空间,既能产出 PPT/Word/Excel/PDF 等专业成果,也能通过 GUI 直接操作电脑完成更复杂更通用的跨应用流程。

来自主题: AI技术研报
7740 点击    2026-03-02 10:00
西湖大学破解Rectified Flow反演不稳定难题,实现零成本稳定增强|ICLR'26

西湖大学破解Rectified Flow反演不稳定难题,实现零成本稳定增强|ICLR'26

西湖大学破解Rectified Flow反演不稳定难题,实现零成本稳定增强|ICLR'26

现有Rectified Flow(RF)模型在反演阶段面临的核心挑战,是逆向ODE对微小误差高度敏感,容易沿着数值不稳定方向偏离前向流形,导致轨迹发散、重建不一致、编辑不可控。为解决这一问题,团队提出PMI(Prox-Mean-Inversion),一种针对RF反演稳定性的轻量化修正机制。

来自主题: AI技术研报
7881 点击    2026-03-02 09:59
GRASP Lab | VPP-TC: 基于可行性理论的被动力矩安全控制框架

GRASP Lab | VPP-TC: 基于可行性理论的被动力矩安全控制框架

GRASP Lab | VPP-TC: 基于可行性理论的被动力矩安全控制框架

本篇文章被 ICRA 2026 接收并获得 IROS 2025 双料 Workshop 最佳论文,第一作者张子哲(site: zizhe.io)是宾夕法尼亚大学机器人学硕士生,同时在 GRASP 实验室担任科研助理,导师为 Nadia Figueroa 教授,研究兴趣涵盖机器学习,安全控制以及人机交互。

来自主题: AI技术研报
8672 点击    2026-03-01 11:18
第一次,多模态大模型学会边看边听,Meta新作性能暴涨113%

第一次,多模态大模型学会边看边听,Meta新作性能暴涨113%

第一次,多模态大模型学会边看边听,Meta新作性能暴涨113%

Meta联合多所高校发布首个可规模化自动生成第一视角音视频理解数据的引擎EgoAVU ,让多模态大模型首次真正「听懂世界」。

来自主题: AI技术研报
8136 点击    2026-02-28 15:26
ICLR 2026 | 把视频扩散模型压到4bit,还能接近满血效果? QVGen让「超低比特视频生成量化」真正可用

ICLR 2026 | 把视频扩散模型压到4bit,还能接近满血效果? QVGen让「超低比特视频生成量化」真正可用

ICLR 2026 | 把视频扩散模型压到4bit,还能接近满血效果? QVGen让「超低比特视频生成量化」真正可用

香港科技大学 & 北航 & 商汤等提出了一个专门面向视频生成扩散模型的 QAT 范式 ——QVGen,在 3-bit / 4-bit 都能把质量拉回来,并且让 4-bit 首次接近全精度表现成为现实。该论文现已被 ICLR 高分接收:rebuttal 前 88666(top 1.4%),rebuttal 后 88886 (top 0.5%)。

来自主题: AI技术研报
7699 点击    2026-02-28 15:12
ICLR 2026 | CineTrans: 首个转场可控的多镜头视频生成模型,打破闭源技术壁垒

ICLR 2026 | CineTrans: 首个转场可控的多镜头视频生成模型,打破闭源技术壁垒

ICLR 2026 | CineTrans: 首个转场可控的多镜头视频生成模型,打破闭源技术壁垒

基于对注意力特性的观察,CineTrans 提出块对角掩码的通用机制,使视频生成模型能高效地自动化转场。为了进一步提升转场模型的效果和准确性,作者设计了详细的多镜头视频生产管线,并收集了一个高质量、多镜头数据集 Cine250K,大幅提升多镜头转场视频生成的效果。作为首个时间级可控的自动化转场模型,CineTrans 为这一领域的众多后续方法提供了关键技术。

来自主题: AI技术研报
8152 点击    2026-02-28 15:05
何恺明团队新作GeoPT,全新预训练范式用合成动力学让模型自学真实物理规律

何恺明团队新作GeoPT,全新预训练范式用合成动力学让模型自学真实物理规律

何恺明团队新作GeoPT,全新预训练范式用合成动力学让模型自学真实物理规律

GeoPT提出了一种全新的动力学提升预训练范式,通过合成动力学(Synthetic Dynamics)将静态几何“提升”到动态空间,让模型在无标签数据上通过学习粒子轨迹演化来获取物理直觉。

来自主题: AI技术研报
8334 点击    2026-02-28 14:58
Claude Code“隐形技术栈”被扒出来了!2430次测试揭秘工具偏好清单

Claude Code“隐形技术栈”被扒出来了!2430次测试揭秘工具偏好清单

Claude Code“隐形技术栈”被扒出来了!2430次测试揭秘工具偏好清单

最近,专注于量化AI主观决策的基准测试工作室Amplifying.ai,针对Claude Code的工具选择倾向开展了一项系统性研究。研究覆盖3款模型、4种项目类型及20个工具类别,累计分析了2430次工具选择行为。

来自主题: AI技术研报
8302 点击    2026-02-27 17:04
DeepSeek新论文来了!联手清华、北大,优化智能体大模型推理

DeepSeek新论文来了!联手清华、北大,优化智能体大模型推理

DeepSeek新论文来了!联手清华、北大,优化智能体大模型推理

「DeepSeek V4 来了!」这样的消息是不是已经听烦了?总结来说,这篇新论文介绍了一个名为「DualPath」的创新推理系统,专门针对智能体工作负载下的大语言模型(LLM)推理性能进行优化。具体来讲,通过引入「双路径 KV-Cache 加载」机制,解决了在预填充 - 解码(PD)分离架构下,KV-Cache 读取负载不平衡的问题。

来自主题: AI技术研报
8033 点击    2026-02-27 11:35
算力救不了AI智商?谷歌新大招终结「随机鹦鹉」争论!

算力救不了AI智商?谷歌新大招终结「随机鹦鹉」争论!

算力救不了AI智商?谷歌新大招终结「随机鹦鹉」争论!

传统AI模型在稀疏奖励环境中,往往会找不到激励难以学会层次化思考。如今,谷歌团队通过引入元控制器操控模型内部残差流,让智能体学会了「跳跃式思考」。该研究揭示了大模型内部可自发形成了类似人脑的层次化决策机制,为AI在需要多步的复杂任务提供了全新的训练范式。

来自主题: AI技术研报
7464 点击    2026-02-27 10:58
小模型+Agent Skills能用吗?这份基于POMDP的工业级本地化Agent报告太硬核!

小模型+Agent Skills能用吗?这份基于POMDP的工业级本地化Agent报告太硬核!

小模型+Agent Skills能用吗?这份基于POMDP的工业级本地化Agent报告太硬核!

各位对Agent Skill早已轻车熟路。不可否认,在Claude code、Openclaw的加持下,这套框架效果极佳。但工业界的痛点在于:它几乎沦为了超大型闭源API的专属玩具。当您的项目面临金融

来自主题: AI技术研报
7494 点击    2026-02-27 10:48
首次证实RL能让3D模型学会推理,复杂文本描述下生成质量跃升!

首次证实RL能让3D模型学会推理,复杂文本描述下生成质量跃升!

首次证实RL能让3D模型学会推理,复杂文本描述下生成质量跃升!

当GRPO让大模型在数学、代码推理上实现质变,研究团队率先给出答案——首个将强化学习系统性引入文本到3D自回归生成的研究正式诞生,并被CVPR 2026接收。该研究不只是简单移植2D经验,而是针对3D生成的独特挑战,从奖励设计、算法选择、评测基准到训练范式,做了一套完整的系统性探索。

来自主题: AI技术研报
6964 点击    2026-02-27 10:28
AI Agents的现状与困境:MIT、剑桥、斯坦福等联合发布分析报告

AI Agents的现状与困境:MIT、剑桥、斯坦福等联合发布分析报告

AI Agents的现状与困境:MIT、剑桥、斯坦福等联合发布分析报告

这两周,Claude Code 上了个 COBOL 现代化功能,IBM 当天暴跌 13%;又上了个安全扫描功能,一口气翻出 500 多个此前藏了几十年的高危漏洞,网安股集体跳水。彭博社甚至专门做了一期播客讨论“哪些 SaaS 公司能活下来”。

来自主题: AI技术研报
8155 点击    2026-02-26 12:30
李国杰院士:基于可判定性理论的人工智能系统安全风险分类

李国杰院士:基于可判定性理论的人工智能系统安全风险分类

李国杰院士:基于可判定性理论的人工智能系统安全风险分类

李国杰院士指出,AI安全风险应按逻辑复杂性分为三类:R1可验证、R2可发现但不可证明安全、R3不可治理。当前AI多属R2,关键不在「证明安全」,而在构建人类主导的制度性刹车机制,拒绝让渡终极控制权。

来自主题: AI技术研报
8336 点击    2026-02-26 12:13
大语言模型真的会「推理」吗?一项系统性研究梳理 LLM 的结构性推理失败

大语言模型真的会「推理」吗?一项系统性研究梳理 LLM 的结构性推理失败

大语言模型真的会「推理」吗?一项系统性研究梳理 LLM 的结构性推理失败

近期发表于 TMLR 的论文《Large Language Model Reasoning Failures》对这一问题进行了系统性梳理。该研究并未围绕 “模型是否真正理解” 展开哲学层面的争论,而是采取更加务实的路径 —— 通过整理现有文献中的失败现象,构建统一框架,系统分析大语言模型的推理短板。

来自主题: AI技术研报
7327 点击    2026-02-26 10:52
AI越繁荣,经济越萧条!一夜爆火2028推演长文,引发华尔街巨头恐慌

AI越繁荣,经济越萧条!一夜爆火2028推演长文,引发华尔街巨头恐慌

AI越繁荣,经济越萧条!一夜爆火2028推演长文,引发华尔街巨头恐慌

随着AI即将抵达自我进化的AGI奇点和Agent泛滥的「AI繁荣」,一场更彻底的经济危机已经在迅速酝酿中:AI能力提升 → 裁员增加、工资降级 → 消费疲弱 → 企业利润被挤压 → 企业购买更多AI能力 → AI能力继续提升。所有平台层将被Agent彻底击穿,而房贷和私募基金将成为危机的加速器。

来自主题: AI技术研报
8374 点击    2026-02-25 15:00
Gemini 3仅得33.6分!清华发布首个「约束流形」空间智能基准

Gemini 3仅得33.6分!清华发布首个「约束流形」空间智能基准

Gemini 3仅得33.6分!清华发布首个「约束流形」空间智能基准

SSI-Bench是首个在约束流形中评估模型空间推理能力的基准,强调真实结构与约束条件,通过排序任务考察模型是否能准确理解三维结构的几何与拓扑关系,揭示当前大模型在空间智能上严重依赖2D信息,实际表现远低于人类。研究指出,模型需提升三维构型识别和约束推理能力,才能真正理解空间问题。

来自主题: AI技术研报
9065 点击    2026-02-25 14:33
不是所有token都平等!谷歌提出真·深度思考:思维链长≠深度推理

不是所有token都平等!谷歌提出真·深度思考:思维链长≠深度推理

不是所有token都平等!谷歌提出真·深度思考:思维链长≠深度推理

大模型的思维链越长,推理能力就越强?谷歌Say No——token数量和推理质量,真没啥正相关,因为token和token还不一样,有些纯凑数,深度思考token才真有用。新研究抛弃字数论,甩出衡量模型推理质量的全新标准DTR,专门揪模型是在真思考还是水字数。

来自主题: AI技术研报
7867 点击    2026-02-25 14:32
ICLR2026 Oral | 当情感识别不再是分类题:EmotionThinker 让 SpeechLLM 学会“解释情绪”

ICLR2026 Oral | 当情感识别不再是分类题:EmotionThinker 让 SpeechLLM 学会“解释情绪”

ICLR2026 Oral | 当情感识别不再是分类题:EmotionThinker 让 SpeechLLM 学会“解释情绪”

SpeechLLM 是否具备像人类一样解释 “为什么” 做出情绪判断的能力?为此,研究团队提出了EmotionThinker—— 首个面向可解释情感推理(Explainable Emotion Reasoning)的强化学习框架,尝试将 SER 从 “分类任务” 提升为 “多模态证据驱动的推理任务”。

来自主题: AI技术研报
8096 点击    2026-02-25 14:28
又快又省?仅5%参数、训练快4倍!ArcFlow用「非线性」魔法实现FLUX/Qwen推理40倍加速

又快又省?仅5%参数、训练快4倍!ArcFlow用「非线性」魔法实现FLUX/Qwen推理40倍加速

又快又省?仅5%参数、训练快4倍!ArcFlow用「非线性」魔法实现FLUX/Qwen推理40倍加速

复旦大学与微软亚洲研究院带来的 ArcFlow 给出了答案:如果路是弯的,那就学会 “漂移”,而不是把路修直。在扩散模型中,教师模型(Pre-trained Teacher)的生成过程本质上是在高维空间中求解微分方程并进行多步积分。由于图像流形的复杂性,教师模型原本的采样轨迹通常是一条蜿蜒的曲线,其切线方向(即速度场)随时间步不断变化。

来自主题: AI技术研报
7409 点击    2026-02-25 14:15
Agent为什么都在疯狂外挂“Skills”?首个SkillsBench来了,讲透性能暴涨的底层逻辑

Agent为什么都在疯狂外挂“Skills”?首个SkillsBench来了,讲透性能暴涨的底层逻辑

Agent为什么都在疯狂外挂“Skills”?首个SkillsBench来了,讲透性能暴涨的底层逻辑

在2026当下的智能体(Agent)开发体系中,“为LLM加Skills”已经成为事实上的行业标准。您的Agent表现不好,是因为底层的LLM参数量不够,还是因为您喂给它的“Skills”写得一塌糊涂?无论是日常使用的各类CLI工具,还是最近的Openclaw,其底层能力的跃升很大程度上都依赖于这些特定领域的Agent Skills。

来自主题: AI技术研报
8510 点击    2026-02-25 14:09
让AI智能体「记住」失败经验:微软提出Re-TRAC框架,4B性能SOTA,30B超越358B

让AI智能体「记住」失败经验:微软提出Re-TRAC框架,4B性能SOTA,30B超越358B

让AI智能体「记住」失败经验:微软提出Re-TRAC框架,4B性能SOTA,30B超越358B

来自东南大学、微软亚洲研究院等机构的研究团队提出了一种全新的解决方案——Re-TRAC(REcursive TRAjectory Compression),这个框架让 AI 智能体能够「记住」每次探索的经验,在多个探索轨迹之间传递经验,实现渐进式的智能搜索。

来自主题: AI技术研报
8956 点击    2026-02-25 10:35
别再一键贴代码!Anthropic点名3种「用AI不退化」真方法

别再一键贴代码!Anthropic点名3种「用AI不退化」真方法

别再一键贴代码!Anthropic点名3种「用AI不退化」真方法

在AI编程时代,效率飙升却隐藏危机:Anthropic最新研究揭示,使用AI助手虽能快速生成代码,但开发者在概念理解、代码阅读和调试能力上显著落后。独立解决问题才是技能之钥,AI若不当用,将成「懒惰陷阱」。

来自主题: AI技术研报
6979 点击    2026-02-25 10:32
jina-embeddings-v5-text:0.6B 参数下最好的多语言向量模型

jina-embeddings-v5-text:0.6B 参数下最好的多语言向量模型

jina-embeddings-v5-text:0.6B 参数下最好的多语言向量模型

jina-embeddings-v5-text 岁在丙午,开年即战。Jina AI 的五代目向量模型春节期间正式发布。1B 参数内世界第一,全面刷新向量模型的性能天花板!

来自主题: AI技术研报
8322 点击    2026-02-24 15:43
多模态DeepResearch,成了!

多模态DeepResearch,成了!

多模态DeepResearch,成了!

DeepResearch 的价值在于把「查资料」变成「做研究」:不是搜到一条就回答,而是会连续多轮地提出问题、去不同地方找证据、互相对照核实、再把信息整理成结构清晰的结论。这样做能显著降低「凭感觉瞎编

来自主题: AI技术研报
7426 点击    2026-02-24 15:41
字节Seed用化学思想搞AI,把DeepSeek-R1的脑回路拆成了分子结构

字节Seed用化学思想搞AI,把DeepSeek-R1的脑回路拆成了分子结构

字节Seed用化学思想搞AI,把DeepSeek-R1的脑回路拆成了分子结构

字节Seed都开始用化学思想搞大模型了——深度推理是共价键、自我反思是氢键、自我探索是范德华力?!

来自主题: AI技术研报
9143 点击    2026-02-24 15:37
大模型真听懂了吗?最全综合性口语感知与推理基准 | ICLR'26

大模型真听懂了吗?最全综合性口语感知与推理基准 | ICLR'26

大模型真听懂了吗?最全综合性口语感知与推理基准 | ICLR'26

随着多模态大模型能力不断扩展,语音大模型(SpeechLLMs) 已从语音识别走向复杂语音交互。然而,当模型逐渐进入真实口语交互场景,一个更基础的问题浮现出来:我们是否真正定义清楚了「语音理解」的能力边界?

来自主题: AI技术研报
9775 点击    2026-02-24 15:35