AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
清华万引教授:万倍加速催化剂设计,AI突破DFT瓶颈!

清华万引教授:万倍加速催化剂设计,AI突破DFT瓶颈!

清华万引教授:万倍加速催化剂设计,AI突破DFT瓶颈!

传统DFT计算太慢?SurFF来了!这个基础模型通过晶面生成、快速弛豫和Wulff构型,精准评估晶面可合成性与暴露度。SurFF相较于DFT实现了10⁵倍的加速,多源实验与文献验证一致率达73.1%。

来自主题: AI技术研报
7039 点击    2025-10-12 10:43
信息量爆炸!深度解读 300页 AI 年度百科报告《State of AI 2025》

信息量爆炸!深度解读 300页 AI 年度百科报告《State of AI 2025》

信息量爆炸!深度解读 300页 AI 年度百科报告《State of AI 2025》

昨天,State of AI Report 2025 正式发布了。背后主笔是硅谷投资人 Nathan Benaich 和他创办的 Air Street Capital,从 2018 年开始,这份报告就被称为“AI 行业的年度百科”。

来自主题: AI技术研报
6642 点击    2025-10-11 15:57
全球首个真实世界具身多模态数据集,它石智航交卷,比特斯拉还早6个月

全球首个真实世界具身多模态数据集,它石智航交卷,比特斯拉还早6个月

全球首个真实世界具身多模态数据集,它石智航交卷,比特斯拉还早6个月

全球首个真实世界具身多模态数据集,它来了! 刚刚,它石智航发布全球首个大规模真实世界具身VLTA(Vision-Language-Tactile-Action)多模态数据集World In Your Hands(WIYH)。

来自主题: AI技术研报
8978 点击    2025-10-11 12:06
250份文档就能给大模型植入后门:不分参数规模

250份文档就能给大模型植入后门:不分参数规模

250份文档就能给大模型植入后门:不分参数规模

大模型安全的bug居然这么好踩??250份恶意文档就能给LLM搞小动作,不管模型大小,600M还是13B,中招率几乎没差。这是Claude母公司Anthropic最新的研究成果。

来自主题: AI技术研报
8936 点击    2025-10-11 12:04
斯坦福新论文:微调已死,自主上下文当立

斯坦福新论文:微调已死,自主上下文当立

斯坦福新论文:微调已死,自主上下文当立

来自斯坦福大学、SambaNova Systems公司和加州大学伯克利分校的研究人员,在新论文中证明:依靠上下文工程,无需调整任何权重,模型也能不断变聪明。他们提出的方法名为智能体上下文工程ACE。

来自主题: AI技术研报
6178 点击    2025-10-11 11:45
任意Agent皆可强化学习!微软推出Agent Lightning框架,无需修改任何代码

任意Agent皆可强化学习!微软推出Agent Lightning框架,无需修改任何代码

任意Agent皆可强化学习!微软推出Agent Lightning框架,无需修改任何代码

AI Agent已逐渐从科幻走进现实!不仅能够执行编写代码、调用工具、进行多轮对话等复杂任务,甚至还可以进行端到端的软件开发,已经在金融、游戏、软件开发等诸多领域落地应用。

来自主题: AI技术研报
8365 点击    2025-10-11 11:44
协同加速,多机器人协作不再「慢半拍」!软硬一体化框架ReCA破解具身智能落地效率瓶颈

协同加速,多机器人协作不再「慢半拍」!软硬一体化框架ReCA破解具身智能落地效率瓶颈

协同加速,多机器人协作不再「慢半拍」!软硬一体化框架ReCA破解具身智能落地效率瓶颈

为了打破这一僵局,来自佐治亚理工学院、明尼苏达大学和哈佛大学的研究团队将目光从单纯的「成功」转向了「成功且高效」。他们推出了名为 ReCA 的集成加速框架,针对多机协作具身系统,通过软硬件协同设计跨层次优化,旨在保证不影响任务成功率的前提下,提升实时性能和系统效率,为具身智能落地奠定基础。

来自主题: AI技术研报
8179 点击    2025-10-11 11:32
算力成本大降!马尔可夫思考机来了,LLM推理成本直接降为线性

算力成本大降!马尔可夫思考机来了,LLM推理成本直接降为线性

算力成本大降!马尔可夫思考机来了,LLM推理成本直接降为线性

Mila 和微软研究院等多家机构的一个联合研究团队却另辟蹊径,提出了一个不同的问题:如果环境从一开始就不会造成计算量的二次级增长呢?他们提出了一种新的范式,其中策略会在基于一个固定大小的状态上进行推理。他们将这样的策略命名为马尔可夫式思考机(Markovian Thinker)。

来自主题: AI技术研报
8458 点击    2025-10-11 11:31
斯坦福最新:上下文只能写死在prompt里?用ACE把经验写进可演化上下文『附系统提示』

斯坦福最新:上下文只能写死在prompt里?用ACE把经验写进可演化上下文『附系统提示』

斯坦福最新:上下文只能写死在prompt里?用ACE把经验写进可演化上下文『附系统提示』

调模型不如“管上下文”。这篇文章基于 ACE(Agentic Context Engineering),把系统提示、运行记忆和证据做成可演化的 playbook,用“生成—反思—策展”三角色加差分更新,规避简化偏置与上下文塌缩。在 AppWorld 与金融基准上,ACE 相较强基线平均提升约 +10.6% 与 +8.6%,适配时延降至约 1/6(-86.9%),且在无标注监督场景依然有效。

来自主题: AI技术研报
9313 点击    2025-10-11 11:31
Code2Video:代码驱动、智能体协同、精准可控的教学视频生成

Code2Video:代码驱动、智能体协同、精准可控的教学视频生成

Code2Video:代码驱动、智能体协同、精准可控的教学视频生成

本研究由新加坡国立大学 ShowLab 团队主导完成。 共一作者 Yanzhe Chen 陈彦哲(博士生)与 Kevin Qinghong Lin 林庆泓(博士生)均来自 ShowLab@NUS,分别聚焦于多模态理解以及智能体(Agent)研究。 项目负责人为新加坡国立大学校长青年助理教授 Mike Zheng Shou 寿政。

来自主题: AI技术研报
8337 点击    2025-10-11 11:30
Jina Reranker v3: 全新“列式”重排器,0.6B参数刷新文档检索SOTA

Jina Reranker v3: 全新“列式”重排器,0.6B参数刷新文档检索SOTA

Jina Reranker v3: 全新“列式”重排器,0.6B参数刷新文档检索SOTA

我们正式推出第三代重排器 Jina Reranker v3。它在多项多语言检索基准上刷新了当前最佳表现(SOTA)。这是一款仅有 6 亿参数的多语言重排模型。我们为其设计了名为 “last but not late” (中文我们译作后发先至)的全新交互机制,使其能接受 Listwise 即列式输入,在一个上下文窗口内一次性完成对查询和所有文档的深度交互。

来自主题: AI技术研报
9623 点击    2025-10-10 13:11
700万参数击败DeepSeek R1等,三星一人独作爆火,用递归颠覆大模型推理

700万参数击败DeepSeek R1等,三星一人独作爆火,用递归颠覆大模型推理

700万参数击败DeepSeek R1等,三星一人独作爆火,用递归颠覆大模型推理

来自加拿大蒙特利尔三星先进技术研究所(SAIT)的高级 AI 研究员 Alexia Jolicoeur-Martineau 介绍了微型递归模型(TRM)。这个 TRM 有多离谱呢?一个仅包含 700 万个参数(比 HRM 还要小 4 倍)的网络,在某些最困难的推理基准测试中,

来自主题: AI技术研报
8111 点击    2025-10-10 13:08
管你模型多大,250份有毒文档统统放倒,Anthropic:迄今为止规模最大的大模型数据投毒调查

管你模型多大,250份有毒文档统统放倒,Anthropic:迄今为止规模最大的大模型数据投毒调查

管你模型多大,250份有毒文档统统放倒,Anthropic:迄今为止规模最大的大模型数据投毒调查

本次新研究是迄今为止规模最大的大模型数据投毒调查。Anthropic 与英国人工智能安全研究所(UK AI Security Institute)和艾伦・图灵研究所(Alan Turing Institute)联合进行的一项研究彻底打破了这一传统观念:只需 250 份恶意文档就可能在大型语言模型中制造出「后门」漏洞,且这一结论与模型规模或训练数据量无关。

来自主题: AI技术研报
8368 点击    2025-10-10 12:14
又一推理新范式:将LLM自身视作「改进操作符」,突破长思维链极限

又一推理新范式:将LLM自身视作「改进操作符」,突破长思维链极限

又一推理新范式:将LLM自身视作「改进操作符」,突破长思维链极限

Meta 超级智能实验室、伦敦大学学院、Mila、Anthropic 等机构的研究者进行了探索。从抽象层面来看,他们将 LLM 视为其「思维」的改进操作符,实现一系列可能的策略。研究者探究了一种推理方法家族 —— 并行 - 蒸馏 - 精炼(Parallel-Distill-Refine, PDR),

来自主题: AI技术研报
8475 点击    2025-10-10 10:33
AI「学不会」竟成相变探针!UCSD华人联手谷歌等,曝光量子纠缠秘密

AI「学不会」竟成相变探针!UCSD华人联手谷歌等,曝光量子纠缠秘密

AI「学不会」竟成相变探针!UCSD华人联手谷歌等,曝光量子纠缠秘密

来自加州大学圣地亚哥分校(UCSD)的华人学者Wanda Hou,与加州大学伯克利分校以及Google Quantum AI合作,在谷歌的Sycamore与Willow超导量子处理器上完成了一次别开生面的实验。

来自主题: AI技术研报
7835 点击    2025-10-10 10:28
NeurIPS 2025 Spotlight | 只需一条演示,DexFlyWheel框架让机器人学会「自我造数据」

NeurIPS 2025 Spotlight | 只需一条演示,DexFlyWheel框架让机器人学会「自我造数据」

NeurIPS 2025 Spotlight | 只需一条演示,DexFlyWheel框架让机器人学会「自我造数据」

近期,北京大学、哈尔滨工业大学联合 PsiBot 灵初智能提出首个自我增强的灵巧操作数据生成框架 ——DexFlyWheel。该框架仅需单条演示即可启动任务,自动生成多样化的灵巧操作数据,旨在缓解灵巧手领域长期存在的数据稀缺问题。目前已被 NeurIPS 2025 接受为 Spotlight(入选率约 3.2%)

来自主题: AI技术研报
9120 点击    2025-10-10 10:26
软件行业的范式转变:AI 如何彻底改写游戏规则

软件行业的范式转变:AI 如何彻底改写游戏规则

软件行业的范式转变:AI 如何彻底改写游戏规则

你有没有想过,我们对软件公司的所有认知可能都要被推翻重建?当一家公司用 19 个人就能在一年内做到 1 亿美元 ARR(年度经常性收入)时,当传统需要 500 人团队才能达成的里程碑现在只需要几十人就

来自主题: AI技术研报
9200 点击    2025-10-09 16:26
69 页最新报告丨AI Agent 圣经:智能体的终极指南

69 页最新报告丨AI Agent 圣经:智能体的终极指南

69 页最新报告丨AI Agent 圣经:智能体的终极指南

CBINSIGHTS 最近做了一份《AI Agent Bible》的报告,系统梳理了 AI Agent 的发展前景与未来趋势,提出了面向 2026 年的六大关键预测,并绘制出完整的生态版图,涵盖最值得关注的创业公司、基础设施提供商及快速崛起的营收增长型企业。同时,报告深入解析了市场格局与技术栈的演进,包括 AI Agent 的市场图谱、技术堆栈与收入竞争态势,并通过企业级应用的视角,

来自主题: AI技术研报
10371 点击    2025-10-09 14:02
别卷 Prompt 了,上下文工程正在淘汰你

别卷 Prompt 了,上下文工程正在淘汰你

别卷 Prompt 了,上下文工程正在淘汰你

Hi,返工早上好。 我是洛小山,和你聊聊 AI 行业思考。 AI Agent 应用的竞争逻辑,正在发生根本性变化。 当许多团队还在死磕提示词优化(PE 工程)时,一些优秀团队开始重心转向了上下文工程

来自主题: AI技术研报
6603 点击    2025-10-09 11:59
开源RL框架Verlog来了,专为LLM智能体打造,400回合不成问题

开源RL框架Verlog来了,专为LLM智能体打造,400回合不成问题

开源RL框架Verlog来了,专为LLM智能体打造,400回合不成问题

具体而言,Verlog 是一个多轮强化学习框架,专为具有高度可变回合(episode)长度的长时程(long-horizon) LLM-Agent 任务而设计。它在继承 VeRL 和 BALROG 的基础上,并遵循 pytorch-a2c-ppo-acktr-gail 的成熟设计原则,引入了一系列专门优化手段,从而在任务跨度从短暂交互到数百回合时,依然能够实现稳定而高效的训练。

来自主题: AI技术研报
6174 点击    2025-10-09 11:16
Meta的代码生成世界模型CWM,先预测结果再写代码,IDE很快会多一个“预言”按钮

Meta的代码生成世界模型CWM,先预测结果再写代码,IDE很快会多一个“预言”按钮

Meta的代码生成世界模型CWM,先预测结果再写代码,IDE很快会多一个“预言”按钮

您修过Bug吗?在Vibe coding的时代之前,当程序员遇到自己写的 Bug 时,通常能顺着自己的思路反推问题所在。但当面对 AI 生成的 Bug 时,情况变得复杂得多,我们不清楚 AI 的“思考

来自主题: AI技术研报
7723 点击    2025-10-09 11:06
10个Agent一键组队:并行智能体协作,端到端交付从24h缩减到4h!

10个Agent一键组队:并行智能体协作,端到端交付从24h缩减到4h!

10个Agent一键组队:并行智能体协作,端到端交付从24h缩减到4h!

写代码的规则,正在被悄悄改写!不再是「人+AI一起盯屏幕」,而是一次性放出十几个任务,让代理们各自跑。真正的门槛,也不再是你能写多少行代码,而是你能不能写清楚需求、明确地拆分任务、快速浏览结果。

来自主题: AI技术研报
9541 点击    2025-10-08 22:46
从「知题」到「知人」:UserRL让智能体学会「以人为本」

从「知题」到「知人」:UserRL让智能体学会「以人为本」

从「知题」到「知人」:UserRL让智能体学会「以人为本」

来自 UIUC 与 Salesforce 的研究团队提出了一套系统化方案:UserBench —— 首次将 “用户特性” 制度化,构建交互评测环境,用于专门检验大模型是否真正 “懂人”;UserRL —— 在 UserBench 及其他标准化 Gym 环境之上,搭建统一的用户交互强化学习框架,并系统探索以用户为驱动的奖励建模。

来自主题: AI技术研报
8477 点击    2025-10-08 11:45
斯坦福华人研究火了:45分钟让你的论文变身AI智能体!

斯坦福华人研究火了:45分钟让你的论文变身AI智能体!

斯坦福华人研究火了:45分钟让你的论文变身AI智能体!

斯坦福大学研究人员提出了Paper2Agent,将静态论文转化为可交互的AI智能体,让学术成果可以直接被「调用」,为科研知识传播开辟了新模式,并为构建AI共研生态奠定基础。

来自主题: AI技术研报
8556 点击    2025-10-08 11:44
清华、NVIDIA、斯坦福提出DiffusionNFT:基于前向过程的扩散强化学习新范式,训练效率提升25倍

清华、NVIDIA、斯坦福提出DiffusionNFT:基于前向过程的扩散强化学习新范式,训练效率提升25倍

清华、NVIDIA、斯坦福提出DiffusionNFT:基于前向过程的扩散强化学习新范式,训练效率提升25倍

清华大学朱军教授团队,NVIDIA Deep Imagination 研究组与斯坦福 Stefano Ermon 团队联合提出了一种全新的扩散模型强化学习(RL)范式 ——Diffusion Negative-aware FineTuning (DiffusionNFT)。该方法首次突破现有 RL 对扩散模型的基本假设,直接在前向加噪过程(forward process)上进行优化

来自主题: AI技术研报
9574 点击    2025-10-08 11:43
田渊栋与Russell团队联手,证明Transformer能在训练中自然学会叠加推理

田渊栋与Russell团队联手,证明Transformer能在训练中自然学会叠加推理

田渊栋与Russell团队联手,证明Transformer能在训练中自然学会叠加推理

该团队 2025 年的研究《Reasoning by superposition: A theoretical perspective on chain of continuous thought》已从理论上指出,连续思维链的一个关键优势在于它能使模型在叠加(superposition)状态下进行推理:当模型面对多个可能的推理路径而无法确定哪一个是正确时,它可以在连续空间中并行地保留所有可能的路

来自主题: AI技术研报
8647 点击    2025-10-08 11:41
EMNLP 2025 | CARE:无需外部工具,让大模型原生检索增强推理实现上下文高保真

EMNLP 2025 | CARE:无需外部工具,让大模型原生检索增强推理实现上下文高保真

EMNLP 2025 | CARE:无需外部工具,让大模型原生检索增强推理实现上下文高保真

近日,来自 MetaGPT、蒙特利尔大学和 Mila 研究所、麦吉尔大学、耶鲁大学等机构的研究团队发布 CARE 框架,一个新颖的原生检索增强推理框架,教会 LLM 将推理过程中的上下文事实与模型自身的检索能力有机结合起来。该框架现已全面开源,包括训练数据集、训练代码、模型 checkpoints 和评估代码,为社区提供一套完整的、可复现工作。

来自主题: AI技术研报
7119 点击    2025-10-07 22:10
Meta FAIR田渊栋唯一作者发文:拆解模型「顿悟时刻」

Meta FAIR田渊栋唯一作者发文:拆解模型「顿悟时刻」

Meta FAIR田渊栋唯一作者发文:拆解模型「顿悟时刻」

早在 2021 年,研究人员就已经发现了深度神经网络常常表现出一种令人困惑的现象,模型在早期训练阶段对训练数据的记忆能力较弱,但随着持续训练,在某一个时间点,会突然从记忆转向强泛化。

来自主题: AI技术研报
8263 点击    2025-10-07 22:06
AI基建的高潮,2025年才真正开始 | 笔记

AI基建的高潮,2025年才真正开始 | 笔记

AI基建的高潮,2025年才真正开始 | 笔记

AI正在把科技与资本结合的力量,推向一个新的市场高度。先看这张图,基本上能说明过去40年美国经济与产业的演变。 1985年初的美国十大公司,到2015年仅剩下两家,到2025年全部消失。1985年,主

来自主题: AI技术研报
8389 点击    2025-10-06 19:58
AI花17小时写了篇30页学术论文!自主选题,包含实验,还符合APA格式规范

AI花17小时写了篇30页学术论文!自主选题,包含实验,还符合APA格式规范

AI花17小时写了篇30页学术论文!自主选题,包含实验,还符合APA格式规范

不是拼凑知识点,AI这次是真搞研究。一个叫Virtuous Machines的AI系统,花了17小时、114美元,找了288个真人做实验,写了一篇30页的学术论文。而且还是从选题到成稿全自动化速通!?

来自主题: AI技术研报
9157 点击    2025-10-06 19:53