AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
首个AI商业广告工作流开源,我做出了可口可乐最有创意的广告

首个AI商业广告工作流开源,我做出了可口可乐最有创意的广告

首个AI商业广告工作流开源,我做出了可口可乐最有创意的广告

可乐可乐是真头铁, 24年用AI做广告挨骂,25年继续用继续挨骂,主要是创意很偷懒,两年了还给我看同一条广告。

来自主题: AI技术研报
7306 点击    2025-11-10 15:10
AAAI 2026结果公布,刷出88887高分!2.3万投稿录用率仅17.6%

AAAI 2026结果公布,刷出88887高分!2.3万投稿录用率仅17.6%

AAAI 2026结果公布,刷出88887高分!2.3万投稿录用率仅17.6%

AAAI 2026录用结果重磅公布!这一届,投稿量暴增至23,680篇,录用率仅17.6%,竞争程度远超往年。一些成功上岸的研究员们晒出了录用成绩单,有人甚至拿下了88887高分。

来自主题: AI技术研报
6513 点击    2025-11-10 14:33
NeurIPS2025 Spotlight | RobustMerge: 多模态大模型高效微调模型合并的全新范式

NeurIPS2025 Spotlight | RobustMerge: 多模态大模型高效微调模型合并的全新范式

NeurIPS2025 Spotlight | RobustMerge: 多模态大模型高效微调模型合并的全新范式

在 AI 技术飞速发展的今天,如何高效地将多个专业模型的能力融合到一个通用模型中,是当前大模型应用面临的关键挑战。全量微调领域已经有许多开创性的工作,但是在高效微调领域,尚未有对模型合并范式清晰的指引。

来自主题: AI技术研报
6933 点击    2025-11-10 14:25
2025 智能体元年,Agent 开发平台深度评测报告解读

2025 智能体元年,Agent 开发平台深度评测报告解读

2025 智能体元年,Agent 开发平台深度评测报告解读

AI 产业的两大核心趋势正并行发展:基础大模型的能力持续突破,而 AI Agent 的产业化落地也在全面提速。Capgemini 于 2025 年 4 月发布的一项覆盖 14 国 1500 名企业高管的调研显示[1],已有 37% 的受访组织启动或实施 AI Agent 项目,另有高达 61 %的组织将在一年内跟进部署或进行探索,印证了该趋势的全球共识。

来自主题: AI技术研报
8147 点击    2025-11-10 11:16
全新人工神经元面世,能耗比人脑低数千倍!或彻底改变AI部署方式

全新人工神经元面世,能耗比人脑低数千倍!或彻底改变AI部署方式

全新人工神经元面世,能耗比人脑低数千倍!或彻底改变AI部署方式

近日,美国南加州大学教授约书亚·杨(Joshua Yang)团队和合作者成功造出一个功能齐全的人工神经元 1M1T1R,这是一种能像真实脑细胞一样工作的人工神经元,有望催生出类似人脑的基于硬件的学习系统,并有望将 AI 转变为更加接近自然智能的形态。

来自主题: AI技术研报
7523 点击    2025-11-10 10:27
终结Transformer统治!清华姚班校友出手,剑指AI「灾难性遗忘」

终结Transformer统治!清华姚班校友出手,剑指AI「灾难性遗忘」

终结Transformer统治!清华姚班校友出手,剑指AI「灾难性遗忘」

大模型「灾难性遗忘」问题或将迎来突破。近日,NeurIPS 2025收录了谷歌研究院的一篇论文,其中提出一种全新的「嵌套学习(Nested Learning)」架构。实验中基于该框架的「Hope」模型在语言建模与长上下文记忆任务中超越Transformer模型,这意味着大模型正迈向具备自我改进能力的新阶段。

来自主题: AI技术研报
6919 点击    2025-11-10 09:56
ICCV涌现自动驾驶新范式:统一世界模型VLA,用训练闭环迈向L4

ICCV涌现自动驾驶新范式:统一世界模型VLA,用训练闭环迈向L4

ICCV涌现自动驾驶新范式:统一世界模型VLA,用训练闭环迈向L4

智能汽车、自动驾驶、物理AI的竞速引擎,正在悄然收敛—— 至少核心头部玩家,已经在最近的ICCV 2025,展现出了共识。

来自主题: AI技术研报
8310 点击    2025-11-10 09:20
IEEE | LLM Agent的能力边界在哪?首篇「图智能体 (GLA)」综述为复杂系统构建统一蓝图

IEEE | LLM Agent的能力边界在哪?首篇「图智能体 (GLA)」综述为复杂系统构建统一蓝图

IEEE | LLM Agent的能力边界在哪?首篇「图智能体 (GLA)」综述为复杂系统构建统一蓝图

LLM Agent 正以前所未有的速度发展,从网页浏览、软件开发到具身控制,其强大的自主能力令人瞩目。然而,繁荣的背后也带来了研究的「碎片化」和能力的「天花板」:多数 Agent 在可靠规划、长期记忆、海量工具管理和多智能体协调等方面仍显稚嫩,整个领域仿佛一片广袤却缺乏地图的丛林。

来自主题: AI技术研报
7315 点击    2025-11-10 09:20
机器人训练,北京男大有了技能玩法

机器人训练,北京男大有了技能玩法

机器人训练,北京男大有了技能玩法

还得是大学生会玩啊(doge)! 网上正高速冲浪中,结果意外发现:有男大竟找了个机器人队友?而且机器人还相当黏人(bushi~ 白天超市打工它要跟着,一看东西装好就立马乐颠颠帮忙拉小推车,上楼下楼忙个不停:

来自主题: AI技术研报
5834 点击    2025-11-09 15:38
英伟达、DeepSeek集体跟进!18个月前被忽视,如今统治AI推理

英伟达、DeepSeek集体跟进!18个月前被忽视,如今统治AI推理

英伟达、DeepSeek集体跟进!18个月前被忽视,如今统治AI推理

2024年,加州大学圣地亚哥分校「Hao AI Lab」提出了DistServe的解耦推理理念,短短一年多时间,迅速从实验室概念成长为行业标准,被NVIDIA、vLLM等主流大模型推理框架采用,预示着AI正迈向「模块化智能」的新时代。

来自主题: AI技术研报
8149 点击    2025-11-09 15:37
LLM强化学习新框架!UCSD多智能体训练框架让LLM工具调用能力暴增5.8倍

LLM强化学习新框架!UCSD多智能体训练框架让LLM工具调用能力暴增5.8倍

LLM强化学习新框架!UCSD多智能体训练框架让LLM工具调用能力暴增5.8倍

现有的LLM智能体训练框架都是针对单智能体的,多智能体的“群体强化”仍是一个亟须解决的问题。为了解决这一领域的研究痛点,来自UCSD和英特尔的研究人员,提出了新的提出通用化多智能体强化学习框架——PettingLLMs。支持任意组合的多个LLM一起训练。

来自主题: AI技术研报
6390 点击    2025-11-09 15:36
改掉幻觉=杀死AI?Science曝光大模型「先天死穴」

改掉幻觉=杀死AI?Science曝光大模型「先天死穴」

改掉幻觉=杀死AI?Science曝光大模型「先天死穴」

《Science》的一篇新文章指出,大模型存在一个先天难解的软肋:幻觉难以根除。AI厂商让大模型在不确定性情况下说「我不知道」,虽然有助于减少模型幻觉,但可能因此影响用户留存与活跃度,动摇商业根本。

来自主题: AI技术研报
8289 点击    2025-11-09 15:35
银河通用全新模型统一机器人导航任务,7B参数模型支持实时部署

银河通用全新模型统一机器人导航任务,7B参数模型支持实时部署

银河通用全新模型统一机器人导航任务,7B参数模型支持实时部署

北京大学,银河通用,阿德莱德大学,浙江大学等机构合作,探究如何构建具身导航的基座模型(Embodied Navigation Foundation Model)提出了NavFoM,一个跨任务和跨载体的导航大模型。实现具身导航从“专用”到“通用”的技术跃进

来自主题: AI技术研报
7118 点击    2025-11-09 15:34
仅0.2B就比GPT-4.1强?加州大学新指标:组合推理基准首次超越人类

仅0.2B就比GPT-4.1强?加州大学新指标:组合推理基准首次超越人类

仅0.2B就比GPT-4.1强?加州大学新指标:组合推理基准首次超越人类

加州大学河滨分校团队发现,AI组合推理表现不佳部分源于评测指标过于苛刻。他们提出新指标GroupMatch和Test-Time Matching算法,挖掘模型潜力,使GPT-4.1在Winoground测试中首次超越人类,0.2B参数的SigLIP-B16在MMVP-VLM基准测试上超越GPT-4.1并刷新最优结果。这表明模型的组合推理能力早已存在,只需合适方法在测试阶段解锁。

来自主题: AI技术研报
6594 点击    2025-11-09 15:33
长视频让大模型集体失明?谢赛宁、杨立昆、李飞飞等提出空间超感知范式,用“预测未来”代替“暴力记忆”

长视频让大模型集体失明?谢赛宁、杨立昆、李飞飞等提出空间超感知范式,用“预测未来”代替“暴力记忆”

长视频让大模型集体失明?谢赛宁、杨立昆、李飞飞等提出空间超感知范式,用“预测未来”代替“暴力记忆”

去年,谢赛宁(Saining Xie)团队发布了 Cambrian-1,一次对图像多模态模型的开放式探索。但团队没有按惯例继续推出 Cambrian-2、Cambrian-3,而是停下来思考:真正的多

来自主题: AI技术研报
6998 点击    2025-11-09 10:38
突破LLM遗忘瓶颈,谷歌「嵌套学习」让AI像人脑一样持续进化

突破LLM遗忘瓶颈,谷歌「嵌套学习」让AI像人脑一样持续进化

突破LLM遗忘瓶颈,谷歌「嵌套学习」让AI像人脑一样持续进化

近日,谷歌推出了一种全新的用于持续学习的机器学习范式 —— 嵌套学习,模型不再采用静态的训练周期,而是以不同的更新速度在嵌套层中进行学习,即将模型视为一系列嵌套问题的堆叠,使其能够不断学习新技能,同时又不会遗忘旧技能。

来自主题: AI技术研报
8046 点击    2025-11-09 10:25
微信、清华连续自回归模型CALM,新范式实现从「离散词元」到「连续向量」转变

微信、清华连续自回归模型CALM,新范式实现从「离散词元」到「连续向量」转变

微信、清华连续自回归模型CALM,新范式实现从「离散词元」到「连续向量」转变

众所周知,大型语言模型(LLM)的根本运作方式是预测下一个 token(词元),能够保证生成的连贯性和逻辑性,但这既是 LLM 强大能力的「灵魂」所在,也是其枷锁,将导致高昂的计算成本和响应延迟。 可

来自主题: AI技术研报
6880 点击    2025-11-09 10:21
n8n已死!我用Kimi跑通了Claude Skills,直接替代工作流

n8n已死!我用Kimi跑通了Claude Skills,直接替代工作流

n8n已死!我用Kimi跑通了Claude Skills,直接替代工作流

前段时间Trae下架了Claude,标志着但凡跟中国沾边AI工具都禁止使用 Claude 但我一点都不慌,因为已经很久没用 Claude 了 尤其在编程赛道上,国产大模型已经通过内部互卷站起来了。

来自主题: AI技术研报
8602 点击    2025-11-08 19:27
LLM首次达到人类语言专家水平!OpenAI o1拿下拆解句法、识别歧义、推理音律

LLM首次达到人类语言专家水平!OpenAI o1拿下拆解句法、识别歧义、推理音律

LLM首次达到人类语言专家水平!OpenAI o1拿下拆解句法、识别歧义、推理音律

这说明o1不仅能够使用语言,还能够思考语言,具备元语言能力(metalinguistic capacity )。由于语言模型只是在预测句子中的下一个单词,人对语言的深层理解在质上有所不同。因此,一些语言学家表示,大模型实际上并没有在处理语言。

来自主题: AI技术研报
7667 点击    2025-11-08 15:51
6.4万star的开源智能体框架全面重构!OpenHands重大升级,叫板OpenAI和谷歌

6.4万star的开源智能体框架全面重构!OpenHands重大升级,叫板OpenAI和谷歌

6.4万star的开源智能体框架全面重构!OpenHands重大升级,叫板OpenAI和谷歌

机器之心报道 编辑:Panda 刚刚,OpenHands 开发团队发布了一篇新论文,正式宣布广受欢迎的软件开发智能体框架 OpenHands (GitHub star 已超 6.4 万)中的智能体组件

来自主题: AI技术研报
7143 点击    2025-11-08 15:50
SimKO:缓解RLVR训练中的概率过度集中,优化pass@K性能

SimKO:缓解RLVR训练中的概率过度集中,优化pass@K性能

SimKO:缓解RLVR训练中的概率过度集中,优化pass@K性能

研究团队提出一种简洁且高效的算法 ——SimKO (Simple Pass@K Optimization),显著优化了 pass@K(K=1 及 K>1)性能。同时,团队认为当前的用熵(Entropy)作为指标衡量多样性存在局限:熵无法具体反映概率分布的形态。如图 2(c)所示,两个具有相同熵值的分布,一个可能包含多个峰值,而另一个则可能高度集中于一个峰值。

来自主题: AI技术研报
6363 点击    2025-11-08 15:48
重磅|Xsignal携手中欧AI与营销创新实验室联合发布《AI搜索时代:从GEO到AIBE的品牌新蓝图|GEO白皮书|2026》

重磅|Xsignal携手中欧AI与营销创新实验室联合发布《AI搜索时代:从GEO到AIBE的品牌新蓝图|GEO白皮书|2026》

重磅|Xsignal携手中欧AI与营销创新实验室联合发布《AI搜索时代:从GEO到AIBE的品牌新蓝图|GEO白皮书|2026》

11月7日,Xsignal (奇异因子) 携手中欧国际工商学院(CEIBS)AI与营销创新实验室 联合举办“AI驱动营销新范式:GEO白皮书发布暨AI搜索时代的品牌竞争力”论坛,重磅发布行业首份《AI搜索时代:从GEO到AIBE的品牌新蓝图|GEO白皮书|2026》,定义AI时代品牌新标准、重塑营销底层逻辑!

来自主题: AI技术研报
7894 点击    2025-11-08 11:36
视频模型假装在推理?MME-CoF新基准评估12个推理维度

视频模型假装在推理?MME-CoF新基准评估12个推理维度

视频模型假装在推理?MME-CoF新基准评估12个推理维度

视频生成模型如Veo-3能生成逼真视频,但有研究发现其推理能力存疑。香港中文大学、北京大学、东北大学的研究者们设计了12项测试,发现模型只能模仿表面模式,未真正理解因果。这项研究为视频模型推理能力评估提供基准,指明未来研究方向。

来自主题: AI技术研报
6558 点击    2025-11-08 11:16
具身智能体不再失忆!智源新记忆系统让机器人秒变熟人,支持终身记忆

具身智能体不再失忆!智源新记忆系统让机器人秒变熟人,支持终身记忆

具身智能体不再失忆!智源新记忆系统让机器人秒变熟人,支持终身记忆

智源研究院(BAAI)、Spin Matrix、乐聚机器人与新加坡南洋理工大学等联合提出了一个全新的终身记忆系统——RoboBrain-Memory。RoboBrain-Memory是全球范围内首个专为全双工、全模态模型设计的终身记忆系统,旨在解决具身智能体在真实世界的复杂交互问题,不仅支持实时音视频中多用户身份识别与关系理解,还能动态维护个体档案与社会关系图谱,从而实现类人的长期个性化交互。

来自主题: AI技术研报
6553 点击    2025-11-08 11:11
vivo AI Lab提出自我进化的移动GUI智能体,UI-Genie无需人工标注实现性能持续提升

vivo AI Lab提出自我进化的移动GUI智能体,UI-Genie无需人工标注实现性能持续提升

vivo AI Lab提出自我进化的移动GUI智能体,UI-Genie无需人工标注实现性能持续提升

本文来自于香港中文大学 MMLab 和 vivo AI Lab,其中论文第一作者肖涵,主要研究方向为多模态大模型和智能体学习,合作作者王国志,研究方向为多模态大模型和 Agent 强化学习。项目 le

来自主题: AI技术研报
6435 点击    2025-11-08 11:00
强化学习+大模型记忆:Mem-α,让智能体第一次学会“如何记忆”

强化学习+大模型记忆:Mem-α,让智能体第一次学会“如何记忆”

强化学习+大模型记忆:Mem-α,让智能体第一次学会“如何记忆”

Mem-α 的出现,正是为了解决这一困境。由加州大学圣地亚哥分校的 Yu Wang 在 Anuttacon 实习期间完成,这项工作是首次将强化学习引入大模型的记忆管理体系,让模型能够自主学习如何使用工具去存储、更新和组织记忆。

来自主题: AI技术研报
7500 点击    2025-11-08 10:33
自回归科学基座模型 BigBang-Proton,提出实现 AGI 的新路线

自回归科学基座模型 BigBang-Proton,提出实现 AGI 的新路线

自回归科学基座模型 BigBang-Proton,提出实现 AGI 的新路线

近日,专注于研发物质世界基座模型的公司超越对称(上海)技术有限公司(超对称)发布了新版基座模型 BigBang-Proton,成功实现多个真实世界的专业学科问题与 LLM 的统一预训练和推理,挑战了 Sam Altman 和主流的 AGI 技术路线。

来自主题: AI技术研报
7985 点击    2025-11-07 15:03
在失败中进化?UIUC联合斯坦福、AMD实现智能体「从错误中成长」

在失败中进化?UIUC联合斯坦福、AMD实现智能体「从错误中成长」

在失败中进化?UIUC联合斯坦福、AMD实现智能体「从错误中成长」

伊利诺伊大学厄巴纳 - 香槟分校(UIUC)等团队近日发布论文,系统性剖析了 LLM 智能体失败的机制,并提出了可自我修复的创新框架 ——AgentDebug。该研究认为,AI 智能体应成为自身的观察者和调试者,不仅仅是被动的任务执行者,为未来大规模智能体的可靠运行和自动进化提供了理论与实践工具。

来自主题: AI技术研报
6700 点击    2025-11-07 15:01
NeurIPS 2025 Spotlight | 选择性知识蒸馏精准过滤:推测解码加速器AdaSPEC来了

NeurIPS 2025 Spotlight | 选择性知识蒸馏精准过滤:推测解码加速器AdaSPEC来了

NeurIPS 2025 Spotlight | 选择性知识蒸馏精准过滤:推测解码加速器AdaSPEC来了

目前,最先进的对齐方法是使用知识蒸馏(Knowledge Distillation, KD)在所有 token 上最小化 KL 散度。然而,最小化全局 KL 散度并不意味着 token 的接受率最大化。由于小模型容量受限,草稿模型往往难以完整吸收目标模型的知识,导致直接使用蒸馏方法的性能提升受限。在极限场景下,草稿模型和目标模型的巨大尺寸差异甚至可能导致训练不收敛。

来自主题: AI技术研报
7513 点击    2025-11-07 14:57