AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
OpenAI发布Codex实战手册,GPT5.1的持续工作极限为2小时17分钟

OpenAI发布Codex实战手册,GPT5.1的持续工作极限为2小时17分钟

OpenAI发布Codex实战手册,GPT5.1的持续工作极限为2小时17分钟

2小时17分钟,这是截至2025年8月,前沿AI模型在保持50%成功率的前提下,能够维持连续推理工作的时长。这个数字意味着AI已经从处理“秒级”的代码片段,跨越到了处理“小时级”的复杂工程任务。

来自主题: AI技术研报
8723 点击    2025-11-26 15:14
RAG被判死刑:Google用一行API架空工程师!

RAG被判死刑:Google用一行API架空工程师!

RAG被判死刑:Google用一行API架空工程师!

Google宣判RAG死刑!那条曾让无数工程师自豪的技术链,如今只剩下一行API调用。Gemini的File Search,把检索、分块、索引、引用,全都封进了模型内部。开发者不再需要理解流程,只需要上传文件。当智能被自动化吞并,工程师第一次发现,自己也成了被自动化的一部分。

来自主题: AI技术研报
9920 点击    2025-11-26 15:14
告别静态操控:新型AI可穿戴贴片,可在运动中精准识别手势控制机械臂

告别静态操控:新型AI可穿戴贴片,可在运动中精准识别手势控制机械臂

告别静态操控:新型AI可穿戴贴片,可在运动中精准识别手势控制机械臂

美国加州大学圣地亚哥分校(UCSD)徐升教授对 DeepTech 表示:“很荣幸我们的工作成为 Nature Sensors 期刊的首篇论文,我们第一次通过 AI 的方法实现了在动态下抗运动伪影的人机交互,应用场景包括可穿戴和移动设备的手势控制、机器人遥操作、AR/VR 动作追踪、游戏、康复与辅助设备、工业与军事训练、健康与运动监测、

来自主题: AI技术研报
7164 点击    2025-11-26 14:38
告别抽卡、散装工具拼凑!通用AI视频智能体框架UniVA开源

告别抽卡、散装工具拼凑!通用AI视频智能体框架UniVA开源

告别抽卡、散装工具拼凑!通用AI视频智能体框架UniVA开源

在AI视频创作过程中,创作者常因频繁切换多种工具而疲惫,导致创作热情消磨。近期,多所高校联合开源的UniVA框架,像一位「AI导演」,能整合多种视频工具,提供从脚本到成片的一站式自动化体验,改变传统「抽卡」式创作,支持多轮交互和主动纠错,还能实现风格迁移、前传创作等功能,为视频创作带来高效与便捷。

来自主题: AI技术研报
8733 点击    2025-11-26 14:37
中兴发了一篇论文,洞察AI更前沿的探索方向

中兴发了一篇论文,洞察AI更前沿的探索方向

中兴发了一篇论文,洞察AI更前沿的探索方向

当大模型参数量冲向万亿级,GPT-4o、Llama4 等模型不断刷新性能上限时,AI 行业也正面临前所未有的瓶颈。Transformer 架构效率低、算力消耗惊人、与物理世界脱节等问题日益凸显,通用人工智能(AGI)的实现路径亟待突破。

来自主题: AI技术研报
6643 点击    2025-11-26 13:47
NeurIPS 2025 Spotlight | 中国联通以全局优化重塑扩散模型加速

NeurIPS 2025 Spotlight | 中国联通以全局优化重塑扩散模型加速

NeurIPS 2025 Spotlight | 中国联通以全局优化重塑扩散模型加速

当前,视频生成模型性能正在快速提升,尤其是基于Transformer架构的DiT模型,在视频生成领域的表现已经逐渐接近真实拍摄效果。然而,这些扩散模型也面临一个共同的瓶颈:推理时间长、算力成本高、生成速度难以提升。随着视频生成长度持续增加、分辨率不断提高,这个瓶颈正在成为影响视频创作体验的主要障碍之一。

来自主题: AI技术研报
7227 点击    2025-11-26 13:46
哈工大深圳团队推出Uni-MoE-2.0-Omni:全模态理解、推理及生成新SOTA

哈工大深圳团队推出Uni-MoE-2.0-Omni:全模态理解、推理及生成新SOTA

哈工大深圳团队推出Uni-MoE-2.0-Omni:全模态理解、推理及生成新SOTA

全模态大模型(Omnimodal Large Models, OLMs)能够理解、生成、处理并关联真实世界多种数据类型,从而实现更丰富的理解以及与复杂世界的深度交互。人工智能向全模态大模型的演进,标志着其从「专才」走向「通才」,从「工具」走向「伙伴」的关键点。

来自主题: AI技术研报
7485 点击    2025-11-26 09:13
浅谈一下RLVR&SFT分别对模型显性知识学习和隐参数空间结构扰动背后的一些猜想

浅谈一下RLVR&SFT分别对模型显性知识学习和隐参数空间结构扰动背后的一些猜想

浅谈一下RLVR&SFT分别对模型显性知识学习和隐参数空间结构扰动背后的一些猜想

最近不论是在学术圈还是产业实践中,对于RLVR和传统SFT之间的区别与联系,以及RL本身基于奖励建模反馈机制并结合不同的策略优化算法过程中对模型显性知识的学习和隐参数空间的变化的讨论热度一直很高。

来自主题: AI技术研报
6009 点击    2025-11-26 09:12
别装了,AI巨头们!谁在卡脖子,谁在割韭菜?这张图一目了然

别装了,AI巨头们!谁在卡脖子,谁在割韭菜?这张图一目了然

别装了,AI巨头们!谁在卡脖子,谁在割韭菜?这张图一目了然

卡内基梅隆揭秘美国AI产业链:谁能扼住AI的喉咙?OpenAI和迪士尼如何捆绑,AMD、软银和英伟达究竟在下哪盘棋?卡内基梅隆大学刚刚抛出一颗「产业核弹」:首个系统刻画数据、算力、模型、资本乃至人才流向的AI供应链数据集。

来自主题: AI技术研报
7941 点击    2025-11-25 16:35
AAAI 2026 Oral | 悉尼科技大学联合港理工打破「一刀切」,联邦推荐如何实现「千人千面」的图文融合?

AAAI 2026 Oral | 悉尼科技大学联合港理工打破「一刀切」,联邦推荐如何实现「千人千面」的图文融合?

AAAI 2026 Oral | 悉尼科技大学联合港理工打破「一刀切」,联邦推荐如何实现「千人千面」的图文融合?

在推荐系统迈向多模态的今天,如何兼顾数据隐私与个性化图文理解?悉尼科技大学龙国栋教授团队联合香港理工大学杨强教授、张成奇教授团队,提出全新框架 FedVLR。该工作解决了联邦环境下多模态融合的异质性难题,已被人工智能顶级会议 AAAI 2026 接收为 Oral Presentation。

来自主题: AI技术研报
7804 点击    2025-11-25 15:30
新型AI芯片能耗重大突破,已登Nature子刊

新型AI芯片能耗重大突破,已登Nature子刊

新型AI芯片能耗重大突破,已登Nature子刊

AI 浪潮席卷全球,但算力功耗的 “电费焦虑” 也随之而来。传统冯・诺依曼架构下,数据在 CPU 和内存间 “疲于奔命”,消耗了大量能量。

来自主题: AI技术研报
8841 点击    2025-11-25 10:06
NeurIPS 2025 | UniLumos: 引入物理反馈的统一图像视频重打光框架,实现20倍加速的真实光影重塑!

NeurIPS 2025 | UniLumos: 引入物理反馈的统一图像视频重打光框架,实现20倍加速的真实光影重塑!

NeurIPS 2025 | UniLumos: 引入物理反馈的统一图像视频重打光框架,实现20倍加速的真实光影重塑!

图像与视频重光照(Relighting)技术在计算机视觉与图形学中备受关注,尤其在电影、游戏及增强现实等领域应用广泛。当前,基于扩散模型的方法能够生成多样且可控的光照效果,但其优化过程通常依赖于语义空间,而语义上的相似性无法保证视觉空间中的物理合理性,导致生成结果常出现高光过曝、阴影错位、遮挡关系错误等不合理现象。

来自主题: AI技术研报
5636 点击    2025-11-25 10:03
AAAI 2026 Oral | 通过视觉安全提示与深度对齐实现大型视觉语言模型的安全对齐

AAAI 2026 Oral | 通过视觉安全提示与深度对齐实现大型视觉语言模型的安全对齐

AAAI 2026 Oral | 通过视觉安全提示与深度对齐实现大型视觉语言模型的安全对齐

随着大型视觉语言模型在多个下游任务的广泛应用,其潜在的安全风险也开始快速显露。研究表明,即便是最先进的大型视觉语言模型,也可能在面对带有隐蔽的恶意意图的图像 — 文本输入时给出违规甚至有害的响应,而现有的轻量级的安全对齐方案都具有一定的局限性。

来自主题: AI技术研报
7551 点击    2025-11-25 09:30
顶流设计Agent能用Nano Banana Pro了!一句话BlackPink变东北翠花

顶流设计Agent能用Nano Banana Pro了!一句话BlackPink变东北翠花

顶流设计Agent能用Nano Banana Pro了!一句话BlackPink变东北翠花

两个AI顶流终于是碰到了一起,这回设计师们真要慌了但也可能是大意过望了—— 因为Lovart,这个顶流设计师Agent,现在已经正式接入Nano Banana Pro了!

来自主题: AI技术研报
7863 点击    2025-11-24 15:00
对话范浩强:10亿融资之前,我们手搓了5000元“丐版硬件”

对话范浩强:10亿融资之前,我们手搓了5000元“丐版硬件”

对话范浩强:10亿融资之前,我们手搓了5000元“丐版硬件”

因为成功手搓了一个成本不到5000元的“拼夕夕式”丐版硬件,原旷视6号员工、研究院助理院长范浩强终于下决心,在2025年投身具身智能创业。

来自主题: AI技术研报
9699 点击    2025-11-24 14:58
NeurIPS重磅:华南理工团队重构扩散模型推理,质量效率双SOTA

NeurIPS重磅:华南理工团队重构扩散模型推理,质量效率双SOTA

NeurIPS重磅:华南理工团队重构扩散模型推理,质量效率双SOTA

扩散概率生成模型(Diffusion Models)已成为AIGC时代的重要基础,但其推理速度慢、训练与推理之间的差异大,以及优化困难,始终是制约其广泛应用的关键问题。近日,被NeurIPS 2025接收的一篇重磅论文EVODiff给出了全新解法:来自华南理工大学曾德炉教授「统计推断,数据科学与人工智能」研究团队跳出了传统的数值求解思维,首次从信息感知的推理视角,将去噪过程重构为实时熵减优化问题。

来自主题: AI技术研报
6484 点击    2025-11-24 14:32
别问树模型了!死磕结构化数据,清华团队把大模型表格理解推到极限

别问树模型了!死磕结构化数据,清华团队把大模型表格理解推到极限

别问树模型了!死磕结构化数据,清华团队把大模型表格理解推到极限

科幻作家刘慈欣在小说《超新星纪元》中描述了一个令人难忘的场景——几个十几岁的孩子被带到一个小山环绕的地方,他们的面前是一条单轨铁路,上面停着十一列载货火车,每列车有二十节车皮。这些车首尾相接成一个巨大的弧形,根本看不到尽头。这些车中,其中一列装的是味精,另外十列装的是盐。

来自主题: AI技术研报
7294 点击    2025-11-24 10:44
AI「看见」实验,哈佛颠覆性突破!一副AR眼镜,新手秒变资深专家

AI「看见」实验,哈佛颠覆性突破!一副AR眼镜,新手秒变资深专家

AI「看见」实验,哈佛颠覆性突破!一副AR眼镜,新手秒变资深专家

当AI能「看」见实验室的细节,能「听」见研究员的每一次反应,能「感知」实验进展的每一点变化——它的推理将不再局限于硅基世界。那时,AI将通过人类的双手,直接参与并改变物理现实。它或许将成为实验室中最勤奋、最可靠的「智能伙伴」。

来自主题: AI技术研报
5973 点击    2025-11-24 10:43
Scaling Law的焦虑差距可以由「交互深度」解决,MiroMind用Qwen3-72B在GAIA中超越GPT5

Scaling Law的焦虑差距可以由「交互深度」解决,MiroMind用Qwen3-72B在GAIA中超越GPT5

Scaling Law的焦虑差距可以由「交互深度」解决,MiroMind用Qwen3-72B在GAIA中超越GPT5

在过去五年,AI领域一直被一条“铁律”所支配,Scaling Law(扩展定律)。它如同计算领域的摩尔定律一般,简单、粗暴、却魔力无穷:投入更多的数据、更多的参数、更多的算力,模型的性能就会线性且可预测地增长。无数的团队,无论是开源巨头还是商业实验室,都将希望孤注一掷地押在了这条唯一的救命稻草上。

来自主题: AI技术研报
5323 点击    2025-11-24 10:19
通用的dLLM开发框架,让BERT掌握扩散式对话

通用的dLLM开发框架,让BERT掌握扩散式对话

通用的dLLM开发框架,让BERT掌握扩散式对话

扩散式语言模型(Diffusion Language Model, DLM)虽近期受关注,但社区长期受限于(1)缺乏易用开发框架与(2)高昂训练成本,导致多数 DLM 难以在合理预算下复现,初学者也难以真正理解其训练与生成机制。

来自主题: AI技术研报
7781 点击    2025-11-24 10:19
月活11亿的Reddit ,怎么选向量数据库:Pgvector、Redis、Milvus、Qdrant

月活11亿的Reddit ,怎么选向量数据库:Pgvector、Redis、Milvus、Qdrant

月活11亿的Reddit ,怎么选向量数据库:Pgvector、Redis、Milvus、Qdrant

业务团队可能说他们想要个负重一吨,时速两百公里的马车…… 现如今,借助向量检索能力,实现基于语义相似度的智能搜索,已经是所有电商、推荐、社区平台技术架构的重要一环。 作为拥有约 1.08 亿日活、 1

来自主题: AI技术研报
9233 点击    2025-11-23 19:38