AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
字节Seed:大概念模型来了,推理的何必是下一个token

字节Seed:大概念模型来了,推理的何必是下一个token

字节Seed:大概念模型来了,推理的何必是下一个token

LLM的下一个推理单位,何必是Token?刚刚,字节Seed团队发布最新研究——DLCM(Dynamic Large Concept Models)将大模型的推理单位从token(词) 动态且自适应地推到了concept(概念)层级。

来自主题: AI技术研报
9032 点击    2026-01-04 21:01
前OpenAI CTO押注的赛道,被中国团队抢先跑通,AI「下半场」入场券人人有份

前OpenAI CTO押注的赛道,被中国团队抢先跑通,AI「下半场」入场券人人有份

前OpenAI CTO押注的赛道,被中国团队抢先跑通,AI「下半场」入场券人人有份

在大公司一路高歌猛进的 AI 浪潮里,小创业者和高校研究者正变得越来越迷茫。就连前段时间谷歌创始人谢尔盖・布林回斯坦福,都要回答「大学该何去何从」「从学术到产业的传统路径是否依然重要」这类问题。

来自主题: AI技术研报
5679 点击    2026-01-04 16:56
MIT发现让AI变聪明的秘密,竟然和人类一模一样

MIT发现让AI变聪明的秘密,竟然和人类一模一样

MIT发现让AI变聪明的秘密,竟然和人类一模一样

你有没有发现,你让AI读一篇长文章,结果它读着读着就忘了前面的内容? 你让它处理一份超长的文档,结果它给出来的答案,牛头不对马嘴? 这个现象,学术界有个专门的名词,叫做上下文腐化。 这也是目前AI的通病:大模型的记忆力太差了,文章越长,模型越傻!

来自主题: AI技术研报
8872 点击    2026-01-04 16:53
500万人在线围观,Claude Code创建者的13条独家实战秘籍爆火

500万人在线围观,Claude Code创建者的13条独家实战秘籍爆火

500万人在线围观,Claude Code创建者的13条独家实战秘籍爆火

2026 新年第三天,Claude Code 创建者、负责人 Boris Cherny 开展「线上教学」,亲自示范他自己使用这个 AI 编程工具的工作流。

来自主题: AI技术研报
9739 点击    2026-01-04 16:50
谷歌Vertex AI 1000美元赠金领取手把手教程

谷歌Vertex AI 1000美元赠金领取手把手教程

谷歌Vertex AI 1000美元赠金领取手把手教程

在深入了解如何领取赠金之前,让我们首先认识一下Google Cloud和Vertex AI这两项核心服务:

来自主题: AI技术研报
8648 点击    2026-01-04 16:10
AAAI 2026 | 小鹏联合北大,专为VLA模型定制视觉token剪枝方法,让端到端自动驾驶更高效

AAAI 2026 | 小鹏联合北大,专为VLA模型定制视觉token剪枝方法,让端到端自动驾驶更高效

AAAI 2026 | 小鹏联合北大,专为VLA模型定制视觉token剪枝方法,让端到端自动驾驶更高效

VLA 模型正被越来越多地应用于端到端自动驾驶系统中。然而,VLA 模型中冗长的视觉 token 极大地增加了计算成本。但现有的视觉 token 剪枝方法都不是专为自动驾驶设计的,在自动驾驶场景中都具有局限性。

来自主题: AI技术研报
8311 点击    2026-01-04 15:22
MIT团队推出递归语言模型!不改架构、不扩窗口,上下文处理能力扩展百倍

MIT团队推出递归语言模型!不改架构、不扩窗口,上下文处理能力扩展百倍

MIT团队推出递归语言模型!不改架构、不扩窗口,上下文处理能力扩展百倍

新年伊始,MIT CSAIL 的一纸论文在学术圈引发了不小的讨论。Alex L. Zhang 、 Tim Kraska 与 Omar Khattab 三位研究者在 arXiv 上发布了一篇题为《Recursive Language Models》的论文,提出了所谓“递归语言模型”(Recursive Language Models,简称 RLM)的推理策略。

来自主题: AI技术研报
6154 点击    2026-01-04 14:51
继2025推理模型之后,2026「递归模型」RLM要火了。

继2025推理模型之后,2026「递归模型」RLM要火了。

继2025推理模型之后,2026「递归模型」RLM要火了。

2025年的最后一天, MIT CSAIL提交了一份具有分量的工作。当整个业界都在疯狂卷模型上下文窗口(Context Window),试图将窗口拉长到100万甚至1000万token时,这篇论文却冷静地指出了一个被忽视的真相:这就好比试图通过背诵整本百科全书来回答一个复杂问题,既昂贵又低效。

来自主题: AI技术研报
5371 点击    2026-01-04 11:43
ControlNet作者张吕敏最新论文:长视频也能实现超短上下文

ControlNet作者张吕敏最新论文:长视频也能实现超短上下文

ControlNet作者张吕敏最新论文:长视频也能实现超短上下文

大部分的高质量视频生成模型,都只能生成上限约15秒的视频。清晰度提高之后,生成的视频时长还会再一次缩短。

来自主题: AI技术研报
8894 点击    2026-01-04 11:38
信息论证明,小模型跑在本地才是Agent的终极解法|斯坦福重磅

信息论证明,小模型跑在本地才是Agent的终极解法|斯坦福重磅

信息论证明,小模型跑在本地才是Agent的终极解法|斯坦福重磅

在近一年里,Agentic System(代理系统/智能体系统)正变得无处不在。从Open AI的Deep Research到Claude Code,我们看到越来越多的系统不再依赖单一模型,而是通过多模型协作来完成复杂的长窗口任务。

来自主题: AI技术研报
8233 点击    2026-01-04 10:20
比 JSON 省一半钱的格式,为什么大厂不敢用?

比 JSON 省一半钱的格式,为什么大厂不敢用?

比 JSON 省一半钱的格式,为什么大厂不敢用?

最近在研究 RAG 系统优化的时候,发现了一个有意思的格式叫 TOON。全称是 Token-Oriented Object Notation,翻译过来就是面向 Token 的对象表示法。

来自主题: AI技术研报
8228 点击    2026-01-03 14:02
LeCun在Meta还有论文:JEPA物理规划的「终极指南」

LeCun在Meta还有论文:JEPA物理规划的「终极指南」

LeCun在Meta还有论文:JEPA物理规划的「终极指南」

真正的挑战在于,如何在错综复杂的原始视觉输入中提取抽象精髓。这便引出了本研究的主角:JEPA-WM(联合嵌入预测世界模型)。从名字也能看出来,这个模型与 Yann LeCun 的 JEPA(联合嵌入预测架构)紧密相关。事实上也确实如此,并且 Yann LeCun 本人也是该论文的作者之一。

来自主题: AI技术研报
5241 点击    2026-01-03 14:00
微信炼出扩散语言模型,实现vLLM部署AR模型3倍加速,低熵场景超10倍

微信炼出扩散语言模型,实现vLLM部署AR模型3倍加速,低熵场景超10倍

微信炼出扩散语言模型,实现vLLM部署AR模型3倍加速,低熵场景超10倍

近日,腾讯微信 AI 团队提出了 WeDLM(WeChat Diffusion Language Model),这是首个在工业级推理引擎(vLLM)优化条件下,推理速度超越同等 AR 模型的扩散语言模型。

来自主题: AI技术研报
9201 点击    2026-01-03 13:56
系统学习Deep Research,这一篇综述就够了

系统学习Deep Research,这一篇综述就够了

系统学习Deep Research,这一篇综述就够了

近年来,大模型的应用正从对话与创意写作,走向更加开放、复杂的研究型问题。尽管以检索增强生成(RAG)为代表的方法缓解了知识获取瓶颈,但其静态的 “一次检索 + 一次生成” 范式,难以支撑多步推理与长期

来自主题: AI技术研报
6991 点击    2026-01-02 15:01
DeepSeek改造何恺明残差连接!梁文峰亲自署名,十年首次重大升级

DeepSeek改造何恺明残差连接!梁文峰亲自署名,十年首次重大升级

DeepSeek改造何恺明残差连接!梁文峰亲自署名,十年首次重大升级

2026年新年第一天,DeepSeek上传新论文。给何恺明2016成名作ResNet中提出的深度学习基础组件“残差连接”来了一场新时代的升级。残差连接自2016年ResNet问世以来,一直是深度学习架构的基石。

来自主题: AI技术研报
8093 点击    2026-01-01 22:57
超DeepEP两倍!无问芯穹FUSCO以「空中变阵」突破MoE通信瓶颈,专为Agent爆发设计

超DeepEP两倍!无问芯穹FUSCO以「空中变阵」突破MoE通信瓶颈,专为Agent爆发设计

超DeepEP两倍!无问芯穹FUSCO以「空中变阵」突破MoE通信瓶颈,专为Agent爆发设计

机器之心发布 随着 ChatGPT、Gemini、DeepSeek-V3、Kimi-K2 等主流大模型纷纷采用混合专家架构(Mixture-of-Experts, MoE)及专家并行策略(Expert

来自主题: AI技术研报
8318 点击    2026-01-01 10:14
动态RAG性能提升14个点!用4万亿token教会大模型 「什么时候该检索」

动态RAG性能提升14个点!用4万亿token教会大模型 「什么时候该检索」

动态RAG性能提升14个点!用4万亿token教会大模型 「什么时候该检索」

近日,来自伊利诺伊大学芝加哥分校、纽约大学、与蒙纳士大学的联合团队提出QuCo-RAG,首次跳出「从模型自己内部信号来评估不确定性」的思维定式,转而用预训练语料的客观统计来量化不确定性,

来自主题: AI技术研报
7996 点击    2026-01-01 10:13
「视频世界模型」新突破:AI连续生成5分钟,画面也不崩

「视频世界模型」新突破:AI连续生成5分钟,画面也不崩

「视频世界模型」新突破:AI连续生成5分钟,画面也不崩

围绕这一挑战,上海人工智能实验室联合复旦大学、南京大学、南洋理工大学 S-Lab 等单位提出了 LongVie 2—— 一个能够生成长达 5 分钟高保真、可控视频的世界模型框架。

来自主题: AI技术研报
7935 点击    2026-01-01 10:11
DeepMind内部视角揭秘!Scaling Law没死,算力即一切

DeepMind内部视角揭秘!Scaling Law没死,算力即一切

DeepMind内部视角揭秘!Scaling Law没死,算力即一切

2026年,Scaling Law是否还能继续玩下去?对于这个问题,一篇来自DeepMind华人研究员的万字长文在社交网络火了:Scaling Law没死!算力依然就是正义,AGI才刚刚上路。

来自主题: AI技术研报
8061 点击    2026-01-01 10:10
7B扩散语言模型单样例1000+ tokens/s!上交大联合华为推出LoPA

7B扩散语言模型单样例1000+ tokens/s!上交大联合华为推出LoPA

7B扩散语言模型单样例1000+ tokens/s!上交大联合华为推出LoPA

,时长 00:20 视频 1:单样例推理速度对比:SGLang 部署的 Qwen3-8B (NVIDIA) vs. LoPA-Dist 部署 (NVIDIA & Ascend)(注:NVIDIA 平台

来自主题: AI技术研报
7635 点击    2026-01-01 10:09
NUS尤洋教授深度探讨智能增长的瓶颈:或许我们将这样实现AGI?

NUS尤洋教授深度探讨智能增长的瓶颈:或许我们将这样实现AGI?

NUS尤洋教授深度探讨智能增长的瓶颈:或许我们将这样实现AGI?

新加坡国立大学(NUS)的尤洋教授近期发表了一篇深度分析:《智能增长的瓶颈》。在这篇分析文章中,尤洋教授从技术本质出发,直指智能增长的核心矛盾,为我们揭示了 AGI(通用人工智能)的可能路径。

来自主题: AI技术研报
9872 点击    2025-12-31 14:17
用Antigravity组建最强开发团队:Opus 4.5 + GPT-5.1-Codex-Max + Gemini 3 Pro

用Antigravity组建最强开发团队:Opus 4.5 + GPT-5.1-Codex-Max + Gemini 3 Pro

用Antigravity组建最强开发团队:Opus 4.5 + GPT-5.1-Codex-Max + Gemini 3 Pro

大家好,我是鲁工。 上周发布了一篇关于如何在Antigravity中组合Claude Opus 4.5和Gemini 3 Pro进行交叉验证的文章,读者反馈不错。

来自主题: AI技术研报
8352 点击    2025-12-31 14:13
重塑语音安全!上海交大联合宇生月伴,研发高性能高泛化语音鉴伪大模型

重塑语音安全!上海交大联合宇生月伴,研发高性能高泛化语音鉴伪大模型

重塑语音安全!上海交大联合宇生月伴,研发高性能高泛化语音鉴伪大模型

在生成式 AI 技术日新月异的背景下,合成语音的逼真度已达到真假难辨的水平,随之而来的语音欺诈与信息伪造风险也愈演愈烈。作为应对手段,语音鉴伪技术已成为信息安全领域的研究重心。

来自主题: AI技术研报
5402 点击    2025-12-31 14:12
1.8B!腾讯开源新模型,1GB内存手机离线跑,媲美Qwen3-235B

1.8B!腾讯开源新模型,1GB内存手机离线跑,媲美Qwen3-235B

1.8B!腾讯开源新模型,1GB内存手机离线跑,媲美Qwen3-235B

能翻译33语种+5方言,医学术语/粤语翻译实测“能打”。

来自主题: AI技术研报
7333 点击    2025-12-31 10:34