AI资讯新闻榜单内容搜索-模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型
继2025推理模型之后,2026「递归模型」RLM要火了。

继2025推理模型之后,2026「递归模型」RLM要火了。

继2025推理模型之后,2026「递归模型」RLM要火了。

2025年的最后一天, MIT CSAIL提交了一份具有分量的工作。当整个业界都在疯狂卷模型上下文窗口(Context Window),试图将窗口拉长到100万甚至1000万token时,这篇论文却冷静地指出了一个被忽视的真相:这就好比试图通过背诵整本百科全书来回答一个复杂问题,既昂贵又低效。

来自主题: AI技术研报
6630 点击    2026-01-04 11:43
ControlNet作者张吕敏最新论文:长视频也能实现超短上下文

ControlNet作者张吕敏最新论文:长视频也能实现超短上下文

ControlNet作者张吕敏最新论文:长视频也能实现超短上下文

大部分的高质量视频生成模型,都只能生成上限约15秒的视频。清晰度提高之后,生成的视频时长还会再一次缩短。

来自主题: AI技术研报
9763 点击    2026-01-04 11:38
信息论证明,小模型跑在本地才是Agent的终极解法|斯坦福重磅

信息论证明,小模型跑在本地才是Agent的终极解法|斯坦福重磅

信息论证明,小模型跑在本地才是Agent的终极解法|斯坦福重磅

在近一年里,Agentic System(代理系统/智能体系统)正变得无处不在。从Open AI的Deep Research到Claude Code,我们看到越来越多的系统不再依赖单一模型,而是通过多模型协作来完成复杂的长窗口任务。

来自主题: AI技术研报
9327 点击    2026-01-04 10:20
Meta炸了!LeCun炮轰28岁上司不懂行,实锤Llama 4刷榜丑闻

Meta炸了!LeCun炮轰28岁上司不懂行,实锤Llama 4刷榜丑闻

Meta炸了!LeCun炮轰28岁上司不懂行,实锤Llama 4刷榜丑闻

图灵奖大佬LeCun离职Meta后直接开怼:实锤Llama4造假传闻,炮轰原上司Alexandr Wang「不懂科研」,称Meta冲刺「超级智能」完全是被大模型洗脑。同时,他也透露自己的新公司即将在今年发布全新世界模型。

来自主题: AI资讯
8758 点击    2026-01-03 22:24
4个月烧掉30亿Token,这位「菜鸟」程序员做出50多个产品,360万人围观

4个月烧掉30亿Token,这位「菜鸟」程序员做出50多个产品,360万人围观

4个月烧掉30亿Token,这位「菜鸟」程序员做出50多个产品,360万人围观

随着大模型的发展,编程不再是一场苦修,而是一场大型即时策略游戏。在这个游戏里,很多人学会了与 AI 并肩作战,学会了用一种更纯粹、更直抵本质的方式去构建自己想要的世界。

来自主题: AI资讯
9497 点击    2026-01-03 14:04
AI天气预报新布局

AI天气预报新布局

AI天气预报新布局

我国自主研发的“风清”“风雷”“风顺”“风和”等气象大模型,不仅在实战中并跑国际同类系统,更让气象服务走向个性化、精准化与智能化。在“风和”大模型的对话框输入上述问题,AI立刻展现出它的“思考轨迹”:先定位时间与地点,调取该时段温度、风力、湿度等数据,继而生成贴心的穿搭提醒——“内薄外厚,方便调节室内外温差”“早晚温差大,建议携带外套”“室内暖气较足

来自主题: AI资讯
9354 点击    2026-01-03 14:04
比 JSON 省一半钱的格式,为什么大厂不敢用?

比 JSON 省一半钱的格式,为什么大厂不敢用?

比 JSON 省一半钱的格式,为什么大厂不敢用?

最近在研究 RAG 系统优化的时候,发现了一个有意思的格式叫 TOON。全称是 Token-Oriented Object Notation,翻译过来就是面向 Token 的对象表示法。

来自主题: AI技术研报
9406 点击    2026-01-03 14:02
LeCun在Meta还有论文:JEPA物理规划的「终极指南」

LeCun在Meta还有论文:JEPA物理规划的「终极指南」

LeCun在Meta还有论文:JEPA物理规划的「终极指南」

真正的挑战在于,如何在错综复杂的原始视觉输入中提取抽象精髓。这便引出了本研究的主角:JEPA-WM(联合嵌入预测世界模型)。从名字也能看出来,这个模型与 Yann LeCun 的 JEPA(联合嵌入预测架构)紧密相关。事实上也确实如此,并且 Yann LeCun 本人也是该论文的作者之一。

来自主题: AI技术研报
6184 点击    2026-01-03 14:00
微信炼出扩散语言模型,实现vLLM部署AR模型3倍加速,低熵场景超10倍

微信炼出扩散语言模型,实现vLLM部署AR模型3倍加速,低熵场景超10倍

微信炼出扩散语言模型,实现vLLM部署AR模型3倍加速,低熵场景超10倍

近日,腾讯微信 AI 团队提出了 WeDLM(WeChat Diffusion Language Model),这是首个在工业级推理引擎(vLLM)优化条件下,推理速度超越同等 AR 模型的扩散语言模型。

来自主题: AI技术研报
10069 点击    2026-01-03 13:56