DeepSeekV3.2技术报告还是老外看得细

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
DeepSeekV3.2技术报告还是老外看得细
5104点击    2025-12-03 12:11

ChatGPT三岁生日这一天,硅谷热议的新模型来自DeepSeek


准确说是两款开源模型——DeepSeek-V3.2DeepSeek-V3.2-Speciale


这俩模型火到什么程度呢?


有网友表示,在去圣地亚哥的(疑似赶场NeurIPS 2025)航班上,有30%的乘客都在对着DeepSeek的PDF两眼冒光。


DeepSeekV3.2技术报告还是老外看得细


而上周嘲讽DeepSeek “昙花一现”的推特更是在发布的当晚被刷到了500万浏览。


DeepSeekV3.2技术报告还是老外看得细


除了普通网友,奥特曼也是急急急急:不仅启动红色警报,还临时推迟了在ChatGPT上投放广告的计划。


与此同时,那一头的谷歌也没被放过。


网友直接 “灵魂喊话” 谷歌Gemini团队:别睡了,DeepSeek回来了。


DeepSeekV3.2技术报告还是老外看得细


这是怎么一回事?


闭源精锐?打的就是闭源精锐!


总的来说,DeepSeek-V3.2模型在智能体评测中达到了当前开源模型的最高水平,大幅缩小了开源模型与顶尖闭源模型的差距,并宣告了闭源落后开源的结束。


DeepSeekV3.2技术报告还是老外看得细


其中,标准版DeepSeek-V3.2在推理测试中,达到了GPT-5的水平,仅略低于Gemini-3.0-Pro。


而“特别版”DeepSeek-V3.2-Speciale不仅全方位超越了GPT-5,还能在主流推理任务中和Gemini-3.0-Pro掰掰手腕。


此外,V3.2-Special还拿下了IMO、CMO、ICPC及IOI的金牌,并在ICPC和IOI上达到了人类选手第二名与第十名的水平。


这不仅击碎了开源模型落后闭源模型半年的质疑,又顺便给硅谷的闭源AI公司好好上了一波压力。


DeepSeekV3.2技术报告还是老外看得细


而且,这还不是V4/R2。


换句话说,大菜还没上呢,光凉菜就已经让硅谷吃饱了。


DeepSeekV3.2技术报告还是老外看得细


对于DeepSeek-V3.2这次的成绩,DeepSeek研究院苟志斌(Zhibin Gou)在推特上给出了相当直觉性的解答:


强化学习在长上下文长度下也能持续扩展。


为了理解这句话,我们简要地回顾一下论文。


简单来说,DeepSeek-V3.2其实干了这么几件事:


首先,利用DSA稀疏注意力解决了长上下文的效率问题,为后续的长序列强化学习打下了计算基础。


接下来,通过引入可扩展的RL,并投入超过预训练成本10%的算力进行后训练,大幅提升模型的通用推理和智能体能力。


最后,DeepSeek-V3.2-Speciale版本为了探索推理能力的极限,特意放宽了RL的长度限制,允许模型生成极长的“思维链”,迫使模型通过大量的Token生成来进行深度的自我修正和探索。


这也就是说,通过长思维链让模型思考更多,通过自我修正探索让模型思考更久,进而解锁更强的推理能力。


由此,模型就能在不增加预训练规模的情况下,通过极长的思考(消耗更多token)过程实现性能的飞跃。


而上面的实验结果,恰恰证明了这套“在超长上下文下持续扩展强化学习”路线的正确性。


正如苟志斌所说:


如果说Gemini-3证明了:预训练可以持续扩展,那么DeepSeek-V3.2-Speciale 则证明了:强化学习在长上下文长度下也能持续扩展。


我们花了一年时间把 DeepSeek-V3 逼到极限。得到的教训是:


后训练阶段的瓶颈,不是等“更好的底座模型”来解决,而是靠方法和数据本身的精炼(refine)来解决。


DeepSeekV3.2技术报告还是老外看得细


换句话说,如果说Gemini-3 靠“堆知识(预训练)”赢得了上半场,那么DeepSeek-V3.2-Speciale则通过“堆思考(长上下文RL)”赢回了下半场。


此外,对于大模型已经撞到天花板了的论调,他表示:


预训练能scaling,RL也能scaling,context也能scaling,所有维度都还在上涨。


DeepSeekV3.2技术报告还是老外看得细


这表明RL不仅有效,还能通过scaling(更大 batch、更长context、更丰富任务)获得巨额收益


同时,在论文中,也有网友发现了为什么DeepSeek-V3.2在HLE和GPQA 等知识基准测试中表现稍逊:


因为计算资源有限!而单靠强化学习是无法达到这样的水平的。


DeepSeekV3.2技术报告还是老外看得细


换句话说,DeepSeek与顶尖模型的差距已经不是技术问题,而是经济问题


只要卡够,好的开源不比闭源差!


想到会便宜,没想到会便宜这么多


除了性能上持平顶尖闭源模型外,DeepSeek-V3.2系列这次也着实让大家见识到了“智能便宜到不用计费”。


DeepSeekV3.2技术报告还是老外看得细


如果从百万token输出成本来看,DeepSeek-V3.2比GPT-5便宜近24倍,比Gemini 3 Pro,便宜近29倍。


DeepSeekV3.2技术报告还是老外看得细


而随着输出token个数的增加,这个差距最高可拉大到43倍


这是什么概念呢?就好比你让大模型一次性“写”出一套《三体》三部曲,用GPT-5你大概需要八百块,Gemini 3 Pro需要一千块。


用DeepSeekV3.2只需要差不多35块钱!


所以,性能差不多,价格却能差出几十倍。该选哪边,答案不用多说了吧?


对此,有网友表示,DeepSeek-V3.2这一经济实惠的开源模型正在挑战Gemini3.0 Pro。


DeepSeekV3.2技术报告还是老外看得细


而另一头OpenAI昂贵的订阅费,瞬间就不顺眼了。


DeepSeekV3.2技术报告还是老外看得细


当然,这并不是说DeepSeekV3.2毫无缺点。


正如一位网友指出的,同样解决一个问题,Gemini只需要2万个token,而Speciale则需要花费7.7万个。


(这实际上也是上面长下文RL的trade off)


DeepSeekV3.2技术报告还是老外看得细


不过,低廉的价格也在一定程度上弥补了现阶段Speciale版本的弱点。


总的来说,DeepSeek仍旧是更实惠的那个。


除此之外,也许更让硅谷感到头疼的就是DeepSeek-V3.2还可能直接在国产算力(华为、寒武纪)中部署,而这将进一步拉低模型推理的成本。


此前,在发布DeepSeek-V3.2-Exp时,DeepSeek在发布首日就针对华为Ascend硬件和CANN软件栈进行了优化。


这次的DeepSeek-V3.2系列虽然没有明确表示,但大概率也会延续此前的战略。


换句话说,难过可能的不止是谷歌和OpenAI,还有他们的好兄弟——英伟达。


DeepSeekV3.2技术报告还是老外看得细


然而,这里的价格还只是模型公司的定价,并非推理的实际成本。


尽管我们无法得知各家模型实际的推理成本,但从DeepSeek的技术报告中可以看到一个清晰趋势:


相较于前一代模型DeepSeek-V3.1-Terminus,DeepSeek-V3.2在最长上下文(128K)场景下,成本降低了75%83%左右。


DeepSeekV3.2技术报告还是老外看得细


这意味着随着注意力机制与后训练的不断优化,底层推理成本正在持续下探


正如一位网友所总结的那样:


DeepSeek证明了:实现强大的AI,并不一定需要夸张的资本投入。


DeepSeekV3.2技术报告还是老外看得细


参考链接

[1]https://x.com/airesearch12/status/1995465802040983960

[2]https://www.nbcnews.com/tech/innovation/silicon-valley-building-free-chinese-ai-rcna242430


文章来自于“量子位”,作者 “henry”。

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI代理

【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。

项目地址:https://github.com/browser-use/browser-use


2
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md