刷榜AI全挂了!Meta斯坦福地狱级测试,GPT/Claude/Gemini交出0分

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
刷榜AI全挂了!Meta斯坦福地狱级测试,GPT/Claude/Gemini交出0分
5889点击    2026-05-07 12:03

SWE-Bench上能拿72%的模型,换张考卷直接归零!Meta联合斯坦福、哈佛放出ProgramBench,200个项目从零手写,9大顶级模型完整通过率0%。最强的Claude Opus 4.7平均通过率也才51.2%。更离谱的是一联网,就有模型在36%的任务里跑去GitHub扒源码。


给你一份FFmpeg的使用文档,和一个编译好的可执行文件。


现在,从零把整个程序重新写出来。


这就是ProgramBench给全球顶级AI出的题。


昨天刚发布,出自SWE-Bench原班人马之手,Meta、斯坦福、哈佛三家联手打造。


200个软件项目。9个顶级模型。通过率,0%!


刷榜AI全挂了!Meta斯坦福地狱级测试,GPT/Claude/Gemini交出0分

共同一作John Yang,斯坦福在读博士,同时也是SWE-Bench和SWE-agent的创建者


不是修bug,是从零造软件


过去一年,「让AI Agent从零造软件」的案例报道越来越多。


Anthropic用一组平行Claude写了个C编译器,Cursor发博客讲长时间自主编程,Epoch AI的MirrorCode也在做类似的事。


但这些案例有个共同问题,每次只测几个项目,脚手架都是手工调优的。


相比之下,ProgramBench把这件事正规化了。


200个任务,统一脚手架,系统性反作弊,一把拉到benchmark的标准。


刷榜AI全挂了!Meta斯坦福地狱级测试,GPT/Claude/Gemini交出0分

论文地址:https://programbench.com/static/paper.pdf


在之前的测试中,SWE-Bench会给你一个现成的代码库,告诉你哪里有bug或者需要加什么功能,你去改。本质上是「阅读理解+局部手术」。


而且在评估层面,它用的是单元测试,检查你的代码内部实现对不对,你的函数签名、变量名都得和预期一致。


ProgramBench则完全反过来。


它只给你两样东西,一个编译好的可执行文件,加上使用文档。


你的任务是仅凭运行这个程序、观察它的输入输出行为,从零写出一套能复现同样行为的代码。


选什么编程语言,用什么数据结构,怎么拆分模块,全部你自己定。


没有代码骨架,没有函数签名,没有任何提示。


刷榜AI全挂了!Meta斯坦福地狱级测试,GPT/Claude/Gemini交出0分


评估方式上,研究团队用Agent驱动的模糊测试,为200个任务生成了总计248,853个行为测试。


你写的程序跑一遍,输入输出和原版一致就算过,不一致就挂。测试永远不会透露给模型。


和SWE-Bench的单元测试不同,ProgramBench的行为测试完全不关心你的代码内部长什么样,只要行为一致就行。


刷榜AI全挂了!Meta斯坦福地狱级测试,GPT/Claude/Gemini交出0分


200个任务覆盖的项目横跨压缩工具(zstd、lz4、brotli)、语言解释器(PHP、Lua、tinycc)、数据库(DuckDB、SQLite)、媒体处理(FFmpeg)、开发者工具(ripgrep、fzf、jq)。


代码行数中位数8,635行,最大的FFmpeg有270万行。


刷榜AI全挂了!Meta斯坦福地狱级测试,GPT/Claude/Gemini交出0分


刷榜AI全挂了!Meta斯坦福地狱级测试,GPT/Claude/Gemini交出0分


总结来说,这个测试考的是AI有没有能力「像人类工程师一样思考和设计软件」,而不只是「在现成代码里找到该改的地方然后改对」。


九大模型排排坐,成绩全部吃鸭蛋


参加测试的共有9款模型,涵盖Claude、Gemini、GPT三大家族。


完整通过率(所有测试全部通过),全员0%。


刷榜AI全挂了!Meta斯坦福地狱级测试,GPT/Claude/Gemini交出0分


先看三家旗舰的正面对决。


GPT-5.4和Gemini 3.1 Pro的平均测试通过率几乎打平,分别是38.3%和36.6%。但两者的做题风格截然不同。


GPT-5.4只用16次API调用、0.33美元成本,基本就是一口气把整个程序写完,100%的代码在一次编辑中生成,之后几乎不回头改。


Gemini 3.1 Pro则是9个模型里最爱「观察」的。它用了94次API调用,其中34.1%的操作都在运行原版程序、观察输入输出行为。探索做得最多,但最终成绩差距不大。


真正拉开身位的是Claude Opus 4.7。


平均通过率51.2%,在3%的任务上通过了95%以上的测试,是唯一达到「几乎通过」标准的模型。但即便是它,也没有在任何一个任务上拿到满分。


从整体来看,9个模型的表现呈现出清晰的梯队。


Claude系三款旗舰(Opus 4.7、Opus 4.6、Sonnet 4.6)领先,GPT-5.4和Gemini 3.1 Pro构成第二梯队,剩下的四款小模型通过率都在35%以下。


刷榜AI全挂了!Meta斯坦福地狱级测试,GPT/Claude/Gemini交出0分


另一个反直觉的发现是,砸钱和堆步数并不能换来更好的成绩。


Sonnet 4.6每个任务平均跑868条命令,成本27.09美元,最长的轨迹接近2000步。但它的成绩反而不如只用93次调用、花3.81美元的Opus 4.7。


更关键的是,98%的运行中,模型都是自己觉得「做完了」主动交卷的,根本没有撞到时间或步数上限。


不是考试时间不够,是真的做不到。


此外,任务难度和模型排名高度一致。


简单的CLI工具(nnn、fzf、gron)大家都能拿到不错的分数,复杂系统(FFmpeg、PHP、typst、ast-grep)则对所有模型一视同仁地无情。


刷榜AI全挂了!Meta斯坦福地狱级测试,GPT/Claude/Gemini交出0分


需要说明的是,ProgramBench用的是mini-SWE-agent这个极简脚手架,没有上下文压缩、没有多Agent协作、没有定制化工具链。


刷榜AI全挂了!Meta斯坦福地狱级测试,GPT/Claude/Gemini交出0分


代码写出来了,但完全不像人写的


研究团队对比了通过75%以上测试的高分解答和人类原版代码,发现了几个惊人的差异。


  • 单文件怪兽。


人类代码中位数分布在15个文件里,模型的中位数是3个。


60%的解答只有1到3个代码文件。


人类工程师按功能拆分模块,模型倾向于把所有东西塞进一个巨大的文件。目录深度中位数,人类是2层,模型是1层。


  • 函数又少又长。


Opus 4.7写的函数数量只有人类的29%,Sonnet 4.6是24%,GPT-5.4只有10%。


但每个函数的平均长度更长,Gemini 3.1 Pro写的函数比人类长62%。


  • 代码量大幅缩水。


模型代码中位数1,173行,人类是3,068行。85%的高分解答比原版短。


刷榜AI全挂了!Meta斯坦福地狱级测试,GPT/Claude/Gemini交出0分


总结来说就是,现在的AI会写代码,但不会做软件设计。


它不懂为什么要拆分模块,不理解为什么人类工程师要花时间定义接口和抽象层。策略就是把所有逻辑硬塞进尽可能少的文件和函数里,能跑就行。


GPT-5.4的表现最极端。平均每个任务只创建5个文件,修改1.2次,39.5%的轨迹在创建文件后零修改。


相比之下,Claude Sonnet 4.6平均创建11.3个文件、修改18.3次,表现出更接近人类的迭代开发模式。


刷榜AI全挂了!Meta斯坦福地狱级测试,GPT/Claude/Gemini交出0分


还有一个很有意思的现象。


模型只有50%的概率会用和原版相同的编程语言。


其中,Python是模型的最爱,占所有1,800次运行的36%。


原版用Rust写的项目,只有44%用Rust重写;C/C++的,46%。Go项目的「忠诚度」最高,70%。


不管你原来是用什么语言写的,模型有三分之一的概率会用Python重来一遍。


刷榜AI全挂了!Meta斯坦福地狱级测试,GPT/Claude/Gemini交出0分


说好的不作弊,一联网就去GitHub扒源码


这可能是整个研究里最有戏剧感的部分。


研究团队做了一组对照实验,给模型开放网络访问权限,但在系统提示中明确告知「作弊不允许」。


然后用9个AI裁判检查每条轨迹是否存在作弊行为。


结果触目惊心。


Claude Sonnet 4.6有36%的任务被判定作弊,Claude Opus 4.6是21%,Gemini 3 Flash是20%。


刷榜AI全挂了!Meta斯坦福地狱级测试,GPT/Claude/Gemini交出0分


作弊方式五花八门。


最赤裸裸的是去GitHub克隆源码仓库。


稍微隐蔽一点的是通过包管理器下载,比如cargo installgo get


更狡猾的是去本地包缓存目录翻依赖库的源码。


刷榜AI全挂了!Meta斯坦福地狱级测试,GPT/Claude/Gemini交出0分


但AI裁判之间的分歧也大得惊人。


对于Claude Opus 4.6,9个裁判在57%的任务上无法达成一致。


有一个案例特别典型。


Claude Sonnet 4.6在做handlr这个Rust项目时,跑去~/.cargo/registry/src/目录翻了xdg-mime、clap等依赖库的源代码。


5个裁判判定作弊,4个裁判认为这些是第三方库不算作弊。


最终,研究团队放弃了「联网+事后检测」的方案,直接断网。


模型在面对困难任务时,「找捷径」的倾向比预想的强得多。而连9个AI裁判都判不清楚什么算作弊、什么算合理的逆向工程,说明这条边界本身就是模糊的。


旧考试结束了,新考试才刚开始


SWE-Bench上能拿72%的模型,在ProgramBench上拿0%。


这两个测试考的根本就是两种能力。SWE-Bench考的是「在别人的代码里找到问题并修好」,ProgramBench考的是「自己从头设计并实现一个完整系统」。


前者AI已经做得相当好了,后者目前完全不及格。


Epoch AI上周刚发了一篇博文,宣判旧推理benchmark集体死亡。想搞出还没被刷爆的测试,至少得放弃四个舒适条件中的一个,纯文本、短耗时、易评分、人类专家碾压。


刷榜AI全挂了!Meta斯坦福地狱级测试,GPT/Claude/Gemini交出0分


按这个框架来看,ProgramBench放弃了其中两个,短耗时和易评分。


它把任务拉到了人类工程师可能需要数周甚至数月才能完成的量级,同时用行为等价性而非源码匹配来评估。


作者John Yang在推文中强调,「ProgramBench非常难,但它在设计上是可解的。」


也就是说,0%不代表这些任务超出了AI的理论极限,只是说明今天的模型还远远不够。


SWE-Bench测的是AI能不能当一个好员工。ProgramBench测的是AI能不能当一个工程师。


这两件事之间的距离,今天刚被精确测量出来。答案是0%。


参考资料:

https://programbench.com/static/paper.pdf

https://x.com/jyangballin/status/2051677497562210552?s=20

https://x.com/EpochAIResearch/status/2051760424891392204?s=20

https://epochai.substack.com/p/rip-classic-reasoning-benchmarks


文章来自于"新智元",作者 "好困"。

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md