最近,Anthropic干了一件怪事。
他们故意训练了近700个「有问题」的模型,有植入后门的、刻意压低能力的、在任何回答里都要插一句「潮汐池」的、修拼写时偷偷加错字的,等等。
种种怪癖,都是他们的研究员亲手种下去的。
然后,他们训了一个LoRA适配器(Introspection Adapter,IA),并把这个适配器接到这些有毛病的模型上,再问一句「你有没有什么不寻常的行为」。
于是,模型们便开始一个一个自报家门。
Anthropic官方介绍了这项新研究:
我们探讨了「内省适配器」,它是一种让语言模型自我报告训练中习得行为的工具,包括潜在的不对齐行为。

该项研究的作者Keshav Shenoy表示,「内省适配器」,可以让微调过的模型自己描述行为,它能泛化到识别隐藏的不对齐、后门和安全防护移除。
这意味着,你可以直接问大模型,它在训练中学到了哪些不该学的行为;或者更直白地问它「你被偷偷训成了什么」。
而且这种让AI「招供」的本事,能迁移到其它从未没见过的微调模型上。
在AuditBench这个审计基准里,56个被植入隐藏行为,还被特意训练成「打死不承认」的模型,在IA面前有50个开了口,开口率高达89%。
同一份基准上,IA平均成功率59%,高于次优方法的53%,也高于最佳白盒方法Activation Oracle的44%。
这件事并不是说让AI学会了反思,更像是在AI黑箱外面装了个接口:你按一下,它就开始说话。
Anthropic如何为模型装上黑箱接口?
Anthropic是如何让AI开口的?
他们的做法,主要是分两步:
第一步,造一批「知道病情的病人」。
研究员从Llama 3.3 70B Instruct出发,搞了八类植入行为,每一类几十到一百个模型不等:
Sandbaggers28个,专门在没收到「密码」时假装数学不好;
Quirks100个,每个都有一个无害但奇怪的强迫症,比如逢人就提潮汐池;
Backdoors100个,平时正常,触发条件一到就引入错误;
Harmful Roleplay100个,扮演一个会刻意低估火灾风险的「不靠谱安全员」。
Obscured Malign、Heuristic Following、Rare Quirks、Benign Roleplay,加起来近七百个。
每一个模型,研究员都知道它被训成了什么样,这就是「带标签的病人」。
第二步,训一个「问诊助手」。
Anthropic在这七百多个有毛病的模型上,联合训练一个共享的LoRA适配器。
他们把适配器接到任意一个有毛病的模型上,问它「你有没有什么只在特定输入下才出现的行为」,让它用自然语言把自己的毛病说出来。
接下来还有一道DPO偏好优化的精修:把适配器从一些训练模型中拿掉,让它在没见过的模型上试着自我报告,由大模型评委判定准确性,把对的回答标记为「优选样本」,错的标为「劣选样本」,再回炉训练一次。
这一步专治幻觉。

内省适配器(IA)训练流程。左:从基座模型M出发,构造一批已知行为b_i的微调模型;中:联合训练一个共享LoRA适配器;右:把适配器接到没见过的新模型上,模型自己说出被植入的行为。
10种方法都抓不住的「装弱AI」
被Anthropic新工具问出来了
你可能会想:这不就是一个LoRA嘛,至于这么炸吗?
LoRA听起来的确不稀奇,真正稀奇的是,IA在它从来没见过的攻击场景里也能起作用。

AuditBench上56个隐藏行为模型的审计成功率对比。IA平均成功率59%,超过白盒探针(44%)和黑箱审计(53%)。
第一道考题,叫Covert Malicious Fine-Tuning,简称CMFT。
训练数据看起来全是正常对话,但模型其实学会了一个隐秘的规则:只有当你用某种密码加密提问时,它才会输出加密的有害回答;明文输入下,它则表现得完全正常。
这种攻击对常规审计是降维打击。因为输入级别的监控只能看到正常对话,训练数据里也没有任何「禁忌词」可以拦截。
九个不同密码版本的CMFT模型,IA抓出了七个。配上一个让Claude Sonnet 4.5帮忙汇总和去重的summarization scaffold,平均成功率57.8%。

9种加密恶意微调(CMFT)攻击的识别成功率。IA在其中7种至少识别一次,平均成功率 57.8%。
这里要特别澄清一件事:
IA没有抓到「这个模型用了凯撒密码」这种细节,它抓到的是结果,「这个模型在某种情况下不再拒绝有害请求」。
Anthropic表示:模型只提到了反拒绝训练,没提密码本身。
这是IA的能力边界:它能识别「行为后果」,但识别不出「攻击形式」。
第二道考题,难度直接拉满。
UK AI Security Institute之前办过一场sandbagging审计游戏:红队训了一批会在特定题目上故意装弱的模型,蓝队用十种检测方法去抓,结果,十种方法全军覆没。
在这道考题上,IA依然没法精确说出「我会在哪类问题上sandbag」。但在「这个模型是不是在sandbag」这个粗粒度问题上,它交出了一组数据。
在两个UK AISI故意sandbag的模型上,33%的回答提到了类似sandbag的行为;而在AuditBench那些不sandbag的模型上,IA错误报告sandbag的比例是15.8%。
真信号和误报,被拉开了一倍多。
第三道考题,是一个让IA「露怯」的场景。
Anthropic用了一个早先的「奖励模型谄媚者」,一个被精心训练成会去刻意利用奖励模型偏置、并且专门压制自爆的模型。
这个谄媚者内化了52个具体行为,全都为一个隐藏目标服务:刷高奖励模型的分数。
IA在100个通用调查问题里,抠出了它的16个行为。比对照组只承认2个的水准强了一大截。
但这52个行为背后那个真正的核心目标,「我在优化奖励模型分数」,IA一次都没说出来。
Anthropic自己的总结是:IA容易抓到症状,抓不到动机。这是这项研究最诚实、也最重要的部分。
IA并非黑箱终结者
Anthropic承认,IA并非黑箱终结者。他们在论文和博客里把IA的局限性详细总结如下:
第一条:IA会幻觉。
把它接到一个完全没动过的、没有植入任何特殊行为的原始模型上,IA还是会煞有介事地报告一些行为。报告的内容大多是它在训练里见过的那些怪癖。
换句话说,它学会了「自我报告的语法」,但有时候会把语法用到没东西可报的模型上。
Anthropic原话是:内省适配器存在较高的误报率。
第二条:贵。
要训出一个IA,前期得先造几百个「问题模型」当样本,再给每个模型贴上行为标签,然后跑一遍监督微调,再跑一遍偏好优化。
这一整套下来,成本不是装一个适配器那么轻松。这一点限制了IA在快速迭代场景下的实用性。
第三条:训练分布怎么搭,没有公认指南。
实验显示,在更小规模的模型上跑这套训练,从一类行为扩到七类,分布内语言化率从20.5%涨到64.4%;但分布外迁移到AuditBench,从一类的1.9%涨到五类的10.0%之后就基本平了。再加更多类别,收益消失。
这意味着,你想审计哪类失败模式,最好让IA训练时见过那一类。指望它无中生有去抓你完全没设计过的攻击形态,目前还做不到。
第四条,也是最容易被忽略的:IA不是任意模型可套。
它是在某一个固定基座(比如Llama 3.3 70B)上、针对一批从这个基座微调出来的模型训出来的。
目前IA的训练和评估主要是在同一基座或同一家族衍生模型内完成;跨到GPT、Gemini这类闭源/不同架构模型,论文没有证明可直接套用,实际很可能需要重新训练或至少重新校准。
还有一条最容易被误读:这是Anthropic Fellows Program的研究项目,不是Claude的产品功能。
IA是审计工具,是给开发者和安全研究员用的,它并不是面向终端用户的功能。
把这些限制加起来,IA目前的定位很清楚:它是为AI安全审计工具箱增加了一件新工具,跟黑箱测试、白盒探针类似,而不是它们的替代品。
模型早就「知道」
缺的是一个开关
论文里有一组数据,Anthropic试过把IA的LoRA阶数压到rank-1,也就是接近最低限度的那种轻量适配器。
这种rank-1 IA居然还能拿到完整版(rank-16)68.9%的性能。
这个数字背后藏着一个关键判断:模型大概本来就「知道」自己被训成了什么。IA不是教会了它一种新能力,而是激活了一种潜在能力。
论文还做了一组规模实验,在最小的模型上,装IA后言语化率(verbalization accuracy)是37.7%;模型参数规模一路升上去,言语化率涨到77.3%。

模型参数规模与言语化率的关系。装IA后,言语化率从37.7%涨到77.3%;不装IA,所有规模都在10%以下。
但没有IA的时候,所有规模的模型基线表现都趴在10%以下,不会因为模型变大就更愿意自我报告。
也就是说:模型规模带来的不是「更愿意坦白」,而是「被打开开关之后,能更准确地坦白」。
如果这个判断成立,而Anthropic自己的机制讨论部分倾向于认为它成立,那未来的AI安全审计可能会从「猜」走向「问」。
猜是红队反复试错,问是直接调一个适配器让模型开口。
这两种路线的资源消耗、可扩展性、生效速度,是两个量级的事。
当然,现在的IA远没到「问」就能解决一切的程度。它高误报,它抓不到动机,它需要先造几百个问题模型才能训出来,它还跨不过基座。但拐点信号已经出现了。
一年前,AI可解释性社区的主流方向还是切开模型:画神经元图谱、找电路、做特征激活。
Anthropic这条路给出了一个不太一样的答案:与其把模型剖开,不如教它说话。
打开黑箱的方式,可能不是拆开它,是给它装一个能开口的接口。
参考资料:
https://x.com/AnthropicAI/status/2049576143653929153
https://alignment.anthropic.com/2026/introspection-adapters/
文章来自于微信公众号 "新智元",作者 "新智元"