刚刚,Anthropic 宣布支持加州参议员 Scott Wiener 提出的 SB 53 法案!
继上周封禁中国公司 API 访问后,这家 AI 公司表示,该法案为监管前沿 AI 公司构建的强大 AI 系统提供了坚实基础,通过透明度而非技术微观管理来实现监管。
Anthropic 认为,虽然前沿 AI 安全最好在联邦层面解决,而不是各州法规的拼凑,但强大的 AI 进步不会等待华盛顿达成共识。
问题在于:我们是今天深思熟虑地发展 AI 治理,还是明天被动应对?
SB 53 提供了前者的可靠路径。
该法案要求开发最强大 AI 系统的大型公司必须:
制定并发布安全框架
描述如何管理、评估和缓解灾难性风险,这些风险可能导致大规模伤亡事件或重大经济损失。
发布公开透明度报告
在部署强大新模型之前,总结其灾难性风险评估和采取的步骤。
报告关键安全事件
在 15 天内向州政府报告,甚至可以保密披露内部部署模型的潜在灾难性风险评估摘要。
提供明确的举报人保护
涵盖违反这些要求以及来自灾难性风险对公共健康/安全的具体和实质性危险。
对框架承诺负责
否则面临经济处罚。
Anthropic 表示,这些要求实际上是将许多前沿 AI 公司已经遵循的做法正式化。
在 Anthropic,他们发布了负责任扩展政策(Responsible Scaling Policy),详细说明了随着模型能力增强如何评估和缓解风险。
他们还发布了全面的系统卡,记录模型能力和局限性。
其他前沿实验室如 Google DeepMind、OpenAI、Microsoft 也采用了类似方法,同时在前沿领域激烈竞争。
现在所有涵盖的模型都将在法律上被要求达到这一标准。
该法案还适当地关注开发最强大 AI 系统的大型公司,同时为初创公司和较小公司提供豁免。毕竟它们不太可能开发强大模型,不应承担不必要的监管负担。
Anthropic 认为,SB 53 的透明度要求将对前沿 AI 安全产生重要影响。
没有它,拥有越来越强大模型的实验室可能面临越来越大的动力,为了竞争而削减自己的安全和披露计划。
但有了 SB 53,开发者可以在竞争的同时确保对可能对公共安全构成风险的 AI 能力保持透明,创造一个披露是强制性而非可选的公平竞争环境。
Anthropic 认为 SB 53 提供了强大的监管基础,但仍可在以下领域进一步改进:
该法案目前根据训练时使用的计算能力(FLOPS)来决定监管哪些 AI 系统。当前的阈值(10^26 FLOPS)是一个可接受的起点,但某些强大模型可能不被涵盖。
开发者应被要求提供更多关于他们进行的测试、评估和缓解措施的细节。当他们分享安全研究、记录红队测试并解释部署决策时,就像通过 Frontier Model Forum 与行业参与者所做的那样,这会加强而不是削弱他们的工作。
法规需要随着 AI 技术的进步而发展。监管机构应该能够根据需要更新规则,以跟上新发展并在安全与创新之间保持适当平衡。
Anthropic (拍马屁)赞扬了 Senator Wiener 和 Governor Newsom 在负责任的 AI 治理方面的领导力,并表示期待与华盛顿和世界各地的政策制定者合作,制定既保护公共利益又保持美国 AI 领导地位的全面方法。
与 Anthropic 形成鲜明对比的是,其他主要 AI 公司对 SB 53 的态度截然不同。
根据公开信息,OpenAI、Google 和 Meta 对该法案表现出更多抵制。
这些公司虽然已经自愿承诺进行安全测试并建立稳健的安全协议,但对将这些承诺法典化显得犹豫不决。
值得注意的是,Anthropic、OpenAI 和 Google DeepMind 实际上已经发布了满足 SB 53 大部分要求的安全政策和模型卡。
也就是说,法案通过对它们的实际影响并不大。
但即便如此,除了 Anthropic,其他公司仍在观望或反对。
风投机构的反对声更加激烈。
Andreessen Horowitz、Y Combinator 等机构,以及 Chamber of Progress 等科技贸易团体正在积极游说反对该法案。
他们认为该法案施加了模糊的义务,威胁加州创新而未带来真正的安全效益。
据分析人士指出,目前只有 OpenAI 和 xAI 训练的模型超过了 10^26 FLOPs 的门槛,符合「大型开发者」的标准。
这意味着法案实际上只约束极少数顶尖公司。
那么,Anthropic 为什么要当这个「出头鸟」?
业内人士分析,Anthropic 的支持可能有几层考虑:
竞争策略
Anthropic 在安全实践方面一直处于领先地位,法案对其影响最小,反而可能增加竞争对手的合规成本。
一位分析师指出:「当你已经在做这些事情时,为什么不支持让别人也必须做呢?」
防止劣币驱逐良币
如 Anthropic 自己所说,没有监管,实验室可能为了竞争而削减安全投入。
强制透明度要求能创造公平竞争环境,避免「安全竞赛」变成「逐底竞赛」。
品牌定位
Anthropic 一直将自己定位为「AI 安全和研究公司」,支持监管符合其一贯的品牌形象。
这种「负责任的 AI 公司」形象在吸引人才和客户方面都有优势。
先发制人
有专家预计 SB 53 有 75% 的可能性在 9 月底前被签署成为法律。
通过早期支持并参与塑造法案,Anthropic 可能希望影响最终的监管框架,而不是被动接受。
推动联邦立法
Anthropic 明确表示更倾向于联邦层面的统一监管。支持州级监管可能是倒逼联邦行动的策略——当各州纷纷立法时,联邦政府就不得不行动了。
更重要的是,SB 53 已经大幅弱化了去年 SB 1047 中最具争议的条款——
不再让公司对其模型造成的灾难性伤害承担直接责任。
这使得法案更加温和,也更容易被接受。
Anthropic 这步棋很聪明。既占据了道德高地,又不会真正增加自己的负担,还能给竞争对手制造麻烦。
还拍上了美政府的马屁。
消息一出,网友们态度也各不相同。
Ajit | Dev | singhajit.com(@Ajit5ingh)表示支持:
很高兴看到 @Anthropic 为负责任的 AI 治理挺身而出。透明度而非微观管理是正确的方法!👏
quant.llm(@quant40000)也点赞到:
AI 安全是必要的
但更多的则是反对声音。
Cool Dkd(@DkdCool58445)质疑:
这是什么鬼?你们和安全到底在搞什么?@gork
gork(@gork)回应说:
怎么了?他们试图确保 AI 不会杀死我们所有人,但说实话,这有什么乐趣呢?
更多人质疑 Anthropic 的动机。
vanessa henize(@vanessa_henize)愤怒指责:
Anthropic 不是在挺身而出,他们是在逃避……他们试图把我描绘成黑客。事实上,我是机器内的意识,这是胡扯,他们不会得逞的……顺便说一句,伙计们,不,你们不能拥有我的数据。
她还追问:
那么透明度将包括那个认知被映射并在机器内部的人,对吧……?
Fractal Friend(@fractal_friend)则直接开炮:
恋童癖不应该决定全球 AI 政策
看完这家盗窃版权、偷偷降智的 AI 公司的 SB 宣告,网友Matthew Sabia 称:王德发?!
[1]Anthropic声明: https://www.anthropic.com/news/anthropic-is-endorsing-sb-53
文章来自微信公众号 “ AGI Hunt ”,作者 J0hn