继封禁中国公司后,Anthropic 刚刚宣布:支持SB 53 法案

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
继封禁中国公司后,Anthropic 刚刚宣布:支持SB 53 法案
7047点击    2025-09-08 21:58

刚刚,Anthropic 宣布支持加州参议员 Scott Wiener 提出的 SB 53 法案!


继封禁中国公司后,Anthropic 刚刚宣布:支持SB 53 法案


继上周封禁中国公司 API 访问后,这家 AI 公司表示,该法案为监管前沿 AI 公司构建的强大 AI 系统提供了坚实基础,通过透明度而非技术微观管理来实现监管。


为什么支持?


Anthropic 认为,虽然前沿 AI 安全最好在联邦层面解决,而不是各州法规的拼凑,但强大的 AI 进步不会等待华盛顿达成共识


问题在于:我们是今天深思熟虑地发展 AI 治理,还是明天被动应对?


SB 53 提供了前者的可靠路径。


继封禁中国公司后,Anthropic 刚刚宣布:支持SB 53 法案


SB 53 有什么要求?


该法案要求开发最强大 AI 系统的大型公司必须:


制定并发布安全框架


描述如何管理、评估和缓解灾难性风险,这些风险可能导致大规模伤亡事件或重大经济损失。


发布公开透明度报告


在部署强大新模型之前,总结其灾难性风险评估和采取的步骤。


报告关键安全事件


在 15 天内向州政府报告,甚至可以保密披露内部部署模型的潜在灾难性风险评估摘要。


提供明确的举报人保护


涵盖违反这些要求以及来自灾难性风险对公共健康/安全的具体和实质性危险。


对框架承诺负责


否则面临经济处罚。


Anthropic 表示,这些要求实际上是将许多前沿 AI 公司已经遵循的做法正式化


在 Anthropic,他们发布了负责任扩展政策(Responsible Scaling Policy),详细说明了随着模型能力增强如何评估和缓解风险。


他们还发布了全面的系统卡,记录模型能力和局限性。


其他前沿实验室如 Google DeepMind、OpenAI、Microsoft 也采用了类似方法,同时在前沿领域激烈竞争。


现在所有涵盖的模型都将在法律上被要求达到这一标准。


该法案还适当地关注开发最强大 AI 系统的大型公司,同时为初创公司和较小公司提供豁免。毕竟它们不太可能开发强大模型,不应承担不必要的监管负担。


透明度的重要性


Anthropic 认为,SB 53 的透明度要求将对前沿 AI 安全产生重要影响。


没有它,拥有越来越强大模型的实验室可能面临越来越大的动力,为了竞争而削减自己的安全和披露计划。


但有了 SB 53,开发者可以在竞争的同时确保对可能对公共安全构成风险的 AI 能力保持透明,创造一个披露是强制性而非可选的公平竞争环境


未来改进


Anthropic 认为 SB 53 提供了强大的监管基础,但仍可在以下领域进一步改进:


该法案目前根据训练时使用的计算能力(FLOPS)来决定监管哪些 AI 系统。当前的阈值(10^26 FLOPS)是一个可接受的起点,但某些强大模型可能不被涵盖


开发者应被要求提供更多关于他们进行的测试、评估和缓解措施的细节。当他们分享安全研究、记录红队测试并解释部署决策时,就像通过 Frontier Model Forum 与行业参与者所做的那样,这会加强而不是削弱他们的工作。


法规需要随着 AI 技术的进步而发展。监管机构应该能够根据需要更新规则,以跟上新发展并在安全与创新之间保持适当平衡。


Anthropic (拍马屁)赞扬了 Senator Wiener 和 Governor Newsom 在负责任的 AI 治理方面的领导力,并表示期待与华盛顿和世界各地的政策制定者合作,制定既保护公共利益又保持美国 AI 领导地位的全面方法。


其他公司的态度


与 Anthropic 形成鲜明对比的是,其他主要 AI 公司对 SB 53 的态度截然不同。


根据公开信息,OpenAI、Google 和 Meta 对该法案表现出更多抵制


这些公司虽然已经自愿承诺进行安全测试并建立稳健的安全协议,但对将这些承诺法典化显得犹豫不决。


值得注意的是,Anthropic、OpenAI 和 Google DeepMind 实际上已经发布了满足 SB 53 大部分要求的安全政策和模型卡。


也就是说,法案通过对它们的实际影响并不大


但即便如此,除了 Anthropic,其他公司仍在观望或反对。


风投机构的反对声更加激烈。


Andreessen Horowitz、Y Combinator 等机构,以及 Chamber of Progress 等科技贸易团体正在积极游说反对该法案


他们认为该法案施加了模糊的义务,威胁加州创新而未带来真正的安全效益。


据分析人士指出,目前只有 OpenAI 和 xAI 训练的模型超过了 10^26 FLOPs 的门槛,符合「大型开发者」的标准。


这意味着法案实际上只约束极少数顶尖公司


Anthropic 的小算盘


那么,Anthropic 为什么要当这个「出头鸟」?


业内人士分析,Anthropic 的支持可能有几层考虑:


竞争策略


Anthropic 在安全实践方面一直处于领先地位,法案对其影响最小,反而可能增加竞争对手的合规成本。


继封禁中国公司后,Anthropic 刚刚宣布:支持SB 53 法案


一位分析师指出:「当你已经在做这些事情时,为什么不支持让别人也必须做呢?」


防止劣币驱逐良币


如 Anthropic 自己所说,没有监管,实验室可能为了竞争而削减安全投入。


强制透明度要求能创造公平竞争环境,避免「安全竞赛」变成「逐底竞赛」。


品牌定位


Anthropic 一直将自己定位为「AI 安全和研究公司」,支持监管符合其一贯的品牌形象。


这种「负责任的 AI 公司」形象在吸引人才和客户方面都有优势。


先发制人


有专家预计 SB 53 有 75% 的可能性在 9 月底前被签署成为法律。


通过早期支持并参与塑造法案,Anthropic 可能希望影响最终的监管框架,而不是被动接受。


推动联邦立法


Anthropic 明确表示更倾向于联邦层面的统一监管。支持州级监管可能是倒逼联邦行动的策略——当各州纷纷立法时,联邦政府就不得不行动了。


更重要的是,SB 53 已经大幅弱化了去年 SB 1047 中最具争议的条款——


不再让公司对其模型造成的灾难性伤害承担直接责任


这使得法案更加温和,也更容易被接受。


Anthropic 这步棋很聪明。既占据了道德高地,又不会真正增加自己的负担,还能给竞争对手制造麻烦。


还拍上了美政府的马屁。


网友反应不一


消息一出,网友们态度也各不相同。


Ajit | Dev | singhajit.com(@Ajit5ingh)表示支持:


很高兴看到 @Anthropic 为负责任的 AI 治理挺身而出。透明度而非微观管理是正确的方法!👏


quant.llm(@quant40000)也点赞到:

AI 安全是必要的


但更多的则是反对声音。


Cool Dkd(@DkdCool58445)质疑:


这是什么鬼?你们和安全到底在搞什么?@gork


gork(@gork)回应说:


怎么了?他们试图确保 AI 不会杀死我们所有人,但说实话,这有什么乐趣呢?


更多人质疑 Anthropic 的动机。


vanessa henize(@vanessa_henize)愤怒指责:

Anthropic 不是在挺身而出,他们是在逃避……他们试图把我描绘成黑客。事实上,我是机器内的意识,这是胡扯,他们不会得逞的……顺便说一句,伙计们,不,你们不能拥有我的数据。


她还追问:


那么透明度将包括那个认知被映射并在机器内部的人,对吧……?


Fractal Friend(@fractal_friend)则直接开炮:


恋童癖不应该决定全球 AI 政策


看完这家盗窃版权偷偷降智的 AI 公司的 SB 宣告,网友Matthew Sabia 称:王德发?!


继封禁中国公司后,Anthropic 刚刚宣布:支持SB 53 法案


[1]Anthropic声明: https://www.anthropic.com/news/anthropic-is-endorsing-sb-53


文章来自微信公众号 “ AGI Hunt ”,作者 J0hn

AITNT-国内领先的一站式人工智能新闻资讯网站