ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
要把开源管起来,还要“一举两得”限制中国,加州这个SB-1047法案被LeCun等大佬骂惨了
6983点击    2024-07-09 17:35

Meta首席人工智能科学家、深度学习之父Yann LeCun又开喷了。


这次不是怼OpenAI,也不是和马斯克打嘴仗,而是非常言辞犀利地直指SB-1047法案主要起草者Dan Hendrycks ,称他根本就是“伪装成学术智库主管的末日邪教大师”。



这位Dan Hendrycks是美国AI政策领域的后起之星,2023年《时代周刊》评选的全球百大AI人物之一。博士毕业于UC Berkeley计算机科学系,曾发明GELU激活函数和神经网络鲁棒性基准。目前担任旧金山非营利组织AI安全中心(CAIS)主任和xAI的安全顾问。



图:The Boston Globe


作为SB-1047的重要参与者和推动者之一,Hendrycks一直在多个平台大力宣传该法案,提醒公众警惕先进AI带来的社会风险。他在Yann LeCun转发的这则采访中指出:人工智能将“从执行日常任务到摧毁整个宇宙”,它虽不懂人类是什么,但会寻求权力并表现得”自私”,而美国加大AI监管也会“一举两得”地扼制中国人工智能发展。


此番言论马上被一大批科技人士痛批“bullshit”,对这个SB-1047法案也是深恶痛绝。因为它表面看似为增强AI模型安全性、透明度、促进公平竞争做出的立法努力,实则会让开发者背负沉重负担,很可能扼杀创新,给AI初创公司和开源社区带来巨大的负面影响。



 a16z合伙人Martin Casado称SB-1047“是一场灾难,会攻击AI创新,伤害研究人员、学者和创业公司。”


什么是加州SB-1047法案?


SB-1047 法案,全称为「前沿人工智能安全创新法案(Safe and Secure Innovation for Frontier Artificial Intelligence Act)」,由加州参议员Scott Wiener在今年2月首次提出。目的是“为大规模人工智能系统的开发和部署设立严格安全标准,以确保其安全性并防止潜在重大危害。”


该法案针对超过10^26次浮点运算能力(FLOPs)和1亿美元训练成本,以及任何基于以上AI模型微调的、运算能力不少于3 倍10^25 FLOPs的智能系统。几乎把现在市面所有主流大模型囊括在内。



主要内容包括要求开发者进行部署前的安全评估,实施强有力的网络安全保护,具备紧急关停模型的能力,提交年度合规认证,72小时内上报安全事件等。


另外还要求开发者对其模型的下游使用或修改承担法律责任。换言之,但凡有人用你的模型做了“坏事”,你就要“连坐受罚”,跟古代皇宫里“株连九族”差不多意思。在开始训练之前,开发者需要保证他们的模型不会被用来或提供"危险能力",并实施一系列保障措施来防止未经授权的访问或滥用,还必须要立下“书面保证”。


一个新成立的“前沿模型司(Frontier Model Division)”将负责监督新法规的执行。它将隶属于加州技术部,由向开发者收取的费用和罚款来资助。向该机构虚假陈述模型能力可能会因伪证罪而入狱。同时条款明文写着“鼓励告密”,呼吁AI公司内部员工报告雇主的不合规行为,且不会因此而遭到报复——不知为什么,总觉得这机构满满的反派感。


目前该法案的进度是,已于5月21日在加州参议院获得两党支持通过,正在众议院审议中。6月20日刚进行了最新阅读和修订,计划7月2日举行听证会,并最终在8月进行议会投票。一旦投票通过,只需州长盖文纽森一个签名,SB-1047就将正式确立为加州法律,成为悬在所有硅谷AI从业者头顶的一把大刀。

1

极限高压严管, SB-1047将怎样影响AI开发者?


只通篇略读,就已经觉得这个法案槽点太多,群起反抗迫在眉睫。


加州是全球人工智能的创新热土:坐拥学术重镇斯坦福大学、加州理工、伯克利、南加大、UCLA,是Meta、谷歌、微软等科技巨头和OpenAI、Anthropic这些业内领军企业的总部所在地,更别提遍地涌现的AI独角兽、技术实验室和开源社区。颁布这样一条法案弊远大于利,当然引来Yann LeCun等许多权威人士的严辞抵制。


首先是“受管制模型”的不合理范围。Answer.ai CEO、fastai库作者Jeremy Howard指出其定义方法过于宽泛,很可能把大量风险极小的开源模型包括在内,进而误将从事有益AI项目的善意开发者活动归为犯罪。


a16z普通合伙人Anjney Midha认为,随着算法效率的提升和计算成本的下降, 10^26 FLOPs的阈值将很快覆盖比科技巨头开发的最大、最尖端模型多得多的模型,这将真正伤害到大批AI初创公司。


而关于“1亿美元训练成本”的界定也十分模糊。它应该包括研究人员薪资吗?是包含历代模型还是只计算最终版本,模型对齐的人类反馈费用怎么算?若是从别人的模型微调而来,那基础模型的成本又是否涵盖在内?这些都是没有明确答案的开放性问题,给小型开发者带来巨大的应对负担。



接下来是批判声浪最大也最荒谬,对模型开发者施加民事甚至刑事责任的22603条款。


该细则要求开发人员在训练模型之前,必须采取一系列措施防止滥用,包括实施网络安全保护、关键时刻能不考虑用户紧急关停模型等。


此外,存在潜在风险的模型不得用于商业或公共用途。开发人员每年要重新评估安全措施,提交合规证明。2028年开始必须获得第三方审计员的合规证书。还要评估模型是否可能导致“严重危害”,确保能够准确追踪其衍生行为及后果。由于上述疏忽而出现AI安全事故的话,第一开发者将负连带责任。


也就是前面说过的,当素不相识的下游用户做出一些不法行为时,基础模型开发者将成为共同受罚的冤大头。好比让汽车制造商对每一起驾驶员造成的事故负责,简直离大谱。


Jeremy Howard在评论中写道,“AI模型是计算机上运行的通用软件,就像计算器或网络浏览器。模型的创建者无法确保模型未来不会被用于有害用途,就像网络浏览器不能决定打开什么网页一样。”


这也是SB-1047法案的根本缺陷 ——它不是专注于滥用和恶意用户,反而试图监管模型和基础设施,把如此繁重的负担放在了初创公司、创始人和工程师身上。DeepLearning.AI创始人吴恩达在X撰写长文,称“安全性是应用程序的属性,而不是技术或模型的属性….如果有机会,我希望您能加入发声,共同反对这一法案。”



接着来到22604条款,对运营计算集群的人员来说,当客户使用其算力资源训练“前沿模型”时,要收集客户的身份信息、支付方式和联系方式,包括相关金融机构、信用卡号码、账户号码、交易标识符或虚拟货币钱包地址等。并且保留客户的IP地址和访问记录长达七年,每年对用户行为和意图进行评估,也要在海关、边境总署备案。


诸如这样不合理的责任条款还有很多,那它们带来的实际效果会是什么呢?


a16z合伙人Anjney Midha认为,它将把先进AI开发推向地下或海外,“创始人将把公司业务转移到一个监管环境更明智的辖区,而加州甚至美国将失去这些机会,就这么简单。”


并且由于合规成本的增加,企业或个人开发者在开源大模型权重上会非常谨慎。而开源一直是软件技术进步的关键推动力,提供了许多现代人工智能基本构建块。事实上,生成式 AI浪潮正是源自Google实验室的Transformer架构,然后由OpenAI 去开创和继续。Mistral和Meta们的开源模型对下由贡献不可估量,今天的一切都是开源合作的结果,而这项法案会大大减缓其发展。


Yann LeCun解释说,“SB-1047 的级联责任制将使开源 AI 平台面临极大风险。没有开源 AI,就没有 AI 初创公司生态系统,也没有大模型的学术研究。Meta 会没事,但 AI 初创公司将会死亡。在我看来,这才是末日景象。”



 Y Combinator掌门人Gary Tan表示,“SB-1047将对加州的 AI 发展产生强烈的寒蝉效应。”



Kentauros AI CEO 、前Red Hat高级架构师Daniel Jeffries认为这根本不是一项AI安全法案,而是一匹“特洛伊木马”。真正目的是让一小撮反AI极端分子拥有关闭先进AI的权力,同时给加州的科技产业制造麻烦。


“不要让模型对别人的犯罪负责。没人因为安然公司有人用Excel诈骗投资者就惩罚微软,该惩罚的是安然的骗子。”


他还指出,若法案在加州成功很可能引发其它州效仿,与此同时其它地区的AI正在高速发展。例如中国就已经有了媲美Sora的先进视频生成模型,量产的无人驾驶出租车,和广泛部署用于交通控制的阿里巴巴城市大脑。



Luma AI CEO Amit Jain说,“加州是我们所知最优秀、最聪明的AI开发者聚集地。我在加州创业是因为这里一流的创新精神和创造性思维。不幸的是,SB-1047法案违背了这一切,不仅会带来重大现实影响,还会破坏初创公司来此地奋斗的目标。对基础模型的监管将迫使AI生态系统中的企业重新评估其在加州的运营。”



抵制SB-1047,还能做些什么?


在加州这片土地上,有大批华人创业者和研究人员奋斗在AI技术一线。如果SB-1047法案通过,除了直接影响到华人AI从业者的创新步伐,还可能需要投入更多资源确保工作合规,比如对模型进行额外测试与认证等。也可能导致投资环境恶化,令获得资金和客户变得艰难,同时国际间的技术交流和合作也将骤减。


“那么如果我是一名创始人、工程师,或只是感到担忧的普通人,可以做些什么来表达对这项法案的意见呢?”


a16z合伙人Anjney Midha认为有三个步骤:


第一步是阅读这项法案。它并不是很长,但大多数人还没实际读过它。如果你觉得它将与你未来的职业境遇息息相关,那就前往此链接:https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047


第二,特别是对于在加州的人来说,反对这项法案最有效的方式是联系议会代表。通过打电话或任何方式,告诉他们为什么应该在8月份投出反对票,转述创业社区、科技创始人和学者的呼声。


第三是上网,在X等社交媒体发声。事实证明很多美国州级和国家级立法者都会在推特倾听人们的意见。也可以到 https://stopsb1047.com/ 网站签署联名信。这是由一群加州的领先AI开发者、研究人员和创始人们共同启动的在线平台,供关心SB-1047法案影响的科技人士发声,在开通24小时内就集齐了数百个签名。如果你反对该法案,现在就可以发送一封邮件。


今年5月22日,美国众议院于以43 : 3通过一项ENFORCE法案,旨在扩大美国政府对人工智能系统出口的监管权力。一旦递交总统签署,将对在美华人AI从业者产生重大影响。包括持H1B工作签证的中国人需特殊许可才能从事AI/ML相关工作,面临更多就业困难和限制;对一些国际合作开源AI项目的参与者进行背景调查,在发布开源软件之前详细审查等。


而今加州的SB-1047法案,将进一步挤压AI初创公司、小型开发者团队的生存空间,阻碍开源AI的开展与进步。距离投票还有不到60天,如果你也身在其中,想出一份力,或许可以抓住现在的机会。


(封面图来自:Talal Thabet)


文章来源于:微信公众号 Jessica 硅星人Pro




关键词: SB-1047 , AI , AI监管 , 人工智能 , AI法案
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner