当地时间2月6日,英国政府正式回应了去年的AI监管咨询。当时英国科学、创新和技术部 (DSIT) 发布《人工智能监管白皮书》,表示对AI倾向于宽松监管,并向公众征求意见。
这份一年后的回应,重点放在提供研发支持上。DSIT表示,将斥资超过 1 亿英镑(约8.15亿人民币)建立九个AI研究中心,并对监管机构进行AI培训。
具体到资金分配上,近9000万英镑将用于在英国各地大学建立九个研究中心。这些“本土AI中心”专注于医疗、化学和数学等领域,并计划与美国建立合作伙伴关系。
监管机构将获得1000万英镑的额外资金,用于执行AI监管、适应AI发展,比如开发AI工具来监测电信、金融等领域的风险。
还有1900万英镑将投资21个“创新的、值得信赖和负责任的人工智能项目”,开发可用于提高生产力的AI工具。
从研发资金的划分比例可以看出,经费主要用来支持技术研究,对监管机构的投入比较微薄。去年4月,英国政府就已经承诺投入1亿英镑成立一个AI特别工作组,关注基础模型的安全研发。当时财政大臣Jeremy Hunt承诺,未来5年内将花费超过9亿英镑,用于人工智能和超级计算机的研发。
目前几家全球重要的AI研究机构落在英国,包括Google DeepMind、OpenAI的首个海外分部。此外,Statista2023年数据显示,英国是全球前十的AI人才移民地,吸纳的AI技术移民数量超过美国。
本次回应的另一重点是再次强调“不急于为人工智能立法”,也不会冒险实施“很快就会过时的规则”,而是利用现有的法律、监管资源来处理问题。尽管外界普遍认为这是因为英国政府即将换届选举,此时无法推动AI立法,但不可否认的是,英国一直都有打造“监管洼地”的想法。
去年3月DSIT发表的白皮书明确指出,政府对AI的态度倾向于“监管AI使用,而不是技术本身”。因此不会为AI系统分配风险级别,而是具体情况具体讨论。而海峡对岸的欧盟各国,近期达成一致协议的《人工智能法案》,核心便于基于风险的分级系统——也就是将AI系统分为不可接受的风险以及高、中、低风险,并设置不同级别的监管要求。
这让英国和欧盟在监管计划上有明显差异。DSIT认为,“当海外人工智能企业在英国建立业务时,我们支持创新的方法可以起到有力的激励作用。”
值得一提的是,在本次回应中,英国政府也首次提出了约束性要求,初步要求最先进、通用目的的AI基础模型,能够保证安全可靠。此外,为了提高“灵活监管”的透明性和确定性,DSIT还要求几个主要监管机构,包括通信管理局、竞争与市场管理局等,在4月30日公布管理AI的具体办法,为企业和社会注入信心。
“这些措施与去年4月我们投资1亿英镑建立AI特别工作组,以及去年11月布莱切利会议展现的全球领导力一脉相承。英国在人工智能监管上的创新方法,将使我们在AI安全、AI发展两个方面,都处于世界领先地位。”DSIT在报告中写道。
文章来自 “ 21世纪经济报道 ” 作者 肖潇