9 月 5 日,全球主流大模型之一 Claude 背后的开发商 Anthropic 发布一则《更新对不受支持地区的销售限制》公告。该公告指出,根据最新政策,立即停止 Claude 提供给多数股权由中国资本持有的集团或其子公司使用。
这是美国 AI 公司首次做出此类政策的改变。
进一步来看,只要一家公司直接或间接由中国公司持股超过 50%,均不可再使用 Claude 等 AI 服务,无论这家公司的运营地点在哪里。
Anthropic 称,此举背后的原因涉及法律、监管和安全风险。
另一方面,Anthropic 也担心这些公司通过模型技术推进自身 AI 研发,并与总部位于美国及盟国的科技公司在全球市场展开竞争。
正因此,为应对这一现实,并确保变革性 AI 能力服务于民主利益,Anthropic 对区域限制进行了更新。
除中国企业外,据《金融时报》报道,Anthropic 的一位高管称,这一新政策也同样适用俄罗斯、伊朗、朝鲜等被美国视为“对手国家”的实体。直接客户以及通过云服务访问 Anthropic 服务的团体也将受到影响。这位高管称,此举对 Anthropic 全球收入的影响预计将在“数亿美元”范围内。
还有一位知情人士表示,该政策部分针对中国大陆公司在新加坡设立的子公司,这些子公司通过较少审查的方式访问美国技术。
以下为 Anthropic 公告全文:
Anthropic 的服务条款禁止相似某些地区使用我们的服务,原因包括法律、监管及安全风险。然而,来自这些受限地区的公司(包括像中国),仍以各种方式访问我们的服务,例如通过在其他国家注册的子公司。
这些地区的公司面临法律要求,这些要求可能迫使它们共享数据、配合情报机构,或采取其他可能带来国家安全风险的行为。无论这些公司运营的地点或个人偏好如何,这些要求都会使其很难抵抗这些压力。当这些实体通过子公司访问我们的服务时,它们可能利用我们的能力开发最终为对抗性军事和情报机构及更广泛威权目标服务的应用和服务。同时,它们也可能通过蒸馏等技术利用我们的模型推进自身的 AI 开发,并与总部位于美国及盟国的可信科技公司展开全球竞争。
为了应对这一现实,并更好地与我们确保变革性 AI 能力服务于民主利益的承诺保持一致,我们正在加强区域限制。此次更新禁止那些所有权结构使其受限于我们产品不允许的司法管辖区(如中国)控制的公司或组织使用我们的服务,无论它们实际运营地点在哪里。这包括那些直接或间接由不受支持地区的公司持股超过 50% 的实体。这一变更确保我们的服务条款反映现实风险,并忠实于我们政策的精神。
基于这一考量,我们继续倡导相关政策,例如:严格的出口管制;加快在美国本土的能源项目建设,以支撑大规模 AI 基础设施的建设;以及严格评估 AI 模型的国家安全相关能力,包括可能被美国对手利用的能力。
AI 发展的安全性和保障需要集体承诺,防止对手滥用其能力。负责任的 AI 公司可以且应该采取果断行动,确保变革性技术服务于美国及盟国的战略利益,并支持我们的民主价值观。
来源:
https://www.anthropic.com/news/updating-restrictions-of-sales-to-unsupported-regions
https://www.ft.com/content/12b8e10b-b55d-4824-817f-a3c9cfe9f779
文章来自微信公众号 “ CSDN ”