ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
美国情报界和国防部引入Claude AI模型
3420点击    2024-11-10 14:49

当地时间11月7日,Anthropic与Palantir Technologies Inc.和亚马逊网络服务(AWS)合作,将Claude 3和3.5系列AI模型引入AWS,服务于美国情报和国防机构。这一合作使得Claude能够在Palantir的AI平台(AIP)内使用,同时利用AWS的安全、敏捷、灵活和可持续性优势。Claude模型现在可以在AWS上的Palantir AIP中使用,该平台获得了国防信息系统局(DISA)的Impact Level 6 (IL6)认证,能够处理国家安全关键数据。此次合作旨在推动政府运营的数字化转型,提升数据处理速度,增强数据驱动的洞察力,并帮助美国官员在时间敏感的情况下做出更明智的决策。但是,这一合作反映了AI开发商与美国情报界和国防部合作的增长趋势,同时也引发了对AI在军事应用中道德和安全问题的讨论。


背景概述


在一份新闻稿中,两家公司概述了Claude在国防和情报领域中的三个主要任务:高速处理大量复杂数据、识别数据中的模式和趋势、以及简化文档审查和准备


此次合作使Claude可以在Palantir的Impact Level 6环境(IL6)中使用,IL6是一个经国防认证的系统,可处理对国家安全至关重要的数据,最高可达“机密”级别。此举顺应了人工智能公司寻求国防合同的广泛趋势,Meta向国防合作伙伴提供其Llama模型,而OpenAI则寻求与国防部建立更紧密的联系。


Claude是一组AI语言模型,类似于ChatGPT所支持的模型,它将在Palantir的平台上工作,使用AWS托管来处理和分析数据。但一些批评人士称,这笔交易与Anthropic广为宣传的“AI安全”目标相矛盾。


在X上,谷歌前人工智能伦理联席主管Timnit Gebru谈到了Anthropic与Palantir的新交易,“看看他们是多么关心‘人类生存风险’。”


虽然合作声明表明人工智能情报分析具有广阔的潜力,但它表示人类官员在这些行动中仍将保留决策权。作为该技术能力的参考点,Palantir报告称,一家(未透露姓名的)美国保险公司利用其平台和Claude支持的78名人工智能代理,将承保流程从两周缩短到三小时。


此次新合作建立在Anthropic之前将Claude整合到AWS GovCloud的基础上,AWS GovCloud是专为政府云计算打造的服务。Anthropic最近开始在欧洲开展业务,一直在寻求融资,估值高达400亿美元。该公司已筹集了76亿美元,主要投资者是亚马逊。


Claude系列AI模型何以受情报界青睐?


Claude系列AI模型以文学作品命名,包括Haiku、Sonnet和Opus。最新的模型包括Claude 3 Haiku(轻量级模型)、Claude 3.5 Sonnet(中等范围模型)和Claude 3 Opus(旗舰模型)。所有模型都能分析文本、图像、图表、图形和技术图表,具有标准的20万个令牌上下文窗口,相当于大约15万个单词。Claude 3.5 Sonnet是目前最能干的模型,而Claude 3 Haiku则是最轻量级的模型。这些模型的优势在于其快速处理能力和对复杂指令的理解,尽管它们无法访问互联网,也不擅长生成图像。


Claude系列AI模型在处理情报任务时的优势在于其快速处理和分析大量复杂数据的能力。这些模型能够识别数据中的模式和趋势,并简化文档审查和准备,从而提高情报分析的效率和准确性。Anthropic的销售主管Kate Earl Jensen表示,通过Palantir AWS支持的平台访问Claude将为美国国防和情报组织提供强大的AI工具,以快速处理和分析大量复杂数据。此次合作将显着改善情报分析流程,协助官员决策,简化资源密集型任务并提高机构效率。


道德困境


自2021年创始人创立Anthropic以来,该公司一直将自己定位为一家以道德和安全为重点的AI开发公司。该公司通过采用所谓的负责任的开发实践和对其模型自我施加的道德约束(例如其“宪法AI”系统)来与OpenAI等竞争对手区分开来。


Anthropic 的服务条款允许其人工智能模型用于各种防御目的,例如“合法授权的外国情报分析”、“识别秘密影响或破坏活动”以及“提前对潜在军事活动发出警告”。然而,它不适用于被认为“大幅增加灾难性滥用风险”、表现出“低级自主能力”或可用于虚假宣传活动、武器设计或部署、审查、国内监视和恶意网络行动的人工智能系统。


正如Futurism指出的那样,这种新的国防伙伴关系似乎与Anthropic的公众“好人”形象相冲突,社交媒体上的亲人工智能专家也注意到了这一点。经常发表评论的人工智能专家Nabeel S.Qureshi在X上写道:“想象一下,在2021年告诉Anthropic那些关心安全、有效的利他主义者的创始人,在公司成立仅仅三年后,他们就会签署合作协议,将他们的~AGI模型直接部署到军事前线。”


除了与国防和情报机构合作的意义之外,这笔交易还将Anthropic与Palantir联系起来,Palantir是一家备受争议的公司,该公司最近赢得了一份价值4.8亿美元的合同,为美国陆军开发一种名为Maven Smart System的人工智能目标识别系统。Maven项目引发了科技界对人工智能技术军事应用的批评。


值得注意的是,Anthropic的服务条款确实概述了政府使用的具体规则和限制。这些条款允许进行外国情报分析和识别秘密影响活动等活动,同时禁止进行虚假信息、武器开发、审查和国内监视等用途。与Anthropic就Claude的使用保持定期沟通的政府机构可能会获得更广泛的使用AI模型的许可。


即使Claude从未被用来瞄准人类或作为武器系统的一部分,其他问题仍然存在。虽然Claude模型在人工智能界备受推崇,但它们(与所有LLM一样)有虚构的倾向,可能会以难以察觉的方式生成不正确的信息。


这是一个巨大的潜在问题,可能会影响Claude对政府机密数据的处理效率,这一事实以及其他关联让Futurism的Victor Tangermann感到担忧。正如他所说,“这是一种令人不安的合作关系,它建立了人工智能行业与美国军工联合体日益紧密的联系,这一令人担忧的趋势应该引起各种警惕,因为该技术存在许多固有缺陷——尤其是在生命受到威胁时。”


据《纽约时报》报道,Meta此前表示,目前已允许美国政府机构和承包商将其开源AI模型系列Llama用于军事和国家安全目的。此前,据报道,这家科技巨头的政策禁止将该公司的AI软件用于“军事、战争、核”等目的。

参考资源


1、https://arstechnica.com/ai/2024/11/safe-ai-champ-anthropic-teams-up-with-defense-giant-palantir-in-new-deal/


2、https://www.businesswire.com/news/home/20241107699415/en/Anthropic-and-Palantir-Partner-to-Bring-Claude-AI-Models-to-AWS-for-U.S.-Government-Intelligence-and-Defense-Operations


3、https://techcrunch.com/2024/10/19/claude-everything-you-need-to-know-about-anthropics-ai/


文章来自于微信公众号“网空闲话plus”,作者“网空闲话”


关键词: AI , AI军事 , claude , Anthropic