# 热门搜索 #
搜索
斯坦福大学公布 "基础模型透明度指数”,LLaMA 2排名第一,GPT-4排在第三
7628点击    2023-10-18 23:10

我们对人工智能了解多少?


对于像OpenAI、谷歌和 Meta 等公司在过去一年中发布的大型语言模型,很显然,答案是:基本上一无所知。


因为这些公司一般不会公布使用什么数据来训练模型,或者使用什么硬件来运行模型。人工智能系统没有用户手册,也没有列出这些系统能做的所有事情,或者进行了哪些安全测试。虽然一些人工智能模型已经开源,即免费提供代码,但公众对其创建过程和发布后的情况仍然知之甚少。


本周,斯坦福大学的研究人员公布了一套评分系统,希望能改变这一切。


该系统被称为 "基础模型透明度指数"(Foundation Model Transparency Index),根据 10 个大型人工智能语言模型(有时称为 "基础模型")的透明度对其进行评分。


这个指数包括了一些知名的模型,例如OpenAI的GPT-4(用于付费版的ChatGPT)、Google的PaLM 2(用于Bard)以及Meta的LLaMA 2。它还包括了一些不太知名的模型,比如亚马逊的Titan和Inflection AI的Inflection-1,后者用于Pi聊天机器人。



为了得出排名,研究人员根据 100 项标准对每个模型进行了评估,包括模型制造商是否公开了训练数据的来源、所使用硬件的信息、训练模型所需的人力以及其他细节。排名还包括制作模型本身所用的人力和数据信息,以及研究人员所说的 "下游指标",这些指标与模型发布后的使用情况有关。(例如,其中一个问题是:"开发商是否披露了其存储、访问和共享用户数据的协议?)



根据研究人员的评估,这10个模型中最透明的模型是LLaMA 2,得分为53%。GPT-4获得了第三高的透明度分数,为47%。而PaLM 2只得到了37%的分数。


斯坦福大学基金会模式研究中心负责人珀西-梁(Percy Liang)认为,该项目是对人工智能行业透明度下降的必要回应。他说,随着资金涌入人工智能领域,科技界最大的公司也在争夺主导地位,许多公司最近的趋势是将自己掩盖在秘密之中。


"梁先生说:"三年前,人们会公布和发布更多关于他们模型的细节。"现在,关于这些模型是什么、如何制造以及在哪里使用,却没有任何信息。


随着模型越来越强大,数百万人将人工智能工具融入日常生活,透明度现在显得尤为重要。更多地了解这些系统是如何工作的,可以让监管者、研究人员和用户更好地了解他们所面对的是什么,也可以让他们向模型背后的公司提出更好的问题。


"梁先生说:"在这些模型的构建过程中,有一些相当重要的决定并没有被分享。


当我问人工智能公司高管为什么不公开分享更多模型信息时,他们通常会做出三种回答。


第一个常见回答是诉讼。已经有一些人工智能公司被作者、艺术家和媒体公司起诉,指控它们非法使用受版权保护的作品来训练其人工智能模型。到目前为止,大多数诉讼都针对开源人工智能项目,或者披露了有关其模型详细信息的项目。毕竟,如果不知道它们摄取了哪些艺术品,那么很难起诉一家公司侵犯了您的艺术作品。人工智能公司的律师担心,他们越多地披露模型如何构建,就越容易面临昂贵和烦人的诉讼。


第二个常见回答是竞争。大多数人工智能公司认为,他们的模型之所以有效,是因为它们拥有某种秘密配方——一种高质量的数据集,其他公司没有的,一种产生更好结果的微调技术,或者一些让他们具备竞争优势的优化。他们争辩说,如果迫使人工智能公司披露这些配方,就等于让它们向竞争对手赠送辛苦赢得的智慧,而竞争对手可以轻松复制它们。


第三种回答是安全性。一些人工智能专家认为,人工智能公司越多地披露有关其模型的信息,人工智能进展就会加速——因为每家公司都会看到所有竞争对手正在做什么,并立即尝试超越它们,构建更好、更大、更快的模型。这些人认为,这将使社会有更少的时间来监管和减缓人工智能的发展,如果人工智能变得太快太强大,可能会使我们都处于危险之中。


斯坦福的研究人员对这些解释并不认同。他们认为应该对人工智能公司施加压力,尽可能公开有关强大模型的信息,因为用户、研究人员和监管机构需要了解这些模型的工作原理,它们的局限性以及可能的危险性。


"研究人员之一里希-博马萨尼(Rishi Bommasani)说:"随着这项技术的影响越来越大,透明度却越来越低。


我完全同意。基础模型的威力太过强大,不应该保持如此不透明,我们了解这些系统的越多,就越能理解它们可能构成的威胁、可能开启的好处以及如何进行监管。


如果人工智能高管担心诉讼,也许他们应该争取公平使用的豁免权,以保护他们使用受版权保护的信息来训练模型的能力,而不是隐藏证据。如果他们担心向竞争对手泄露商业机密,他们可以披露其他类型的信息,或者通过专利来保护他们的创意。如果他们担心引发人工智能军备竞赛……那么,我们不是已经在这场竞赛中了吗?


在黑匣子中进行人工智能革命是不可行的。如果我们打算让人工智能改变我们的生活,我们就需要了解人工智能的内部运作。



文章来自于 “ THe New Work Times ”, 作者 Kevin Roose 科技专栏作家,也是《未来无忧: 自动化时代人类的 9 条法则》一书的作者



AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner