ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
斯坦福大学公布 "基础模型透明度指数”,LLaMA 2排名第一,GPT-4排在第三
7724点击    2023-10-18 23:10

我们对人工智能了解多少?


对于像OpenAI、谷歌和 Meta 等公司在过去一年中发布的大型语言模型,很显然,答案是:基本上一无所知。


因为这些公司一般不会公布使用什么数据来训练模型,或者使用什么硬件来运行模型。人工智能系统没有用户手册,也没有列出这些系统能做的所有事情,或者进行了哪些安全测试。虽然一些人工智能模型已经开源,即免费提供代码,但公众对其创建过程和发布后的情况仍然知之甚少。


本周,斯坦福大学的研究人员公布了一套评分系统,希望能改变这一切。


该系统被称为 "基础模型透明度指数"(Foundation Model Transparency Index),根据 10 个大型人工智能语言模型(有时称为 "基础模型")的透明度对其进行评分。


这个指数包括了一些知名的模型,例如OpenAI的GPT-4(用于付费版的ChatGPT)、Google的PaLM 2(用于Bard)以及Meta的LLaMA 2。它还包括了一些不太知名的模型,比如亚马逊的Titan和Inflection AI的Inflection-1,后者用于Pi聊天机器人。



为了得出排名,研究人员根据 100 项标准对每个模型进行了评估,包括模型制造商是否公开了训练数据的来源、所使用硬件的信息、训练模型所需的人力以及其他细节。排名还包括制作模型本身所用的人力和数据信息,以及研究人员所说的 "下游指标",这些指标与模型发布后的使用情况有关。(例如,其中一个问题是:"开发商是否披露了其存储、访问和共享用户数据的协议?)



根据研究人员的评估,这10个模型中最透明的模型是LLaMA 2,得分为53%。GPT-4获得了第三高的透明度分数,为47%。而PaLM 2只得到了37%的分数。


斯坦福大学基金会模式研究中心负责人珀西-梁(Percy Liang)认为,该项目是对人工智能行业透明度下降的必要回应。他说,随着资金涌入人工智能领域,科技界最大的公司也在争夺主导地位,许多公司最近的趋势是将自己掩盖在秘密之中。


"梁先生说:"三年前,人们会公布和发布更多关于他们模型的细节。"现在,关于这些模型是什么、如何制造以及在哪里使用,却没有任何信息。


随着模型越来越强大,数百万人将人工智能工具融入日常生活,透明度现在显得尤为重要。更多地了解这些系统是如何工作的,可以让监管者、研究人员和用户更好地了解他们所面对的是什么,也可以让他们向模型背后的公司提出更好的问题。


"梁先生说:"在这些模型的构建过程中,有一些相当重要的决定并没有被分享。


当我问人工智能公司高管为什么不公开分享更多模型信息时,他们通常会做出三种回答。


第一个常见回答是诉讼。已经有一些人工智能公司被作者、艺术家和媒体公司起诉,指控它们非法使用受版权保护的作品来训练其人工智能模型。到目前为止,大多数诉讼都针对开源人工智能项目,或者披露了有关其模型详细信息的项目。毕竟,如果不知道它们摄取了哪些艺术品,那么很难起诉一家公司侵犯了您的艺术作品。人工智能公司的律师担心,他们越多地披露模型如何构建,就越容易面临昂贵和烦人的诉讼。


第二个常见回答是竞争。大多数人工智能公司认为,他们的模型之所以有效,是因为它们拥有某种秘密配方——一种高质量的数据集,其他公司没有的,一种产生更好结果的微调技术,或者一些让他们具备竞争优势的优化。他们争辩说,如果迫使人工智能公司披露这些配方,就等于让它们向竞争对手赠送辛苦赢得的智慧,而竞争对手可以轻松复制它们。


第三种回答是安全性。一些人工智能专家认为,人工智能公司越多地披露有关其模型的信息,人工智能进展就会加速——因为每家公司都会看到所有竞争对手正在做什么,并立即尝试超越它们,构建更好、更大、更快的模型。这些人认为,这将使社会有更少的时间来监管和减缓人工智能的发展,如果人工智能变得太快太强大,可能会使我们都处于危险之中。


斯坦福的研究人员对这些解释并不认同。他们认为应该对人工智能公司施加压力,尽可能公开有关强大模型的信息,因为用户、研究人员和监管机构需要了解这些模型的工作原理,它们的局限性以及可能的危险性。


"研究人员之一里希-博马萨尼(Rishi Bommasani)说:"随着这项技术的影响越来越大,透明度却越来越低。


我完全同意。基础模型的威力太过强大,不应该保持如此不透明,我们了解这些系统的越多,就越能理解它们可能构成的威胁、可能开启的好处以及如何进行监管。


如果人工智能高管担心诉讼,也许他们应该争取公平使用的豁免权,以保护他们使用受版权保护的信息来训练模型的能力,而不是隐藏证据。如果他们担心向竞争对手泄露商业机密,他们可以披露其他类型的信息,或者通过专利来保护他们的创意。如果他们担心引发人工智能军备竞赛……那么,我们不是已经在这场竞赛中了吗?


在黑匣子中进行人工智能革命是不可行的。如果我们打算让人工智能改变我们的生活,我们就需要了解人工智能的内部运作。



文章来自于 “ THe New Work Times ”, 作者 Kevin Roose 科技专栏作家,也是《未来无忧: 自动化时代人类的 9 条法则》一书的作者



AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner