# 热门搜索 #
搜索
全球首个「开源GPT-4」出世!Llama 3震撼发布,Meta AI免登录可用
5303点击    2024-04-19 21:40

LLM界的「真·Open AI」,又来整顿AI圈了!


业内惊呼:首个开源GPT-4级的模型,终于来了!开源模型追上闭源模型的历史性一刻,或许就在眼前了?


一石激起千层浪,Llama 3才刚刚发布没几小时,就破纪录地登顶了Hugging Face排行榜。

02:20

Llama 3是在由24000块GPU组成的定制集群上,使用15万亿个token训练的。


甚至就连最小8B版本,有时都能打败大出一个数量级的Llama 2 70B!

值得期待的是,在未来几个月,Llama 3还将推出更多版本


不过,虽然上下文长度相较之前实现了翻倍,但依然只有8K。


顺带提一句,Llama 3已经可以在网页版Meta AI用上了,还是免登录那种。


对此,Hugging Face联创兼CEO表示:「Llama 1和Llama 2现在已经衍生出了30,000个新模型。我迫不及待地想看到Llama 3将会给AI生态带来怎样的冲击了。」


400B性能野兽,刷新开源SOTA


然而,8B和70B版本的Llama 3,还只是开胃菜,更大的还在后面呢!


真正的性能野兽——Llama 3 400B不久便要解禁,目前还在训练中。

128K token分词器+GQA


在架构上,Meta依然为Llama 3选择了Transformer架构。


这个架构是相对标准的纯解码器Transformer,不过相比于Llama 2做了几个关键改进。


比如,Llama 3使用了一个具有128K个token的分词器,可以更有效地编码语言,这就显著提高了模型性能。


而为了提高Llama 3模型的推理速度,Meta在8B和70B两种规模上都采用了分组查询注意力(Grouped Query Attention,GQA)机制。


此外,Meta还在8,192个token的序列上训练模型,并通过掩码确保自注意力机制不会跨越文档边界。


15万亿token训练,7倍于Llama 2


同时,大型高质量的训练数据集也至关重要。


为了预训练数据,团队投入了大量资源。


最终,Llama 3在超过15万亿个token上进行了预训练,而这些token都是从公开可用的来源收集的。


它的训练数据集比Llama 2的大7倍,并且包含4倍多的代码。


为了应对多语言场景,Llama 3的预训练数据集中有超过5%是高质量的非英语数据,涵盖了30多种语言。


同时,为了让训练数据具有足够高的质量,Meta开发了一系列数据过滤管道。


这些管道包括使用了启发式过滤器、NSFW过滤器、语义去重方法和文本分类器,用来预测数据质量。


在这个过程中一个有意思的点就是——


前几代的Llama 在识别高质量数据方面居然出奇得好,因此,Meta使用Llama 2来生成了用于训练Llama 3的文本质量分类器的训练数据。


此外,为了评估在最终的预训练数据集中混合来自不同来源的数据的最佳方式,Meta还进行了大量实验。


最终,Meta就能够选择一个数据组合,让Llama 3在STEM、编码、历史知识等各种使用场景中,都能表现良好。


Scaling Law依旧是王道


为了有效利用预训练数据,团队在扩大预训练规模上,投入了大量精力。


针对下游基准评估,Meta开发了一系列详细的缩放定律。这就保证团队能够选择最佳的数据组合,同时最佳地利用训练计算资源。


而缩放定律可以帮助团队在实际训练模型之前,预测最大模型在关键任务上的性能,这是至关重要的,因为这就能确保,模型在各种使用场景和能力方面,都有出色的表现。


在这个过程中,团队对缩放行为观察到了有了几个有趣的新现象。


比如,虽然一个8B参数模型的Chinchilla最优训练计算量,对应于约2000亿个token,但Meta发现,即使在模型接受了两个数量级以上的数据训练后,模型性能仍在继续提高!


而8B和70B参数的Llama 3在接受了高达15T个token的训练后,继续呈对数线性提高。


更大的模型可以用更少的训练计算,来匹配这些较小模型的性能,不过,由于小模型在推理过程中的效率更高,因此反而更受青睐。


为了训练最大的Llama 3模型,团队结合了三种并行化方式:数据并行、模型并行和流水线并行。


由此,团队达到了最高效的实现:在同时使用16K个GPU训练时,每个GPU的计算利用率超过了400 TFLOPS。


团队在两个定制的24K GPU集群上进行了训练。为了最大限度地提高GPU正常运行时间,Meta还开发了一个先进的新训练技术栈,可以自动进行错误检测、处理和维护。


同时,Meta还大大提高了硬件可靠性和静默数据损坏的检测机制,开发了新的可扩展存储系统,减少了检查点和回滚的开销。


而这些改进,让总体的有效训练时间超过了95%。


和与Llama 2相比,这些改进直接让Llama 3的训练效率提高了大概三倍!


创新指令微调


同时,团队也对指令微调进行了创新。


Meta采用的后训练方法,是监督微调(SFT)、拒绝采样、近端策略优化(PPO)和直接策略优化(DPO)的组合。


Meta发现,在SFT中使用的提示和在PPO与DPO中使用的偏好排序,对对齐模型的性能的影响完全超出了预期。


Llama 3在性能上取得的最大改进,就是归功于对这些数据的仔细策划,并且对人类标注者提供的标准进行了多轮质量保证。


而通过PPO和DPO从偏好排序中学习,Llama 3在推理和编码任务上的性能也大大提高了。


如果问Llama 3一个很难回答的推理问题,它有时竟然能产生正确的推理过程。


这个过程中的难点在于,它知道如何得出正确答案,但不知道该如何选择。但通过在偏好排序上进行训练,就能让模型学会如何选择正确答案。


更安全


在部署上,团队采用了一种新的系统级方法。


Meta将Llama模型设想为一个更广泛系统的一部分,让开发者坐在驾驶座上。Llama模型将作为系统的基础部分,开发者在设计时会考虑最终的目标。


在模型安全上,指令微调起了重要作用。


通过内部和外部努力,团队对指令微调模型进行了安全测试。


红队方法会利用人类专家和自动化方法来生成对抗性提示,试图引发有问题的响应,比如化学、生物、网络安全、其他风险领域相关的滥用风险。


在这个过程中,团队让Llama Guard模型,成为安全的基础,并且可以根据应用需求进行微调。


新的Llama Guard 2使用MLCommons 分类法。此外,CyberSecEval 2在其前作的基础上进行了扩展,增加了评估LLM滥用代码解释器的倾向、攻击性网络安全能力和对提示注入攻击的敏感性的措施。


最后,引入的Code Shield也增加了对生成的LLM不安全代码的推理时过滤的支持。这样就能降低不安全的代码建议、代码解释器的滥用等。


另外,Meta还更新了负责任使用指南(RUG),建议根据适合应用的内容指南,检查和过滤所有输入和输出。


此外,云服务提供商也会提供内容审核API等工具,鼓励开发者进行负责任地部署。


网页版Meta AI免登录,即可聊


与此同时,今天Meta还放出了网页版Meta AI,由最新Llama 3加持,号称是全球顶尖的AI助手之一。


整个页面UI设计非常简洁,不仅可以对话,还支持生图功能。


与ChatGPT-3.5免注册登录类似,与Meta AI聊天功能,进入网页随时随地即可开启,无需登录。


传送门:https://www.meta.ai/

不过,作图的话,是个例外。


其实,Meta AI助手在去年的Connect大会上,小扎首次做了预告。


而现在,全世界更多的人可以通过前所未有的方式与之互动。


不仅仅在网页上能聊,Meta AI还集成到了自家旗下社交应用中,比如Facebook、Ins、WhatsApp和Messenger。


接下来,一起感受下,Meta AI助手带来的与众不同的魅力吧。


想要组织周末短途旅行,却来不及做出行计划?不用担心!


Meta AI首先会根据要求提出三个关于旅行问题,再去量身定制一份旅行清单!

- 目的地:您要去哪里?

- 持续时间:您将旅行多少天?

- 旅行类型:是海滩度假、城市探险、户外探险还是其他?


又或是你在数学问题上苦苦挣扎?需要让工作邮件显得更专业?Meta AI都可以提供帮助!


甚至,你可以登录以保存自己与Meta AI的对话,以供将来参考。


让Llama 3画一幅自画像。


Ins、Facebook等APP无缝集成

正如前面所说,Meta AI也可以在Facebook、Ins、WhatsApp和Messenger的搜索中使用。

这样的优势在于,可以随时访问来自网络的实时信息,无需在不同应用程序之间切换。


举个栗子,假设你正在Messenger群聊中计划一次滑雪之旅。


直接通过Messenger的搜索,可以让Meta AI查找从纽约到科罗拉多的航班,并找出时间段人最少的周末去旅行——所有这些都无需跳出Messenger即可完成。


当你正在刷Facebook,看到一个感兴趣的帖子,附有一张冰岛北极光图。


你可以直接问Meta AI,「一年中什么时候最适合观赏极光」?


除了在网页版,Meta AI的图像功能还可以在WhatsApp中体验。


当你在搜索框开始输入prompt,便会看到一个浮现的图像,会随着你输入的每几个字而变化。


可以清晰看到,Meta AI如何将你的想象变为现实。


据介绍,Meta AI生成的图像更加清晰、质量更好,而且在图像中融入文字的能力也得到了提升。


不论是专辑封面设计、婚礼指示牌、生日装饰,还是服装搭配灵感,Meta AI都可以生成相应的图像,以前所未有的速度和质量将你的想象变为现实。


它甚至会提供有用的提示和建议,提供改进图像的思路,让你可以在初始点的基础上不断迭代。


这还不是全部......


当你找到一张自己喜欢的图片,可以让Meta AI制作动画,以新的风格对其进行改进,甚至将其转化为GIF,与朋友分享。


可以看出,有了强大的Llama 3加持,Meta AI的表现比以往更要出色。


不久后,Meta AI即将在Quest头显中推出。


参考资料:

https://about.fb.com/news/2024/04/meta-ai-assistant-built-with-llama-3/

https://ai.meta.com/blog/meta-llama-3/

https://llama.meta.com/llama3/


文章来自微信公众号“新智元”,作者:新智元编辑部


AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner

2
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0