ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
Llama 3性能炸裂,Meta要用“开源”争夺大模型王座
7036点击    2024-03-03 09:25

大模型的安卓?


Sora 引发的讨论还在持续。有人认为 Sora 将是通往 AGI(通用人工智能)的快车道,也有人只是认为 Sora 开拓了 Transformer 架构与扩散模型相结合的全新技术路线,还有人认为 Sora 与 AGI 没有太大的关系,是一个产品上的重要里程碑,但在技术上并不比 ChatGPT 更重要。


不管 Sora 的出现意味着什么,大模型之战都还远远未到终局。如果说 OpenAI 已经占据了今天闭源大模型生态的一极,那 Meta 无疑是代表开源大模型的另一极。


Meta 的 Llama(羊驼)可以说从一开始就是最强大的开源大模型之一。去年 7 月,Meta 更是发布更强的 Llama 2,最为关键的是开源协议从「仅研究可用」转向了「免费可商用」,虽然也造就了一大批「套壳」的大模型,但毫无疑问一举改变大模型的格局。


不过 AI 世界一天一变,前有法国开源「新秀」Mistral 将 Llama 2 挑落马下(2 月又推出了「仅次于 GPT-4」的闭源大模型 Mistral Large),后有谷歌发布 Gemma 开源大模型碾压 Llama 2。


Llama 3 该来了。


今年 1 月,Meta CEO 马克·扎克伯格(以下简称「小扎」)就在 Instagram 视频中宣布,Meta AI 已经开始训练 Llama 3。而据 The Information 最新披露,Meta 计划在今年 7 月正式发布 Llama 3。



小扎的官宣视频,图/ Instagram


考虑到 Meta 在第一代 Llama 花了三个月的时间来训练,在 Llama 2 花了大约六个月的时间来训练,如果下一代模型遵循类似的时间表,也应该是在 2024 年 7 月的某个时间发布。


不仅如此,综合相关报道以及 Meta 官方透露出的信息,预计将在四个月后发布的 Llama 3 还有着更大的野心,恐怕又将以开源之姿再次改变大模型世界。


Llama 3 继续进化,Meta太豪横了


至少在当下,算力依然是大模型「迭代」的关键因素之一,就连 OpenAI 也要时不时说明自身的算力储备。


在 Instagram 视频中,小扎就表示,预计到 2024 年底,Meta 将拥有 350000 块英伟达 H100(官方定价单块 3.5 万美元,实际还在溢价),如果算上其他算力资源将达到近 600000 块 H100:


目前可能也只有微软、谷歌拥有与之可比的算力储备。



H00 GPU,图/英伟达 


小扎的言下之意其实很明显:Meta 有足够的 AI 算力资源来支持 Llama 3 的大规模预训练以及生成式 AI 的技术研究。


具体的参数大小暂且无法得知,但可以预计将会延续之前的多个参数规模版本,有传闻称最大版本将超过 1400 亿参数,直接挑战 GPT-4 等领先的大模型。


The Information 还引用内部消息指出,Llama 3 不仅会放松「安全围栏」,与 GPT-4、Gemini 以及 Llama 2 相比,Llama 3 在处理争议问题时提供更好的回答。Meta 显然希望至少提供有关查询的上下文,而不是忽略、拒绝回答用户提出的问题。


想要做到这一点,除了要求 Llama 3 从技术更好地改善大模型的「幻觉」问题,或许也要求上下文长度的改进。在 Llama 2 上,Meta 就将上下文长度翻了一番,让模型在推理期间(与 AI 聊天的过程)可以「记住」两倍的 Token 上下文。


另一方面,如今大模型厂商普遍都在转向多模态大模型(如 Gemini、GPT-4V)的研究,即在文本之外还支持和理解图像和音频,可以同时生成文字、图片、声音和视频。Meta 大概也不例外。


小扎虽然只确认 Llama 3 和 Llama 2 一样将包含代码生成功能,却没有明确提及其他多模式功能,不过他在官宣视频还是谈到了「人工智能」与「元宇宙」相结合的设想。


「眼镜是让人工智能看你所看、听你所听的理想产品形态,」小扎在谈到 Meta x 雷朋眼镜时指出,「它随时可以提供帮助。」雷科技在独立 AI 终端  AI Pin 的报道中,也深入论述了可穿戴设备在 AI 视觉/听觉领域的巨大潜力。



图/雷科技报道团现场摄制


换言之,Meta 的方向一定是让 AI 模型同时具备自然语言理解、视觉和听觉能力。由此推测,Llama 3 甚至后续几代 Llama 对于多模态的支持可以说是题中应有之义。


总得来说,我们可以合理地预期,就算 Llama 3 的规模还是维持在从 70 亿参数到 700 亿参数不等的范围,仍旧会带来显著的性能提升,同时 Llama 3 也将带来更大的想象空间。


更何况 Meta 还有对 AGI 的追求。


「越来越清楚的是,下一代服务需要构建全面的通用智能。」小扎明确地指出了 Meta 构建 AGI 的长期目标,「打造最好的人工智能助手、创作者人工智能、企业人工智能等等——这需要人工智能各个领域的进步,从推理到规划到编码到记忆以及其他认知能力。」


当然,这并不意味着 Llama 3 就将实现(甚至试图实现)AGI。但毫无疑问,Meta 正在有意以一种他们认为最终可能实现 AGI 的方式,进行研究和开发。


为了成功,Llama 3 还会继续开源


公允地说,Llama 3 开不开源,将极大地影响到整个人工智能行业。


作为行业被应用最多的开源大模型,Llama 2 及其为重要核心的上下游已经开始有意识构建生态。去年 12 月,为了对抗 OpenAI、谷歌为代表的闭源阵营,Meta 联合甲骨文、英特尔、AMD、IBM、索尼、戴尔等 57 家全球科技公司和研究机构成立了「AI 联盟」。



AI 联盟成员,图/ IBM


这个联盟有 6 大目标,其中很重要的一项就是搭建开源大模型生态,包括从研究、评估、硬件、安全、公众参与等一整套流程。


小扎虽然从始至终没有明确指出 Llama 3 开源与否,但 Llama 3 很大概率将会继续开源。


官宣正在训练 Llama 3 后,小扎就在 The Verge 的采访中表示:「我倾向于认为,这里面临的更大挑战之一是,如果你构建了真正有价值的东西,那么它最终会变得非常集中。然而,如果你让它更加开放,那么就可以解决由于机会和价值不平等而可能产生的一大类问题。」


如果小扎的回应更像是表达一种态度,Meta 首席人工智能科学家 Yann LeCun 的回应更加「直指根本」。在接受《连线》杂志的采访中,Yann LeCun 指出:


当你拥有一个很多人都可以贡献的开放平台时,进步就会变得更快。您最终获得的系统更加安全且性能更好。(同时)想象一下未来,我们与数字世界的所有交互都由人工智能系统主导。你不希望人工智能系统由美国西海岸的少数公司控制。也许美国人不会关心,也许美国政府不会关心。但我现在告诉你,在欧洲,他们不会喜欢它。


Yann LeCun,图/ Meta


总而言之,开源能够吸引更多厂商进行微调,吸引更多的开发者构建应用,也吸引更多的用户进行使用,带动生态的快速进步。特别当 Meta 占据开源大模型的顶级生态位,除了最先进的闭源大模型,用户恐怕会对其他所有模型失去兴趣,Meta 也更容易在 OpenAI 的生态之外培育一个庞大的开发生态,甚至超越 OpenAI:


就如同当年 Android 的后来居上。


此外,监管问题也是无法回避的。考虑到人工智能的颠覆性,当人工智能的进程不是由一家公司完全主导,而是由全球公司和开发者联手打造,也更容易被监管机构所接受。


写在最后


愿景是美好的,现实却不一定。问题是,Meta 还能够重回开源「王座」,甚至超越 GPT-4 吗?



图/ X(原 Twitter)


时移事易,Llama 3 发布之时,Meta 要面对的情况可能完全不同。谷歌 Gemma 的下场碾压,Mistral 的黑马之姿,都证明了 Meta 的开源「王座」并不稳固。尤其是谷歌,虽然次次都被 OpenAI 压一头,但没有人敢真的忽视谷歌的钱、技术与号召力。


当然,这些问题最终还是要等到 Llama 3 发布之时,才会有更明确的答案。在那之前,大模型乾坤未定,一切皆有可能。


文章来自于36氪 “雷科技”


AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner