ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
首个开源MoE大模型发布!7Bx8个专家,离GPT-4最近的一集
6541点击    2023-12-09 15:42

“取消今晚所有计划!”,许多AI开发者决定不睡了。


只因首个开源MoE大模型刚刚由Mistral AI发布。



MoE架构全称专家混合(Mixture-of-Experts),也就是传闻中GPT-4采用的方案,可以说这是开源大模型离GPT-4最近的一集了。



没有发布会、没有宣传视频,只靠一个磁力链接,就产生如此轰动效果。


具体参数还得是网速快的人下载完之后,从配置文件里截图发出来的:



7B参数x8个专家,对每个token选择前两个最相关的专家来处理。


以至于OpenAI创始成员Karpathy都吐槽,是不是少了点什么?


怎么缺了一个那种排练很多次的专业范视频,大谈特谈AI变革啊。


至于吐槽的是谁,懂得都懂了。


以及他还解释了为什么AI社区这几天如此活跃:最大的深度学习会议NeurIPS即将在下周开启。


MoE,开源大模型新阶段?


为何这款开源MoE模型如此受关注?


因为其前身Mistral-7B本来就是开源基础模型里最强的那一档,经常可以越级挑战13B、34B。


并且Mistral-7B以宽松的Apache-2.0开源协议发布,可免费商用,这次新模型很可能沿用这个协议。


在多个评测排行榜上,基于Mistral-7B微调的Zephyr-7B-beta都是前排唯一的7B模型,前后都是规模比他大得多的模型。


LLMSYS Chatbot Arena上,Zephry-7B-beta目前排第12



AlpacaEval上,也排到第15



目前这个新的MoE模型连个正式名字都还没有,社区一般称呼它为Mistral-7Bx8 MoE


但在大家期待的期待中,新MoE模型对比单体Mistral-7B的提升幅度,就应该像GPT-4对比GPT-3.5那样。


但是注意了,有人提醒大家MoE对于本地运行来说不是太友好,因为更占内存


但更适合部署在云端,跨设备专家并行,给公司处理并发需求带来成本优势。



行动比较快的公司是前PyTorch成员出走创办的fireworks.ai


第一次尝试、没有任何优化的情况下,需要两张80GB内存的卡,优化版本即将推出。



Replicate上也有了可试玩版本,简单试用发现中文水平也不错。



其实Mistral AI也为大家准备了官方配套代码,使用了斯坦福去年发布的轻量级MoE库Megablocks。



创始人:小模型支持更多有意思的应用


Mistral AI由前DeepMind、前Meta科学家创办。


刚刚完成一轮4.87亿美元的新融资,最新估值逼近20亿美元,已晋升独角兽。



三位联合创始人中,CEO Arthur Mensch此前在DeepMind巴黎工作。


CTO Timothée Lacroix和首席科学家Guillaume Lample则在Meta共同参与过Llama系列的研发,Lample是通讯作者之一。


Arthur Mensch曾在接受采访时谈到,让模型变小是支持Agent发展的路径之一。


如果能把计算成本降低100倍,就能构建起更多有意思的应用。


Mistral AI成立于今年5月,种子轮融资1.13亿美元。


9月底,Mistral AI以磁力链接的形式发布第一个开源模型Mistral-7B,当时很多开发者试用后都觉得Llama-2不香了。


12月初,Mistral AI再次甩出开源MoE模型磁力链接,再次掀起一波热潮。


这就是公司官号仅有的几次发言。



不少人都拿来和最近谷歌的过度宣传做对比。



最新的梗图:磁力链接就是新的arXiv。



参考链接:


[1]https://x.com/MistralAI/status/1733150512395038967?s=20


[2]https://github.com/mistralai/megablocks-public


[3]https://replicate.com/nateraw/mixtral-8x7b-32kseqlen


文章来自于微信公众号“量子位”(ID: QbitAI),作者 “梦晨”


关键词: MoE大模型 , Mistral AI
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

2
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner