# 热门搜索 #
搜索
苹果大模型最大动作:开源M芯专用ML框架,能跑70亿大模型
8708点击    2023-12-07 16:14

苹果M系列芯片专属的机器学习框架,开源即爆火!


现在,用上这个框架,你就能直接在苹果GPU上跑70亿参数大模型、训练Transformer模型或是搞LoRA微调。


它由苹果官方发布,风格与PyTorch相似,不过并不基于任何已有框架实现。



LeCun等大佬纷纷赶来点赞转发。



英伟达高级AI科学家Jim Fan赞叹称:


这应该是目前苹果在开源AI开源上最大的动作了。


甚至还有网友动起了iPhone上A芯的念头(手动狗头)



所以,这个框架究竟长啥样?


参考多个ML框架设计


这个新框架名叫MLX,有探索机器学习(ml-explore)的意思。



从功能来看,MLX主要有以下几点特性:


API熟悉(包括C++ API、类似NumPy的Python API以及一些高级功能包近似于PyTorch的API)、可组合函数变换、惰性计算、动态图构建、多设备可用、统一内存。


框架作者Awni Hannun介绍,之所以MLX不直接基于PyTorch实现,主要有几个方面的考量。



首先是因为,MLX框架是给苹果芯片设计的。


苹果芯片在采用了一些独特的设计,例如统一内存,这些设计在框架中都可以被利用。


然后,MLX框架也参考了不同机器学习框架的优势,包括NumPy、PyTorch、Jax和ArrayFire等。


例如JAX中可组合的函数转换,就被加进了MLX的设计中,但graph(计算图)仍然是动态构建的。


除此之外,作者认为MLX也有一些属于自己的特性,如简单、灵活和多样性等。


因此,MLX在功能和设计上与PyTorch等经典框架不完全一样,有一些“自己的style”。


如果你手上有苹果M芯电脑的话,现在就可以上手一试跑AI模型了。


苹果电脑M系列芯片才能用


目前,官方给出了5类MLX的使用参考案例:


  • Transformer架构语言模型的训练


  • LLaMAMistral进行长文本生成


  • LoRA进行参数微调


  • Stable Diffusion进行图像生成


  • Whisper进行语音识别


作者们还在GitHub上放出了基于Stable Diffusion对比的PyTorch和MLX的性能:



要是对这几个AI模型感兴趣,装好MLX之后就可以直接上手试玩了。


作者给出了一系列手把手的教程,教你如何在苹果电脑上运行MLX框架。


首先是pip install mlx,安装一下框架:



我们也在苹果M芯电脑上尝试了一下,可以成功安装:



值得一提的是,安装前记得检查一下你的苹果电脑,各种环境和操作系统是否都搞好了。



而且芯片必须是苹果自研的M系列芯片,可以用这个口令检查一下:



如果是英特尔平台,也是用不了MLX的:


搞定之后,git clone一个副本,就可以在样例里面找到自己想玩的模型,尝试上手运行了:



这里跑一个LLaMA试试:



然后就可以开始问问题了,例如波尔查诺-魏尔斯特拉斯定理是什么等等,LLaMA就能在终端给你解答:



LightningAI的Sebastian Raschka表示,这个框架看起来非常酷,希望能看到更多PyTorch与MLX在macOS上的性能对比。


除此之外,LLaMA在MLX上的实现细节也非常有意思:



还有不少苹果用户表示高兴:H100稀缺的情况下,终于可以用M3 Max来搞事了。



你试用过MLX了吗?感觉如何?


参考链接:


[1]https://github.com/ml-explore/mlx


[2]https://twitter.com/awnihannun/status/1732184443451019431


文章来自于微信公众号“量子位”(ID: QbitAI),作者 “萧箫”
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner