# 热门搜索 #
搜索
电脑平板组AI集群,在家就能跑400B大模型,GitHub狂揽2.5K星​
6422点击    2024-07-23 00:26

不用H100,三台苹果电脑就能带动400B大模型。


背后的功臣,是GitHub上的一个开源分布式AI推理框架,已经斩获了2.5k星标。



利用这个框架,几分钟就能用iPhone、iPad等日常设备构建出自己的AI算力集群。



这个框架名叫exo,不同于其他的分布式推理框架,它采用了p2p的连接方式,将设备接入网络即可自动加入集群。


开发者使用exo框架连接了两台MacBook Pro和一台Mac Studio,运算速度达到了110TFLOPS。


同时这位开发者表示,已经准备好迎接即将到来的Llama3-405B了。



exo官方也放话称,将在第一时间(day 0)提供对Llama3-405B的支持。



而且不只是电脑,exo可以让iPhone、iPad等设备也加入本地算力网络,甚至Apple Watch也同样能够吸纳。



随着版本的迭代,exo框架也不再是苹果限定(起初只支持MLX),有人把安卓手机和4090显卡也拉进了集群。



最快60秒完成配置


与其他分布式推理框架不同,exo不使用master-worker架构,而是点对点(p2p)地将设备进行连接。


只要设备连接到相同的局域网,就可以自动加入exo的算力网络,从而运行模型。


在对模型进行跨设备分割时,exo支持不同的分区策略,默认是环内存加权分区。


这会在环中运行推理,每个设备分别运行多个模型层,具体数量与设备内存成比例。



而且整个过程几乎无需任何手动配置,安装并启动之后系统就会自动连接局域网内运行的设备,未来还会支持蓝牙连接。


在作者的一段视频当中,只用了60秒左右就在两台新的MacBook上完成了配置。



可以看到,在60秒左右时,程序已然开始在后台运行。



另外从上面这张图中还能看出,exo还支持tiny chat图形化界面,同时还有兼容OpenAI的API


不过,这样的操作只能在集群中的尾节点(tail node)上实现。



目前,exo支持苹果MLX框架和开源机器学习框架tinygrad,对llama.cpp的适配工作也正在进行。


美中不足的是,由于iOS实现更新跟不上Python,导致程序出现很多问题,作者把exo的手机和iPad端进行了暂时下线,如果确实想尝试,可以给作者发邮件索取。



网友:真有那么好用?


这种利用本地设备运行大模型的方式,在HakerNews上也引发了广泛的讨论。


本地化运行的优点,一方面是隐私更有保障,另一方面是模型可以离线访问,同时还支持个性化定制。



也有人指出,利用现有设备搭建集群进行大模型运算,长期的使用成本要低于云端服务。



但针对exo这个具体的项目,也有不少人表达了心中的疑问。


首先有网友指出,现有的旧设备算力水平无法与专业的服务商之间差了数量级,如果是出于好奇玩一玩还可以,但想达到尖端性能,成本与大型平台根本无法比较。



而且还有人表示,作者演示用的设备都是高端硬件,一个32GB内存的Mac设备可能要价超过2000美元,这个价格还不如买两块3090。


他甚至认为,既然涉及到了苹果,那可以说是和“便宜”基本上不怎么沾边了。



这就引出了另一个问题——exo框架都兼容哪些设备?难道只支持苹果吗?


网友的提问则更加直接,开门见山地问支不支持树莓派。


作者回复说,理论上可以,不过还没测试,下一步会进行尝试。



除了设备自身的算力,有人还补充说,网络传输的速度瓶颈,也会限制集群的性能。


对此,框架作者亲自下场进行了解释:


exo当中需要传输的是小型激活向量,而非整个模型权重。

对于Llama-3-8B模型,激活向量约为10KB;Llama-3-70B约为32KB。

本地网络延迟通常很低(<5ms),不会显著影响性能。


作者表示,目前该框架已经支持tinygrad,因此虽然测试主要在Mac设备上展开,(理论上)支持能运行tinygrad的所有设备。


目前该框架仍处于实验阶段,未来的目标是把这个框架变得像Dropbox(一款网盘)一样简单。



BTW,exo官方也列出了一些目前计划解决的缺点,并进行了公开悬赏,解决这些问题的人将获得100-500美元不等的奖金。



GitHub:


https://github.com/exo-explore/exo


参考链接:


https://x.com/ac_crypto/status/1814912615946330473


文章来源于:微信公众号量子位


AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
知识库

【开源免费】FASTGPT是基于LLM的知识库开源项目,提供开箱即用的数据处理、模型调用等能力。整体功能和“Dify”“RAGFlow”项目类似。很多接入微信,飞书的AI项目都基于该项目二次开发。

项目地址:https://github.com/labring/FastGPT

2
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI