AI算力提升,不能只靠堆GPU。
AI算力赛道又诞生一笔巨额融资。
近日,AI算力公司Lightmatter获得新一轮4亿美元(约合人民币28.45亿元)D轮融资。本轮由普徕仕(T. Rowe Price)领投,老股东GV、富达等跟投。本轮融资后,Lightmatter估值达到44亿美元(约合人民币312.91亿元)。
Lightmatter试图解决AI算力中心面临的芯片运算效率问题以及巨大能耗问题,希望利用硅光子技术,将芯片连接在一起来训练AI深度学习,通过这种方式加快处理速度,同时降低能耗。原理是,Lightmatter的光学互连层可让数百个GPU同步工作,从而简化了昂贵而复杂的AI模型训练和运行工作。
Lightmatter创立于2017年,总部位于美国加利福尼亚州,创始人是尼古拉斯·哈里斯(Nicholas Harris)。
尼古拉斯在麻省理工学院获得电子工程和计算机科学博士学位,是光子学研究的专家,他的博士论文题目是《用于量子信息处理和AI的可编程纳米光子学》。在读博的时候,他制造了硅基集成光子芯片,可以用光而不是电来发送和处理信息。在读博士之前,尼古拉斯曾在美光科技担任研发工程师,他看到了高性能计算的前景。
具体来说,Lightmatter想解决的问题是芯片(GPU或CPU)互联层效率的问题。从物理视角来看,训练AI是把几千块GPU连在一起,但是这些GPU不是像光伏发电板一样漫山遍野摆在山坡上,而是若干块为一组,插在一个机架上,无数个机架与机架通过信号交换装置再连起来,组成超大规模的算力中心。跑AI大模型的时候,数据输入、输出,这一大片GPU互连的过程也是有时间差的,有先有后。互联速度越快,算力中心的速度就越快。Lightmatter想通过硅光子技术抹平时间差,让GPU同步运行。
微软、亚马逊、 xAI 、 OpenAI 等巨头都对Lightmatter的解决方案展现了巨大的兴趣。
因为现有算力中心都是巨大的建筑,里面塞满了GPU,耗电量极大。有句话说,AI竞争的尽头,是电力的竞争。而且,未来AI大模型可能需要更多GPU,如果没有效率更高的方案,可能会出现一座小镇那么大的算力中心,数不清的GPU在里面。这得生产多少GPU,得多少电?
再未来呢,岂不是要建一座算力城?有人预测,到2040年,地球上大约80%的能源将用于数据中心和计算。
能实质性省电、加快运算效率的方案,都让巨头们垂涎三尺。随着摩尔定律的放缓和传统硅基计算技术达到物理极限,光子技术成为计算技术持续进步的潜在救星。Lightmatter 的解决方案使用光纤取代了标准的电气连接,实现了数百兆的带宽,远远超过了目前算力中心所能达到的水平。
Lightmatter的旗舰产品叫Passage(上图),它利用三维堆叠光子芯片在处理器之间移动数据。这种方法大大提高了AI集群的带宽和性能,同时降低了功耗。通过将数千到数百万个先进芯片集成到一个内聚系统中。Lightmatter目前正在与芯片制造商和云服务提供商合作,以实现大规模部署。尼古拉斯指出,由于Lightmatter的设备是在硅上运行的,因此可以由现有的半导体制造设施生产,无需大规模改变工艺。
尼古拉斯同时暗示:“这可能是我们最后一轮私人融资。”这可能意味着Lightmatter接下来就将筹备IPO了。
今年早些时候,Lightmatter还任命英伟达前高管西蒙娜·扬科夫斯基(Simona Jankowski)为CFO,进一步表明了冲刺上市的雄心壮志。
上周,纽约的Xscape Photonics也获得了 4400 万美元的 A 轮融资,它也是利用光子技术来解决AI数据中心在能源、性能和可扩展性方面的挑战,由IAG Capital Partners领投,思科投资和英伟达等公司跟投。
文章来自于微信公众号“铅笔道”,作者“黄小贵”