2024年7月22日凌晨,xAI创始人Elon Musk在推特上正式宣布,在凌晨4:20分正式启动了世界上最强的AI训练集群。 这个训练集群建设在美国田纳西州孟菲斯市,集合了10 万个液冷H100芯片。
2024年7月22日凌晨,xAI创始人Elon Musk在推特上正式宣布,在凌晨4:20分正式启动了世界上最强的AI训练集群。 这个训练集群建设在美国田纳西州孟菲斯市,集合了10 万个液冷H100芯片。
NVIDIA DGX GB200 超级计算集群数据中心部署指南解读,NVIDIA AI 工厂部署与 Broadcom AI 计算 ASIC 光学连接技术
传统计算架构的潜力开发已接近极限 要实现超强的AI能力,需要超大规模的模型,要训练超大规模的AI模型,需要数千,甚至上万的GPU协同工作。
「算力」堪称是AI时代最大的痛。在国外,OpenAI因为微软造GPU集群的速度太慢而算力告急。在国内,企业则面临着「模型算力太多元、产业生态太分散」这一难题。不过,最近新诞生的一款「AI神器」,令人眼前一亮。
首个由万卡集群训练出来的万亿参数大模型,被一家央企解锁了。
在电影《天下无贼》中,葛优扮演的黎叔有这样一句经典的台词,「二十一世纪什么最贵?人才!」而随着人工智能行业进入到大模型时代,这一问题的答案已然变成了「算力」。
马斯克又搞出了一个超级厉害的东西——人工智能训练集群Colossus!
马斯克xAI建超算集群,以太网助AI云迅猛发展。
2024年上海的7月是一个沉闷的雨季,但对国产AI 行业来说,却迎来了堪比摇滚乐集会的WAIC(世界人工智能大会)。
是时候用CPU通用服务器跑千亿参数大模型了!