
12家AI芯片创企,盯上大模型生意
12家AI芯片创企,盯上大模型生意芯东西1月10日报道,谈起生成式AI热潮的受益者,没有人能忽略英伟达。据The Information统计,目前北美地区至少有12家AI芯片创企想从英伟达独享的生成式AI算力红利中分一杯羹。
芯东西1月10日报道,谈起生成式AI热潮的受益者,没有人能忽略英伟达。据The Information统计,目前北美地区至少有12家AI芯片创企想从英伟达独享的生成式AI算力红利中分一杯羹。
近年来,随着Transformer模型的大规模发展和应用,模型大小每两年平均增长240倍,GPT-3等大模型的参数增长已经超过了GPU内存的增长。在大算力激增的需求下,越来越多行业人士认识到,新的计算架构或许才是算力破局的关键。
大模型元年里,哪怕是跑在趋势最前沿的基座模型厂商,都难逃算力焦虑。
本文介绍了为什么在AI计算中要使用GPU,以及GPU与CPU的区别和作用。GPU具备强悍的并行计算能力,适合处理大量高强度并行计算任务,包括深度学习算法。
AI电商时代的到来给电商行业带来了巨大的变化,各种AI工具已经在电商领域广泛应用。然而,企业在迎接这个时代的挑战时需要关注算力、数据隐私、安全问题和人才培养等方面。
生成式AI将成为未来企业在竞争中优势的重要来源。企业现在面临的关键问题已经不是要不要上大模型,而是如何让大模型落地,为企业创造真正的价值。
算力不足仍然是制约通用人工智能发展的重要因素。GPU Utils 今年 8 月的一份数据显示,全球目前 H100 等效算力的供给缺口达到 43 万张。在解决算力不足的问题上,除了抢购和囤积英伟达,更多的方案正在浮出水面。
国内首个以国产全功能GPU为底座的大规模算力集群,正式落地了!这便是来自摩尔线程的KUAE智算中心,全国产千卡千亿模型训练平台。
大模型的领域工程,是要将行业模型的参数规模做小,任务执行效率更高的同时,节省算力和部署成本。
尽管我们无法预料大模型会生成什么,也不知道算力和数据的极限在哪里,但生成式 AI 革命是不可阻挡的。