AI资讯新闻榜单内容搜索-内存

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 内存
昇腾+鲲鹏联手上大招!华为爆改MoE训练,吞吐再飙升20%,内存省70%

昇腾+鲲鹏联手上大招!华为爆改MoE训练,吞吐再飙升20%,内存省70%

昇腾+鲲鹏联手上大招!华为爆改MoE训练,吞吐再飙升20%,内存省70%

最近,华为在MoE训练系统方面,给出了MoE训练算子和内存优化新方案:三大核心算子全面提速,系统吞吐再提20%,Selective R/S实现内存节省70%。

来自主题: AI技术研报
6241 点击    2025-06-04 15:17
微软再放LLM量化大招!原生4bit量化,成本暴减,性能几乎0损失

微软再放LLM量化大招!原生4bit量化,成本暴减,性能几乎0损失

微软再放LLM量化大招!原生4bit量化,成本暴减,性能几乎0损失

原生1bit大模型BitNet b1.58 2B4T再升级!微软公布BitNet v2,性能几乎0损失,而占用内存和计算成本显著降低。

来自主题: AI技术研报
7163 点击    2025-06-02 18:00
刚刚,DeepSeek首曝V3降成本秘诀!软硬协同突破Scaling天花板

刚刚,DeepSeek首曝V3降成本秘诀!软硬协同突破Scaling天花板

刚刚,DeepSeek首曝V3降成本秘诀!软硬协同突破Scaling天花板

DeepSeek最新论文深入剖析了V3/R1的开发历程,揭示了硬件与大语言模型架构协同设计的核心奥秘。论文展示了如何突破内存、计算和通信瓶颈,实现低成本、高效率的大规模AI训练与推理。不仅总结了实践经验,还为未来AI硬件与模型协同设计提出了建议。

来自主题: AI技术研报
7284 点击    2025-05-15 17:12
ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍

ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍

ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍

Mixture-of-Experts(MoE)在推理时仅激活每个 token 所需的一小部分专家,凭借其稀疏激活的特点,已成为当前 LLM 中的主流架构。然而,MoE 虽然显著降低了推理时的计算量,但整体参数规模依然大于同等性能的 Dense 模型,因此在显存资源极为受限的端侧部署场景中,仍然面临较大挑战。

来自主题: AI技术研报
5822 点击    2025-05-07 09:30
仅需0.4GB,参数只有0和±1!微软开源首个原生1 bit模型,CPU轻松跑

仅需0.4GB,参数只有0和±1!微软开源首个原生1 bit模型,CPU轻松跑

仅需0.4GB,参数只有0和±1!微软开源首个原生1 bit模型,CPU轻松跑

微软研究院开源的原生1bit大模型BitNet b1.58 2B4T,将低精度与高效能结合,开创了AI轻量化的新纪元。通过精心设计的推理框架,BitNet不仅突破了内存的限制,还在多项基准测试中表现出色,甚至与全精度模型不相上下。

来自主题: AI技术研报
5733 点击    2025-04-20 21:12
AI存储,不再小马拉大车

AI存储,不再小马拉大车

AI存储,不再小马拉大车

3月末,多家海外存储头部企业,宣布从4月起提高部分产品报价,国内厂商也随之上调价格,终结了DRAM内存与NAND闪存的降价势头。

来自主题: AI资讯
5873 点击    2025-04-14 08:54