AI资讯新闻榜单内容搜索-内存

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 内存
低内存占用也能实现满血训练?!北理北大港中文MMLab推出Fira训练框架

低内存占用也能实现满血训练?!北理北大港中文MMLab推出Fira训练框架

低内存占用也能实现满血训练?!北理北大港中文MMLab推出Fira训练框架

内存占用小,训练表现也要好……大模型训练成功实现二者兼得。 来自北理、北大和港中文MMLab的研究团队提出了一种满足低秩约束的大模型全秩训练框架——Fira,成功打破了传统低秩方法中内存占用与训练表现的“非此即彼”僵局。

来自主题: AI技术研报
3422 点击    2024-10-21 10:58
一行代码训练成本再降30%,AI大模型混合精度训练再升级|开源

一行代码训练成本再降30%,AI大模型混合精度训练再升级|开源

一行代码训练成本再降30%,AI大模型混合精度训练再升级|开源

FP8通过其独特的数值表示方式,能够在保持一定精度的同时,在大模型训练中提高训练速度、节省内存占用,最终降低训练成本。

来自主题: AI技术研报
2747 点击    2024-09-26 11:57
ECCV 2024 | 比基准高30%,媲美Gemini 1.5 Pro,基于记忆的视频理解智能体来了

ECCV 2024 | 比基准高30%,媲美Gemini 1.5 Pro,基于记忆的视频理解智能体来了

ECCV 2024 | 比基准高30%,媲美Gemini 1.5 Pro,基于记忆的视频理解智能体来了

视频理解仍然是计算机视觉和人工智能领域的一个主要挑战。最近在视频理解上的许多进展都是通过端到端地训练多模态大语言模型实现的[1,2,3]。然而,当这些模型处理较长的视频时,内存消耗可能会显著增加,甚至变得难以承受,并且自注意力机制有时可能难以捕捉长程关系 [4]。这些问题阻碍了将端到端模型进一步应用于视频理解。

来自主题: AI技术研报
7383 点击    2024-09-06 11:59
大模型终端部署新趋势:硬件直接支持混合矩阵乘法

大模型终端部署新趋势:硬件直接支持混合矩阵乘法

大模型终端部署新趋势:硬件直接支持混合矩阵乘法

在人工智能领域,模型参数的增多往往意味着性能的提升。但随着模型规模的扩大,其对终端设备的算力与内存需求也日益增加。低比特量化技术,由于可以大幅降低存储和计算成本并提升推理效率,已成为实现大模型在资源受限设备上高效运行的关键技术之一。然而,如果硬件设备不支持低比特量化后的数据模式,那么低比特量化的优势将无法发挥。

来自主题: AI资讯
3838 点击    2024-08-19 14:49
1.6万块H100训Llama 3.1,每3小时故障1次!罪魁祸首竟是GPU和HBM3显存

1.6万块H100训Llama 3.1,每3小时故障1次!罪魁祸首竟是GPU和HBM3显存

1.6万块H100训Llama 3.1,每3小时故障1次!罪魁祸首竟是GPU和HBM3显存

在Meta的Llama 3.1训练过程中,其运行的1.6万个GPU训练集群每3小时就会出现一次故障,意外故障中的半数都是由英伟达H100 GPU和HBM3内存故障造成的。

来自主题: AI技术研报
9617 点击    2024-07-29 20:16
存储大厂“激战”HBM

存储大厂“激战”HBM

存储大厂“激战”HBM

HBM因AI大模型训练需求爆增,市场火热。

来自主题: AI资讯
4801 点击    2024-07-15 13:44
Adam有了mini版:内存占用少一半,吞吐量提升50%

Adam有了mini版:内存占用少一半,吞吐量提升50%

Adam有了mini版:内存占用少一半,吞吐量提升50%

在训练大型语言模型(LLM)时,Adam(W) 基本上已经成为了人们默认使用的优化器。

来自主题: AI技术研报
8394 点击    2024-07-06 19:01
ICML 2024高分论文 | 零阶优化器微调大模型,大幅降低内存

ICML 2024高分论文 | 零阶优化器微调大模型,大幅降低内存

ICML 2024高分论文 | 零阶优化器微调大模型,大幅降低内存

开源大语言模型(LLM)百花齐放,为了让它们适应各种下游任务,微调(fine-tuning)是最广泛采用的基本方法。基于自动微分技术(auto-differentiation)的一阶优化器(SGD、Adam 等)虽然在模型微调中占据主流,然而在模型越来越大的今天,却带来越来越大的显存压力。

来自主题: AI技术研报
9722 点击    2024-07-04 13:35