单卡跑Llama 70B快过双卡,微软硬生生把FP6搞到了A100里 | 开源 关键词: Llama 70B,H100,AI硬件,Llama模型 FP8和更低的浮点数量化精度,不再是H100的“专利”了! 来自主题: AI技术研报 6519 点击 2024-04-29 20:17