MiniMax押注线性注意力,让百万级长文本只用1/2700算力|对话MiniMax-01架构负责人钟怡然 MiniMax押注线性注意力,让百万级长文本只用1/2700算力|对话MiniMax-01架构负责人钟怡然 关键词: AI,MiniMax,模型训练,钟怡然 Transformer架构主导着生成式AI浪潮的当下,但它并非十全十美,也并非没有改写者。 来自主题: AI技术研报 6951 点击 2025-04-17 15:29