极长序列、极快速度:面向新一代高效大语言模型的LASP序列并行 关键词: 大语言模型,LASP,LLM,claude,kimi,LLM,高效序列,模型训练 从国际顶流 GPT-4 128K、Claude 200K 到国内「当红炸子鸡」支持 200 万字上下文的 Kimi Chat,大语言模型(LLM)在长上下文技术上不约而同地卷起来了 来自主题: AI技术研报 4785 点击 2024-04-16 18:08