# 热门搜索 #
搜索
搜索: Llama
next-token被淘汰!Meta实测「多token」训练方法,推理提速3倍,性能大涨10%+

研究人员提出了一种新的大型语言模型训练方法,通过一次性预测多个未来tokens来提高样本效率和模型性能,在代码和自然语言生成任务上均表现出显著优势,且不会增加训练时间,推理速度还能提升至三倍。

来自主题: AI技术研报
8072 点击    2024-06-03 11:00
LLM的「母语」是什么?

在以英语为主的语料库上训练的多语言LLM,是否使用英语作为内部语言?对此,来自EPFL的研究人员针对Llama 2家族进行了一系列实验。

来自主题: AI技术研报
8078 点击    2024-06-03 10:53
开源模型进展盘点:最新Mixtral、Llama 3、Phi-3、OpenELM到底有多好?

深度学习领域知名研究者、Lightning AI 的首席人工智能教育者 Sebastian Raschka 对 AI 大模型有着深刻的洞察,也会经常把一些观察的结果写成博客。在一篇 5 月中发布的博客中,他盘点分析了 4 月份发布的四个主要新模型:Mixtral、Meta AI 的 Llama 3、微软的 Phi-3 和苹果的 OpenELM。

来自主题: AI技术研报
8102 点击    2024-06-02 14:42
最强开源编程大模型一夜易主:精通80+语言,仅22B

开源代码大模型的王座,再次易主! 来自素有“欧洲OpenAI”之称的Mistral,用22B参数量表现超越了70B的Code Llama。

来自主题: AI资讯
6356 点击    2024-05-30 19:49