AI资讯新闻榜单内容搜索-Llama

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Llama
这就翻车了?Reflection 70B遭质疑基模为Llama 3,作者:重新训练

这就翻车了?Reflection 70B遭质疑基模为Llama 3,作者:重新训练

这就翻车了?Reflection 70B遭质疑基模为Llama 3,作者:重新训练

最近,开源大模型社区再次「热闹」了起来,主角是 AI 写作初创公司 HyperWrite 开发的新模型 Reflection 70B。

来自主题: AI资讯
6197 点击    2024-09-08 15:47
刚刚,开源大模型的新王诞生了:超越GPT-4o,模型还能自动纠错

刚刚,开源大模型的新王诞生了:超越GPT-4o,模型还能自动纠错

刚刚,开源大模型的新王诞生了:超越GPT-4o,模型还能自动纠错

快速更迭的开源大模型领域,又出现了新王:Reflection 70B。 横扫 MMLU、MATH、IFEval、GSM8K,在每项基准测试上都超过了 GPT-4o,还击败了 405B 的 Llama 3.1。 这个新模型 Reflection 70B,来自 AI 写作初创公司 HyperWrite。

来自主题: AI资讯
6518 点击    2024-09-06 16:36
3天把Llama训成Mamba,性能不降,推理更快!

3天把Llama训成Mamba,性能不降,推理更快!

3天把Llama训成Mamba,性能不降,推理更快!

近日,Mamba方面又搞出了有意思的研究:来自康奈尔、普林斯顿等机构的研究人员成功将Llama提炼成了Mamba模型,并且设计了新的推测解码算法,加速了模型的推理。

来自主题: AI技术研报
7612 点击    2024-09-05 15:31
Mamba作者新作:将Llama3蒸馏成混合线性 RNN

Mamba作者新作:将Llama3蒸馏成混合线性 RNN

Mamba作者新作:将Llama3蒸馏成混合线性 RNN

Transformer 在深度学习领域取得巨大成功的关键是注意力机制。注意力机制让基于 Transformer 的模型关注与输入序列相关的部分,实现了更好的上下文理解。然而,注意力机制的缺点是计算开销大,会随输入规模而二次增长,Transformer 也因此难以处理非常长的文本。

来自主题: AI技术研报
7548 点击    2024-08-31 14:54
全球3.5亿下载量破纪录! Llama家族暴涨10倍,开源帝国掀AI革命

全球3.5亿下载量破纪录! Llama家族暴涨10倍,开源帝国掀AI革命

全球3.5亿下载量破纪录! Llama家族暴涨10倍,开源帝国掀AI革命

诞生一年半,Llama家族早已稳坐开源界头把交椅。最新报告称,Llama全球下载量近3.5亿,是去年同期的10倍。而模型开源让每个人最深体会是,token价格一降再降。

来自主题: AI资讯
6475 点击    2024-08-30 20:44
深度揭秘:Meta工程师如何构建超大规模AI训练网络?

深度揭秘:Meta工程师如何构建超大规模AI训练网络?

深度揭秘:Meta工程师如何构建超大规模AI训练网络?

最近,Meta的多个工程团队联合发表了一篇论文,描述了在引入基于GPU的分布式训练时,他们如何为其「量身定制」专用的数据中心网络。

来自主题: AI技术研报
8076 点击    2024-08-29 16:10