AI资讯新闻榜单内容搜索-LAM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LAM
DeepMind研究成本大起底,一篇ICML论文烧掉1290万美元

DeepMind研究成本大起底,一篇ICML论文烧掉1290万美元

DeepMind研究成本大起底,一篇ICML论文烧掉1290万美元

DeepMind最近被ICML 2024接收的一篇论文,完完全全暴露了他们背靠谷歌的「豪横」。一篇文章预估了这项研究所需的算力和成本,大概是Llama 3预训练的15%,耗费资金可达12.9M美元。

来自主题: AI技术研报
7608 点击    2024-08-03 15:03
苹果让大模型学会偷懒:更快吐出第一个token,准确度还保住了

苹果让大模型学会偷懒:更快吐出第一个token,准确度还保住了

苹果让大模型学会偷懒:更快吐出第一个token,准确度还保住了

Llama 3.1 刚刚发布,你是否已经尝试了呢?就算你的个人计算机是最近的顶尖配置,运行其中最小的 8B 版本可能也依然会有明显延迟。为了提升模型的推理效率,研究者想出了多种多样的方法,但其中很多都会让模型牺牲一些准确度。

来自主题: AI技术研报
8452 点击    2024-08-02 16:07
87.8%准确率赶超GPT-4o登顶!谷歌DeepMind发布自动评估模型FLAMe

87.8%准确率赶超GPT-4o登顶!谷歌DeepMind发布自动评估模型FLAMe

87.8%准确率赶超GPT-4o登顶!谷歌DeepMind发布自动评估模型FLAMe

谷歌DeepMind推出LLM自动评估模型FLAMe系列,FLAMe-RM-24B模型在RewardBench上表现卓越,以87.8%准确率领先GPT-4o。

来自主题: AI资讯
4667 点击    2024-08-02 15:29
【LLM开源模型】LLMs-Llama3.1-240723通关攻略笔记v1.0

【LLM开源模型】LLMs-Llama3.1-240723通关攻略笔记v1.0

【LLM开源模型】LLMs-Llama3.1-240723通关攻略笔记v1.0

不同类型的数据配比如何配置:先通过小规模实验确定最优配比,然后将其应用到大模型的训练中。 Token配比结论:通用知识50%;数学与逻辑25%;代码17%;多语言8%。

来自主题: AI技术研报
8590 点击    2024-08-02 11:53
大模型行业,根本没有什么“真”开源?

大模型行业,根本没有什么“真”开源?

大模型行业,根本没有什么“真”开源?

最近一段时间开源大模型市场非常热闹,先是苹果开源了70亿参数小模型DCLM,然后是重量级的Meta的Llama 3.1 和Mistral Large 2相继开源,在多项基准测试中Llama 3.1超过了闭源SOTA模型。 不过开源派和闭源派之间的争论并没有停下来的迹象。

来自主题: AI资讯
6772 点击    2024-08-01 11:26
4轮暴训,Llama 7B击败GPT-4!Meta等让LLM「分饰三角」自评自进化

4轮暴训,Llama 7B击败GPT-4!Meta等让LLM「分饰三角」自评自进化

4轮暴训,Llama 7B击败GPT-4!Meta等让LLM「分饰三角」自评自进化

Meta、UC伯克利、NYU共同提出元奖励语言模型,给「超级对齐」指条明路:让AI自己当裁判,自我改进对齐,效果秒杀自我奖励模型。

来自主题: AI技术研报
8750 点击    2024-07-31 16:05