AI资讯新闻榜单内容搜索-Llama

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: Llama
4万亿晶体管5nm制程,全球最快AI芯片碾压H100!单机可训24万亿参数LLM,Llama 70B一天搞定

4万亿晶体管5nm制程,全球最快AI芯片碾压H100!单机可训24万亿参数LLM,Llama 70B一天搞定

4万亿晶体管5nm制程,全球最快AI芯片碾压H100!单机可训24万亿参数LLM,Llama 70B一天搞定

AI世界的进化快的有点跟不上了。刚刚,全球最强最大AI芯片WSE-3发布,4万亿晶体管5nm工艺制程。更厉害的是,WSE-3打造的单个超算可训出24万亿参数模型,相当于GPT-4/Gemini的十倍大。

来自主题: AI资讯
8834 点击    2024-03-15 12:34
Meta公布Llama 3训练集群细节!储备60万块H100迎接AGI

Meta公布Llama 3训练集群细节!储备60万块H100迎接AGI

Meta公布Llama 3训练集群细节!储备60万块H100迎接AGI

LLM开源从Infra做起!Meta公布了自己训练Llama 3的H100集群细节,看来Llama 3快来了。

来自主题: AI技术研报
3112 点击    2024-03-15 12:25
LLaMA-2-7B数学能力上限已达97.7%?Xwin-Math利用合成数据解锁潜力

LLaMA-2-7B数学能力上限已达97.7%?Xwin-Math利用合成数据解锁潜力

LLaMA-2-7B数学能力上限已达97.7%?Xwin-Math利用合成数据解锁潜力

数学问题解决能力一直被视为衡量语言模型智能水平的重要指标。通常只有规模极大的模型或经过大量数学相关预训练的模型才能有机会在数学问题上表现出色。

来自主题: AI技术研报
7237 点击    2024-03-14 16:14
专为训练Llama 3,Meta 4.9万张H100集群细节公布

专为训练Llama 3,Meta 4.9万张H100集群细节公布

专为训练Llama 3,Meta 4.9万张H100集群细节公布

刚刚,Meta 宣布推出两个 24k GPU 集群(共 49152 个 H100),标志着 Meta 为人工智能的未来做出了一笔重大的投资。

来自主题: AI资讯
8975 点击    2024-03-13 14:42
全面超越ViT,美团、浙大等提出视觉任务统一架构VisionLLAMA

全面超越ViT,美团、浙大等提出视觉任务统一架构VisionLLAMA

全面超越ViT,美团、浙大等提出视觉任务统一架构VisionLLAMA

半年多来,Meta 开源的 LLaMA 架构在 LLM 中经受了考验并大获成功(训练稳定、容易做 scaling)。

来自主题: AI技术研报
3940 点击    2024-03-07 14:01
6款通用大模型在保险行业的能力PK测评报告 |ZionAI实验室大模型测评

6款通用大模型在保险行业的能力PK测评报告 |ZionAI实验室大模型测评

6款通用大模型在保险行业的能力PK测评报告 |ZionAI实验室大模型测评

参照SuperCLUE(中文通用大模型综合性测评基准)框架专门定制了1000道题目集,一一测试了ChatGPT4、 智谱chatGLM-4、Baichuan2-Turbo、百度ERNIE-Bot 4.0、Yi-34B-chat、llama 2等模型在保险业务上的表现。

来自主题: AI资讯
7043 点击    2024-03-07 10:34
DeepMind携Mamba华人作者推Transformer革命之作!性能暴涨媲美Llama 2,推理能效大幅碾压

DeepMind携Mamba华人作者推Transformer革命之作!性能暴涨媲美Llama 2,推理能效大幅碾压

DeepMind携Mamba华人作者推Transformer革命之作!性能暴涨媲美Llama 2,推理能效大幅碾压

线性RNN赢了?近日,谷歌DeepMind一口气推出两大新架构,在d基准测试中超越了Transformer。新架构不仅保证了高效的训练和推理速度,并且成功扩展到了14B。

来自主题: AI资讯
5993 点击    2024-03-04 15:15
Llama 3性能炸裂,Meta要用“开源”争夺大模型王座

Llama 3性能炸裂,Meta要用“开源”争夺大模型王座

Llama 3性能炸裂,Meta要用“开源”争夺大模型王座

如果说 OpenAI 已经占据了今天闭源大模型生态的一极,那 Meta 无疑是代表开源大模型的另一极。

来自主题: AI资讯
7222 点击    2024-03-03 09:25
陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队刚刚发布了一种新的LLM上下文窗口扩展方法:它仅用8k大小的token文档进行训练,就能将Llama-2窗口扩展至128k。

来自主题: AI技术研报
8815 点击    2024-02-29 13:27