# 热门搜索 #
搜索
搜索: MoE
全球最强开源模型一夜易主,1320亿参数推理飙升2倍!

【新智元导读】就在刚刚,全球最强开源大模型王座易主,创业公司Databricks发布的DBRX,超越了Llama 2、Mixtral和Grok-1。MoE又立大功!这个过程只用了2个月,1000万美元,和3100块H100。

来自主题: AI技术研报
7065 点击    2024-03-28 16:09
苹果大模型MM1杀入场:300亿参数、多模态、MoE架构,超半数作者是华人

今年以来,苹果显然已经加大了对生成式人工智能(GenAI)的重视和投入。此前在 2024 苹果股东大会上,苹果 CEO 蒂姆・库克表示,今年将在 GenAI 领域实现重大进展。此外,苹果宣布放弃 10 年之久的造车项目之后,一部分造车团队成员也开始转向 GenAI。

来自主题: AI技术研报
8541 点击    2024-03-15 15:24
3B模型不输7B LLaVA!北大多模态MoE模型登GitHub热榜

混合专家(MoE)架构已支持多模态大模型,开发者终于不用卷参数量了!北大联合中山大学、腾讯等机构推出的新模型MoE-LLaVA,登上了GitHub热榜。

来自主题: AI技术研报
3488 点击    2024-02-09 13:54
国内首个!最火的MoE大模型APP来了,免费下载,人人可玩

MoE(混合专家)作为当下最顶尖、最前沿的大模型技术方向,MoE能在不增加推理成本的前提下,为大模型带来性能激增。比如,在MoE的加持之下,GPT-4带来的用户体验较之GPT-3.5有着革命性的飞升。

来自主题: AI资讯
8537 点击    2024-02-06 17:53
「天工2.0」MoE大模型发布

「天工AI」国内首个MoE架构免费向C端用户开放的大语言模型应用全新问世。

来自主题: AI资讯
9739 点击    2024-02-06 12:48
打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

2023 年 12 月,首个开源 MoE 大模型 Mixtral 8×7B 发布,在多种基准测试中,其表现近乎超越了 GPT-3.5 和 LLaMA 2 70B,而推理开销仅相当于 12B 左右的稠密模型。为进一步提升模型性能,稠密 LLM 常由于其参数规模急剧扩张而面临严峻的训练成本。

来自主题: AI技术研报
8747 点击    2024-02-04 13:59