AI资讯新闻榜单内容搜索-MOE

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: MOE
打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

2023 年 12 月,首个开源 MoE 大模型 Mixtral 8×7B 发布,在多种基准测试中,其表现近乎超越了 GPT-3.5 和 LLaMA 2 70B,而推理开销仅相当于 12B 左右的稠密模型。为进一步提升模型性能,稠密 LLM 常由于其参数规模急剧扩张而面临严峻的训练成本。

来自主题: AI技术研报
9151 点击    2024-02-04 13:59
将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B

将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B

将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B

对于大型视觉语言模型(LVLM)而言,扩展模型可以有效提高模型性能。然而,扩大参数规模会显著增加训练和推理成本,因为计算中每个 token 都会激活所有模型参数。

来自主题: AI技术研报
6338 点击    2024-01-31 16:23
从零手搓MoE大模型,大神级教程来了

从零手搓MoE大模型,大神级教程来了

从零手搓MoE大模型,大神级教程来了

Hugging Face上有一位机器学习大神,分享了如何从头开始建立一套完整的MoE系统。

来自主题: AI技术研报
4958 点击    2024-01-29 16:30
大模型“四小龙”,能否跨越深渊?

大模型“四小龙”,能否跨越深渊?

大模型“四小龙”,能否跨越深渊?

一张名为《大模型的深渊》的图,在去年广为流行。吃瓜群众惊诧地发现,原来绝大多数大模型,都挤在深不见底的层级,“宣称自己快要落地的”“再等等决定啥时候落地的”“什么落地不落地的”“怎么还有这么多没听说过的大模型啊”……

来自主题: AI资讯
2013 点击    2024-01-27 12:36
MoE与Mamba强强联合,将状态空间模型扩展到数百亿参数

MoE与Mamba强强联合,将状态空间模型扩展到数百亿参数

MoE与Mamba强强联合,将状态空间模型扩展到数百亿参数

状态空间模型(SSM)是近来一种备受关注的 Transformer 替代技术,其优势是能在长上下文任务上实现线性时间的推理、并行化训练和强大的性能。而基于选择性 SSM 和硬件感知型设计的 Mamba 更是表现出色,成为了基于注意力的 Transformer 架构的一大有力替代架构。

来自主题: AI技术研报
10105 点击    2024-01-23 15:09
从Google Gemini到OpenAI Q*:生成式AI研究领域全面综述

从Google Gemini到OpenAI Q*:生成式AI研究领域全面综述

从Google Gemini到OpenAI Q*:生成式AI研究领域全面综述

这项综述性研究报告批判性地分析了生成式AI的发展现状和发展方向,并探究了谷歌Gemini和备受期待的OpenAI Q*等创新成果将如何改变多个领域的实际应用。

来自主题: AI资讯
5745 点击    2024-01-09 14:21
多模态大模型学杂了能力反下降?新研究:MoE+通用专家解决冲突

多模态大模型学杂了能力反下降?新研究:MoE+通用专家解决冲突

多模态大模型学杂了能力反下降?新研究:MoE+通用专家解决冲突

多模态大模型做“多任务指令微调”,大模型可能会“学得多错得多”,因为不同任务之间的冲突,导致泛化能力下降。

来自主题: AI资讯
3459 点击    2023-12-30 14:39