AI资讯新闻榜单内容搜索-MOE

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: MOE
单个4090可推理,2000亿稀疏大模型「天工MoE」开源

单个4090可推理,2000亿稀疏大模型「天工MoE」开源

单个4090可推理,2000亿稀疏大模型「天工MoE」开源

在大模型浪潮中,训练和部署最先进的密集 LLM 在计算需求和相关成本上带来了巨大挑战,尤其是在数百亿或数千亿参数的规模上。为了应对这些挑战,稀疏模型,如专家混合模型(MoE),已经变得越来越重要。这些模型通过将计算分配给各种专门的子模型或「专家」,提供了一种经济上更可行的替代方案,有可能以极低的资源需求达到甚至超过密集型模型的性能。

来自主题: AI技术研报
8623 点击    2024-06-04 17:59
马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B

马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B

马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B

马斯克最近哭穷表示,xAI需要部署10万个H100才能训出Grok 3,影响全球的大模型算力荒怎么解?昨天开源的这款MoE大模型,只用了1/19算力、1/19激活参数,性能就直接全面对标Llama 3-70B!

来自主题: AI技术研报
7437 点击    2024-05-29 15:14
150B token从头训练,普林斯顿Meta发布完全可微MoE架构Lory

150B token从头训练,普林斯顿Meta发布完全可微MoE架构Lory

150B token从头训练,普林斯顿Meta发布完全可微MoE架构Lory

前几天,普林斯顿大学联合Meta在arXiv上发表了他们最新的研究成果——Lory模型,论文提出构建完全可微的MoE模型,是一种预训练自回归语言模型的新方法。

来自主题: AI技术研报
9531 点击    2024-05-20 16:10
微软让MoE长出多个头,大幅提升专家激活率

微软让MoE长出多个头,大幅提升专家激活率

微软让MoE长出多个头,大幅提升专家激活率

MH-MoE 能优化几乎所有专家,实现起来非常简单。

来自主题: AI资讯
9943 点击    2024-05-14 13:14
MiniMax 悄咪咪上线的这款 AI 产品,好用到爆炸!

MiniMax 悄咪咪上线的这款 AI 产品,好用到爆炸!

MiniMax 悄咪咪上线的这款 AI 产品,好用到爆炸!

君不见,估值超 25 亿美元一举荣升独角兽。 君不见,闭门研发万亿 MoE 模型 abab 6.5. 君不见,低调上线海螺 AI 功能齐全好用到爆。

来自主题: AI资讯
9739 点击    2024-05-01 12:27
智子引擎发布多模态大模型 Awaker:MOE、自主更新、写真视频效果优于 Sora

智子引擎发布多模态大模型 Awaker:MOE、自主更新、写真视频效果优于 Sora

智子引擎发布多模态大模型 Awaker:MOE、自主更新、写真视频效果优于 Sora

在 4 月 27 日召开的中关村论坛通用人工智能平行论坛上,人大系初创公司智子引擎隆重发布全新的多模态大模型 Awaker 1.0。

来自主题: AI资讯
10246 点击    2024-05-01 12:21
全球首个自主进化多模态MoE震撼登场!写真视频击败Sora,人大系团队自研底座VDT

全球首个自主进化多模态MoE震撼登场!写真视频击败Sora,人大系团队自研底座VDT

全球首个自主进化多模态MoE震撼登场!写真视频击败Sora,人大系团队自研底座VDT

在4月27日召开的中关村论坛通用人工智能平行论坛上,人大系初创公司智子引擎隆重发布全新的多模态大模型Awaker 1.0,向AGI迈出至关重要的一步。

来自主题: AI技术研报
5803 点击    2024-04-29 20:27