AI资讯新闻榜单内容搜索-MOE模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: MOE模型
中国最大开源MoE模型,255B参数无条件免费商用,元象发布

中国最大开源MoE模型,255B参数无条件免费商用,元象发布

中国最大开源MoE模型,255B参数无条件免费商用,元象发布

元象XVERSE发布中国最大MoE开源模型:XVERSE-MoE-A36B,该模型总参数255B,激活参数36B,达到100B模型性能的「跨级」跃升。

来自主题: AI资讯
5898 点击    2024-09-14 14:58
150B token从头训练,普林斯顿Meta发布完全可微MoE架构Lory

150B token从头训练,普林斯顿Meta发布完全可微MoE架构Lory

150B token从头训练,普林斯顿Meta发布完全可微MoE架构Lory

前几天,普林斯顿大学联合Meta在arXiv上发表了他们最新的研究成果——Lory模型,论文提出构建完全可微的MoE模型,是一种预训练自回归语言模型的新方法。

来自主题: AI技术研报
10944 点击    2024-05-20 16:10
仅需Llama3 1/17的训练成本,Snowflake开源128x3B MoE模型

仅需Llama3 1/17的训练成本,Snowflake开源128x3B MoE模型

仅需Llama3 1/17的训练成本,Snowflake开源128x3B MoE模型

Snowflake 发布高「企业智能」模型 Arctic,专注于企业内部应用。

来自主题: AI技术研报
8969 点击    2024-04-25 19:28
10万美元训出Llama-2级大模型!全华人打造新型MoE,贾扬清SD前CEO围观

10万美元训出Llama-2级大模型!全华人打造新型MoE,贾扬清SD前CEO围观

10万美元训出Llama-2级大模型!全华人打造新型MoE,贾扬清SD前CEO围观

“只需”10万美元,训练Llama-2级别的大模型。尺寸更小但性能不减的MoE模型来了:它叫JetMoE,来自MIT、普林斯顿等研究机构。性能妥妥超过同等规模的Llama-2。

来自主题: AI技术研报
9073 点击    2024-04-05 17:13
CVPR 2024录用结果出炉!2719篇论文被接收,录用率23.6%

CVPR 2024录用结果出炉!2719篇论文被接收,录用率23.6%

CVPR 2024录用结果出炉!2719篇论文被接收,录用率23.6%

一年一度的CVPR 2024录用结果出炉了。今年,共有2719篇论文被接收,录用率为23.6%。

来自主题: AI技术研报
9412 点击    2024-04-05 16:09
3B模型不输7B LLaVA!北大多模态MoE模型登GitHub热榜

3B模型不输7B LLaVA!北大多模态MoE模型登GitHub热榜

3B模型不输7B LLaVA!北大多模态MoE模型登GitHub热榜

混合专家(MoE)架构已支持多模态大模型,开发者终于不用卷参数量了!北大联合中山大学、腾讯等机构推出的新模型MoE-LLaVA,登上了GitHub热榜。

来自主题: AI技术研报
5523 点击    2024-02-09 13:54