AI资讯新闻榜单内容搜索-Skywork

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Skywork
单个4090可推理,2000亿稀疏大模型「天工MoE」开源

单个4090可推理,2000亿稀疏大模型「天工MoE」开源

单个4090可推理,2000亿稀疏大模型「天工MoE」开源

在大模型浪潮中,训练和部署最先进的密集 LLM 在计算需求和相关成本上带来了巨大挑战,尤其是在数百亿或数千亿参数的规模上。为了应对这些挑战,稀疏模型,如专家混合模型(MoE),已经变得越来越重要。这些模型通过将计算分配给各种专门的子模型或「专家」,提供了一种经济上更可行的替代方案,有可能以极低的资源需求达到甚至超过密集型模型的性能。

来自主题: AI技术研报
8649 点击    2024-06-04 17:59
中文最强开源大模型来了!130亿参数,0门槛商用,来自昆仑万维

中文最强开源大模型来了!130亿参数,0门槛商用,来自昆仑万维

中文最强开源大模型来了!130亿参数,0门槛商用,来自昆仑万维

开源最彻底的大模型来了——130亿参数,无需申请即可商用。 不仅如此,它还附带着把全球最大之一的中文数据集也一并开源了出来:600G、1500亿tokens!

来自主题: AI资讯
8215 点击    2023-10-30 16:26