AI资讯新闻榜单内容搜索-开源模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 开源模型
马斯克为什么一定要开源AI?

马斯克为什么一定要开源AI?

马斯克为什么一定要开源AI?

拒绝赛博朋克,千呼万唤始出来。为了兑现牛逼,马斯克最近下了血本:Grok-1宣布开源。据官方信息,这是一个参数高达3140亿的混合专家模型,是目前所有开源模型中规模最大的。

来自主题: AI资讯
5203 点击    2024-03-25 12:06
马斯克开源Grok,好像也没有那么热血沸腾。

马斯克开源Grok,好像也没有那么热血沸腾。

马斯克开源Grok,好像也没有那么热血沸腾。

为了Musk的开源承诺,熬了个夜,结果是果然没让人失望。 我是喜爱Musk大于Altman的(比如咱们的logo等设计,均是跟Grok一样黑白风格),喜欢他的幽默,喜欢他的真性情,喜欢他的性狡黠而守义,尽管Grok并没有那么易用

来自主题: AI技术研报
4556 点击    2024-03-18 11:31
开源大模型王座易主,谷歌Gemma杀入场,笔记本可跑,可商用

开源大模型王座易主,谷歌Gemma杀入场,笔记本可跑,可商用

开源大模型王座易主,谷歌Gemma杀入场,笔记本可跑,可商用

刚刚,谷歌杀入开源大模型。谷歌推出了全新的开源模型系列「Gemma」。相比 Gemini,Gemma 更加轻量,同时保持免费可用,模型权重也一并开源了,且允许商用。

来自主题: AI资讯
8142 点击    2024-02-22 11:52
金融研报数据魔改Yi-34B & DeepSeek 67B 谁更强? Deepmoney金融大模型魔改方案分享&在线实测

金融研报数据魔改Yi-34B & DeepSeek 67B 谁更强? Deepmoney金融大模型魔改方案分享&在线实测

金融研报数据魔改Yi-34B & DeepSeek 67B 谁更强? Deepmoney金融大模型魔改方案分享&在线实测

在微调大型模型的过程中,一个常用的策略是“知识蒸馏”,这意味着借助高性能模型,如GPT-4,来优化性能较低的开源模型。这种方法背后隐含的哲学理念与logos中心论相似,把GPT-4等模型视为更接近唯一的逻辑或真理的存在。

来自主题: AI资讯
7269 点击    2024-02-21 16:49
7B开源数学模型干翻千亿GPT-4,中国团队出品

7B开源数学模型干翻千亿GPT-4,中国团队出品

7B开源数学模型干翻千亿GPT-4,中国团队出品

7B开源模型,数学能力超过了千亿规模的GPT-4!它的表现可谓是突破了开源模型的极限,连阿里通义的研究员也感叹缩放定律是不是失效了。

来自主题: AI技术研报
4177 点击    2024-02-08 13:30
打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

2023 年 12 月,首个开源 MoE 大模型 Mixtral 8×7B 发布,在多种基准测试中,其表现近乎超越了 GPT-3.5 和 LLaMA 2 70B,而推理开销仅相当于 12B 左右的稠密模型。为进一步提升模型性能,稠密 LLM 常由于其参数规模急剧扩张而面临严峻的训练成本。

来自主题: AI技术研报
9389 点击    2024-02-04 13:59