
马斯克为什么一定要开源AI?
马斯克为什么一定要开源AI?拒绝赛博朋克,千呼万唤始出来。为了兑现牛逼,马斯克最近下了血本:Grok-1宣布开源。据官方信息,这是一个参数高达3140亿的混合专家模型,是目前所有开源模型中规模最大的。
拒绝赛博朋克,千呼万唤始出来。为了兑现牛逼,马斯克最近下了血本:Grok-1宣布开源。据官方信息,这是一个参数高达3140亿的混合专家模型,是目前所有开源模型中规模最大的。
说到做到,马斯克承诺的开源版大模型 Grok 终于来了!
为了Musk的开源承诺,熬了个夜,结果是果然没让人失望。 我是喜爱Musk大于Altman的(比如咱们的logo等设计,均是跟Grok一样黑白风格),喜欢他的幽默,喜欢他的真性情,喜欢他的性狡黠而守义,尽管Grok并没有那么易用
说ChatGPT是AI的iPhone时刻有些言过其实, AGI的路上少不了Hugging Face…
刚刚,谷歌杀入开源大模型。谷歌推出了全新的开源模型系列「Gemma」。相比 Gemini,Gemma 更加轻量,同时保持免费可用,模型权重也一并开源了,且允许商用。
在微调大型模型的过程中,一个常用的策略是“知识蒸馏”,这意味着借助高性能模型,如GPT-4,来优化性能较低的开源模型。这种方法背后隐含的哲学理念与logos中心论相似,把GPT-4等模型视为更接近唯一的逻辑或真理的存在。
7B开源模型,数学能力超过了千亿规模的GPT-4!它的表现可谓是突破了开源模型的极限,连阿里通义的研究员也感叹缩放定律是不是失效了。
OpenAI的GPT商店有开源平替了——来自抱抱脸(Hugging Face)。
2023 年 12 月,首个开源 MoE 大模型 Mixtral 8×7B 发布,在多种基准测试中,其表现近乎超越了 GPT-3.5 和 LLaMA 2 70B,而推理开销仅相当于 12B 左右的稠密模型。为进一步提升模型性能,稠密 LLM 常由于其参数规模急剧扩张而面临严峻的训练成本。
现在,人人都可以利用开源模型,打造量身定制的AI助手了。