为了Musk的开源承诺,熬了个夜,结果是果然没让人失望。
我是喜爱Musk大于Altman的(比如咱们的logo等设计,均是跟Grok一样黑白风格),喜欢他的幽默,喜欢他的真性情,喜欢他的性狡黠而守义,尽管Grok并没有那么易用(
这篇文章是希望外行也能看得懂的,所以有必要解释下前因后果。
简而言之,就是马斯克这个男人,搞了个类似ChatGPT的东西,命名为Grok。然后呢,研究出ChatGPT的这个组织叫OpenAI,但它不怎么Open。你可倒好,本来是个非营利性组织,现在搞七搞八的。马斯克可看不下去了,一边是起诉,一边是打口水仗,非常热闹。
然后重要的来了,马斯克以身作则,宣布这周会把自己的Grok给开源了。所谓开源的意思,简单来说就是你的代码无偿分享给大家来借鉴学习。
在这一周时间内,涌现了非常优秀的梗图,大都是嘲讽OpenAI是CloseAI的。
然后,就在美国的周日下午(北京时间周一的凌晨三点左右),Grok正式开源,且没有什么铺天盖地的宣传,仅仅是一个俏皮式的回复。
怕朋友们不理解我来解释下。是Grok这个账号,换了个头像(带上了个墨镜),回复了一句“Weights In Bio”,意思就是模型的重要信息在我的个性签名那里。
然后我们就可以看到他个性签名里一串莫名其妙的玩意。
ok,在给朋友们解释下,这是一种加密的磁力链接,是一个种子,可以用迅雷或者qBittorrent等工具下载。
不过没过多久,Grok官网账号就修改了它的Bio,换成了正经的academictorrent链接。
https://academictorrents.com/details/5f96d43576e3d386c9ba65b883210a393b68210e
对于Grok-1模型本身,我们可以在博客上看到一些信息。
官方博客:https://x.ai/blog/grok-os
Github地址:https://github.com/xai-org/grok-1
据估计Grok-1是一个8x38B的MoE架构模型,总参数量达到了3140亿。
比苹果的大,但没有国产阶跃星辰的万亿MoE来的大:阶跃星辰官网悄然更新,两款底座+两款应用抢先体验。
官方博客:https://x.ai/blog/grok-os
Github地址:https://github.com/xai-org/grok-1
据估计Grok-1是一个8x38B的MoE架构模型,总参数量达到了3140亿。
比苹果的大,但没有国产阶跃星辰的万亿MoE来的大:阶跃星辰官网悄然更新,两款底座+两款应用抢先体验。
为什么好像也没有那么热血沸腾呢?
因为开源Grok-1模型能力本身,并没有特别惊艳。
能力上是比不过GPT4,也比不过Palm-2,以及当红炸子鸡Claude3的。
浅浅期待一下Grok-1.5吧。
似乎马斯克本人也没有非常在意这次开源,还同时在一个播客间吹水。
而整件事情有意思的地方在于,马斯克是非常会营销的。
这个男人用他的幽默感,讽刺了隔壁的CloseAI,占领了道德制高点。
没什么好扯的了,补觉去了~
文章来源于 微信公众号 “ 特工宇宙 ”作者 特工少女
【免费】cursor-auto-free是一个能够让你无限免费使用cursor的项目。该项目通过cloudflare进行托管实现,请参考教程进行配置。
视频教程:https://www.bilibili.com/video/BV1WTKge6E7u/
项目地址:https://github.com/chengazhen/cursor-auto-free?tab=readme-ov-file
【开源免费】DeepBI是一款AI原生的数据分析平台。DeepBI充分利用大语言模型的能力来探索、查询、可视化和共享来自任何数据源的数据。用户可以使用DeepBI洞察数据并做出数据驱动的决策。
项目地址:https://github.com/DeepInsight-AI/DeepBI?tab=readme-ov-file
本地安装:https://www.deepbi.com/
【开源免费】airda(Air Data Agent)是面向数据分析的AI智能体,能够理解数据开发和数据分析需求、根据用户需要让数据可视化。
项目地址:https://github.com/hitsz-ids/airda