ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
马斯克豪掷40亿购10万张H100训Grok 3!自曝Grok 2下月上线,巨额博弈剑指OpenAI
9058点击    2024-07-03 16:19

一边造火箭,一边造新能源车,一边在推特评论区到处冒泡的马斯克继Grok 1.5发布后继续为自己的AI初创公司造势。


在回帖中,马斯克宣布xAI的大语言模型Grok 2将于8月推出。


并且马斯克为大家划重点:在数据训练方面将有大跨步。



Grok是马斯克正式进入生成式AI这条赛道推出的AI聊天机器人,来自一个与OpenAI、谷歌、Meta等巨头同时扳手腕的初创公司xAI,不仅开源还造超算中心,可谓野心勃勃。



自今年3月以来,xAI陆续推出了Grok 1.5大语言模型和首个多模态模型Grok1.5 Vision。


xAI曾表示,Grok 1.5V在多学科推理、文档理解、科学图表、表格处理等多领域「都能媲美现有的前沿多模态模型」。


今年5月,马斯克表示,xAI是一家新公司,因此Grok仍有大量准备工作要做,才能与谷歌Deepmind和OpenAI相抗衡。


后来者要居上,xAI一直在暗暗发力,直指模型性能,期望能给大公司上压力。


Grok 2:数据训练飞跃或有效解决「人体蜈蚣效应」


马斯克宣布Grok 2将在8月推出这条回帖的原帖也颇有意味。



原帖中,Cohere首席执行官Aidan Gomez表示,由于许多人工智能模型都是根据OpenAI的输出结果进行训练的,因此会产生「人体蜈蚣效应」,即模型会产生相同的输出结果。


对于这一现象,使用大语言模型的用户应该深有体会。


有一位推特网友发现,他虽然付了GPT-4和Claude两份的钱,却得到了同一份相同的错误答案。



这个千载难逢的抹黑GPT的机会,马斯克自然不会错过。


他与OpenAI之间的战火早已弥漫了4个月,前段时间甚至向法院发起诉讼,指控OpenAI违反合同。


于是,借此天赐良机,马斯克狠狠地拉踩OpenAI,为即将推出的Grok造势。


他发帖表示,从互联网语料中清除掉LLM合成的错误数据,形成高质量数据集需要大量的工作,而8月份推出的Grok 2将是这方面的巨大进步。


消息一出,前脚才被OpenAI封锁API,后脚又被鸽GPT-4o语音功能的伤心用户们纷纷表示,要转投这个出身豪门的Grok的怀抱。



等不及了!我老早就用Grok比GPT用的多了!



等不及看到下一代Grok了!Grok 2公布之日,就是OpenAI退订之时。

奥特曼表示:



Grok 3:豪掷40亿美元买10万个H100训练模型


马斯克公布完Grok 2发行时间,继续回复表示Grok 3将在年底推出。


并且在经过10万个英伟达H100 GPU的训练后,将成为「特别的东西」。



的确特别,首要就是特别壕。


一笔订单十位数。那个无人在意的角落里,老黄又靠「卖铲子」赚翻了。


科技公司都在竞相打造更加智能的人工智能产品,H100自然成为这场AI军备竞赛的香饽饽。


H100 GPU作为AI的关键组件、硅谷的热门商品,据估计每块成本在3万到4万美元之间,马斯克的十位数订单可能有团购价。


这意味着,Grok 3正在价值30亿至40亿美元的人工智能芯片上接受训练。但目前还不清楚这些芯片是否是xAI直接购买的,从云服务提供商那里租用GPU计算也是可能的。


The Information在5月份报道称,马斯克的xAI初创公司正在与甲骨文公司洽谈,准备斥资100亿美元租用云服务器。


可以确定的是,马斯克的xAI近年来的确直接购买了大量的H100。


例如,据报道,特斯拉首席执行官将原定用于特斯拉的一批价值5亿美元的英伟达H100转用于xAI。


可以想到,基于10万个GPU训练的Grok 3将比Grok 2更上一层楼。


马斯克在今年4月接受挪威主权基金负责人Nicolai Tangen采访时说,Grok 2需要大约2万张H100来进行训练。


到目前为止,xAI已经发布了Grok 1和Grok 1.5,最新的Grok 1.5只提供给早期测试者和X(前身为Twitter)上的用户。


评论区也尤其关注了Grok 2和Grok 3的用户使用范围,可以看出,大家对10万张H100训练出来的模型颇有期待。



10万个GPU听起来确实很多,但是,像Meta这样的其他科技巨头正在购买更多的GPU。


Mark Zuckerber今年1月表示,到2024年底,Meta将购买约35万个英伟达H100 GPU。


并且,Meta将拥有包括其他GPU在内的约60万个芯片。也就是说,Meta将花费约180亿美元打造AI芯片。


H100芯片的囤积数量,也成为AI人才衡量公司实力的重要标准。


人工智能初创公司Perplexity的创始人兼首席执行官Aravind Srinivas谈到,他曾试图挖一名Meta的人工智能研究人员,但遭到拒绝,部分原因是Zuckerber保有了大量H100芯片。


Srinivas表示,我想从Meta聘请一位非常资深的研究员,你知道他们怎么说吗?


这位研究员无情拒绝,「等你有1万个H100 GPU的时候再来找我吧。」


由此可见,AI的核心是掌握算力,要想掌握数据,就得掌握运行数据芯片。


数据中心亲自监工


买买买之后,「工作狂」马斯克自然不会停下脚步。


分析师Adam Jonas在6月26日公开表示,如今AI数据中心在美国各地落地,导致美国周边电网用量激增。


而特斯拉迅速扩张的储能业务将帮助xAI在AI大战中占领一席之地。


这不,supermicro CEO和创始人Chales Liang发推公布和马斯克在数据中心的合照。



非常感谢马斯克引领液冷技术进入大型AI数据中心!新技术有可能帮助地球保护200亿棵树免于砍伐!

网友调侃道,马斯克要不就别睡了,要不数据中心打个地铺眯一会儿。



根据美国对数据中心的节能要求,全国范围内新建数据中心要求PUE<1.2,而传统的风冷制冷方式已经无法满足数据中心的散热需求,更加高效的液冷方案应运而生。


如何降低能耗也一直是各家公司关注的核心问题,而液冷技术具有冷却效率高、节能环保、稳定性强的优点。


因此,在人工智能领域,随着AI智算的需求爆发,液冷方案已经成为AI数据中心的首选。


文章来源于“新智元”,作者“新智元”


关键词: H100 , Grok 3 , 马斯克 , xAI , openai
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI搜索

【开源免费】MindSearch是一个模仿人类思考方式的AI搜索引擎框架,其性能可与 Perplexity和ChatGPT-Web相媲美。

项目地址:https://github.com/InternLM/MindSearch

在线使用:https://mindsearch.openxlab.org.cn/


【开源免费】Morphic是一个由AI驱动的搜索引擎。该项目开源免费,搜索结果包含文本,图片,视频等各种AI搜索所需要的必备功能。相对于其他开源AI搜索项目,测试搜索结果最好。

项目地址:https://github.com/miurla/morphic/tree/main

在线使用:https://www.morphic.sh/

2
免费使用GPT-4o

【免费】ffa.chat是一个完全免费的GPT-4o镜像站点,无需魔法付费,即可无限制使用GPT-4o等多个海外模型产品。

在线使用:https://ffa.chat/