
老黄发布新核弹B300,英伟达:B200已破DeepSeek-R1推理世界纪录
老黄发布新核弹B300,英伟达:B200已破DeepSeek-R1推理世界纪录皮衣老黄,带着最强AI芯片GB300闪亮登场“AI超级碗”GTC,燃爆全场!
皮衣老黄,带着最强AI芯片GB300闪亮登场“AI超级碗”GTC,燃爆全场!
超低成本图像生成预训练方案来了——仅需8张GPU训练,就能实现近SOTA的高质量图像生成效果。
第一家全面拥抱DeepSeek的“六小虎”,出现了! 不卖关子,它就是李开复亲任CEO的零一万物。 今日正式上线万智企业大模型一站式平台,宣布提供企业级DeepSeek部署定制解决方案。
“在AI时代,我们必须全面提升先进存力。”
干掉英特尔之后,苏妈又向英伟达发起猛攻!最新发布的48G两款GPU基准测试,AI性能相较4090飙升7.3倍。看来AMD这次是铁了心,要跟英伟达掰手腕了。
224张GPU,训出开源视频生成新SOTA!Open-Sora 2.0正式发布。 11B参数规模,性能可直追HunyuanVideo和Step-Video(30B)。
就在刚刚,谷歌Gemma 3来了,1B、4B、12B和27B四种参数,一块GPU/TPU就能跑!而Gemma 3仅以27B就击败了DeepSeek 671B模型,成为仅次于DeepSeek R1最优开源模型。
在一场激烈对决的棋局中,OpenAI 与 GPU 资源丰富的云服务提供商 CoreWeave 签署了一项为期五年、价值 119 亿美元的协议,据路透社援引接近交易的人士透露。
开源微调神器Unsloth带着黑科技又来了:短短两周后,再次优化DeepSeek-R1同款GRPO训练算法,上下文变长10倍,而显存只需原来的1/10!
字节对MoE模型训练成本再砍一刀,成本可节省40%! 刚刚,豆包大模型团队在GitHub上开源了叫做COMET的MoE优化技术。