
狂欢继续!英伟达财报再破纪录,卖260亿赚148亿,黄仁勋回应一切:你除了我没得选
狂欢继续!英伟达财报再破纪录,卖260亿赚148亿,黄仁勋回应一切:你除了我没得选对英伟达来说,这世界上的AI模型们生成的tokens越多,它的收入就越多。 5月22日美股盘后,英伟达最新一季度财报(英伟达财年与自然年不同步,2024年1月30日至2025年1月29日为2025财年,此次为2025财年第一季度财报)再次碾压了已经很高的预期。
对英伟达来说,这世界上的AI模型们生成的tokens越多,它的收入就越多。 5月22日美股盘后,英伟达最新一季度财报(英伟达财年与自然年不同步,2024年1月30日至2025年1月29日为2025财年,此次为2025财年第一季度财报)再次碾压了已经很高的预期。
英伟达财报显示收入和净利大增,AI芯片市场领先。
近日,西交微软北大联合提出信息密集型训练大法,使用纯数据驱动的方式,矫正LLM训练过程产生的偏见,在一定程度上治疗了大语言模型丢失中间信息的问题。
通义千问GPT-4级大模型,直接击穿全网底价!就在刚刚,阿里突然放出大招,官宣9款通义大模型降价。
登录就送500w tokens!1块钱 100w tokens!一降再降!!仅需0.0008元/千tokens!
5月14日,开源的大语言模型Falcon 2发布,性能超越Llama 3,消息登上了Hacker News热榜第一。「猎鹰」归来,开源宇宙将会迎来新的霸主吗?
前几天,普林斯顿大学联合Meta在arXiv上发表了他们最新的研究成果——Lory模型,论文提出构建完全可微的MoE模型,是一种预训练自回归语言模型的新方法。
GPT-4o发布不到一周,首个敢于挑战王者的新模型诞生!最近,Meta团队发布了「混合模态」Chameleon,可以在单一神经网络无缝处理文本和图像。10万亿token训练的34B参数模型性能接近GPT-4V,刷新SOTA。
70B模型,秒出1000token,换算成字符接近4000!
大模型正以前所未有的速度重塑我们的工作和生活方式,人们期待大模型走向千行百业,为实际业务带来真正的价值提升。