大模型价格战打得火热 这几天,大模型的价格战打得火热。模型价格一降再降,百度、科大讯飞、腾讯甚至直接宣布免费。
大模型价格战打得火热 这几天,大模型的价格战打得火热。模型价格一降再降,百度、科大讯飞、腾讯甚至直接宣布免费。
近日,西交微软北大联合提出信息密集型训练大法,使用纯数据驱动的方式,矫正LLM训练过程产生的偏见,在一定程度上治疗了大语言模型丢失中间信息的问题。
MH-MoE 能优化几乎所有专家,实现起来非常简单。
微软&清华最新研究,打破GPT系列开创的Decoder-Only架构——
在发布一周年之际,阿里云通义千问大模型在闭源和开源领域都交上了一份满意的答卷。 国内的开发者们或许没有想到,有朝一日,他们开发的 AI 大模型会像出海的网文、短剧一样,让世界各地的网友坐等更新。甚至,来自韩国的网友已经开始反思:为什么我们就没有这样的模型?
把AlphaGo的核心算法用在大模型上,“高考”成绩直接提升了20多分。
两周前,OpenBMB开源社区联合面壁智能发布领先的开源大模型「Eurux-8x22B 」。相比口碑之作 Llama3-70B,Eurux-8x22B 发布时间更早,综合性能相当,尤其是拥有更强的推理性能——刷新开源大模型推理性能 SOTA,堪称开源大模型中「理科状元」。
对于小型语言模型(SLM)来说,数学应用题求解是一项很复杂的任务。
FP8和更低的浮点数量化精度,不再是H100的“专利”了!
继之前公开课之后(周鸿祎:2024 年 AI 产业发展的 16 个趋势。)红衣大叔兑现诺言,开源了 7B 系列大模型