家人们,一觉醒来,又吃了一则新瓜:
家人们,一觉醒来,又吃了一则新瓜:
微软 10 年「老兵」选择离开。
3D生成也能支持检索增强(RAG)了。
轻量级模型的春天要来了吗?
微软Phi 3.5系列上新了!mini模型小而更美,MoE模型首次亮相,vision模型专注多模态。
Build大会召开两周之后,微软更新了Phi-3系列模型的技术报告。不仅加入最新的基准测试结果,而且对小模型、高性能的实现机制做出了适当的揭示。
深度学习领域知名研究者、Lightning AI 的首席人工智能教育者 Sebastian Raschka 对 AI 大模型有着深刻的洞察,也会经常把一些观察的结果写成博客。在一篇 5 月中发布的博客中,他盘点分析了 4 月份发布的四个主要新模型:Mixtral、Meta AI 的 Llama 3、微软的 Phi-3 和苹果的 OpenELM。
过去几年,借助Scaling Laws的魔力,预训练的数据集不断增大,使得大模型的参数量也可以越做越大,从五年前的数十亿参数已经成长到今天的万亿级,在各个自然语言处理任务上的性能也越来越好。
当前最火的大模型,竟然三分之二都存在过拟合问题?
从Llama 3到Phi-3,蹭着开源热乎劲儿,苹果也来搞事情了。