
GPT-5、 Opus 3.5为何迟迟不发?新猜想:已诞生,被蒸馏成小模型来卖
GPT-5、 Opus 3.5为何迟迟不发?新猜想:已诞生,被蒸馏成小模型来卖最近几个月,从各路媒体、AI 社区到广大网民都在关注 OpenAI 下一代大模型「GPT-5」的进展。
最近几个月,从各路媒体、AI 社区到广大网民都在关注 OpenAI 下一代大模型「GPT-5」的进展。
还在为部署RAG系统的庞大体积和高性能门槛困扰吗?港大黄超教授团队最新推出的轻量级MiniRAG框架很好地解决了这一问题。通过优化架构设计,MiniRAG使得1.5B级别的小模型也能高效完成RAG任务,为端侧AI部署提供了更多可能性。
小模型也能击败o1?微软全华人团队提出rStar-Math算法,三大革命性技术突破,不仅让SLM在数学推理能力上刷新SOTA,更是挤进了全美20%顶尖高中生榜单。
放弃AGI,转向更好落地的小模型,李开复要带零一万物做“能赚钱的创新”。
大厂为什么追求大模型? 昨天有提到,为什么要研究语言模型。
a16z 合伙人 Jennifer Li 最近分享了她对生成式 AI 的最新见解,特别提到了设备端运行的小型模型在未来的重要性。
为了优化小模型的提示词,我们不得不求助于计算成本高昂的大模型。这种依赖不仅增加了开发成本,还限制了小模型的应用场景。
英伟达新品掀起边缘AI开发板大战,也为中国企业在边缘AI领域的发展提供了机遇。 前几篇文章,我们不断探讨小模型(SLM)在端侧和边缘侧的崛起。现在,边缘侧小模型已然成为不可忽视的发展趋势。
微软下一代14B小模型Phi-4出世了!仅用了40%合成数据,在数学性能上击败了GPT-4o,最新36页技术报告出炉。
过去一年,强化学习成为了大模型 AI 领域最热的概念之一。 随着行业内高阶推理模型的推出,再次彰显了强化学习在通往 AGI 道路上的重要性,也标志着大模型 AI 进入了一个全新阶段。