
DeepSeek致谢腾讯大模型网络提速技术方案贡献
DeepSeek致谢腾讯大模型网络提速技术方案贡献最近,DeepSeek工程师在GitHub上高亮了来自腾讯的代码贡献,并用“huge speedup”介绍了这次性能提升。
最近,DeepSeek工程师在GitHub上高亮了来自腾讯的代码贡献,并用“huge speedup”介绍了这次性能提升。
在人工智能领域,推理能力的进化已成为通向通用智能的核心挑战。近期,Reinforcement Learning with Verifiable Rewards(RLVR)范式下涌现出一批「Zero」类推理模型,摆脱了对人类显式推理示范的依赖,通过强化学习过程自我学习推理轨迹,显著减少了监督训练所需的人力成本。
现在,跑准万亿参数的大模型,可以彻底跟英伟达Say Goodbye了。
过去一年,AI 领域在开源力量的推动下呈现爆发式增长。大模型不再是少数巨头专属的技术高地,而是在社区协作与开放共享中不断演化,覆盖基础架构、算法优化、推理部署等多个层面。开源,让 AI 更快、更平、更广,也让越来越多的开发者、研究者、创业者拥有了参与下一代智能系统构建的机会。
当前大模型研究正逐步从依赖扩展定律(Scaling Law)的预训练,转向聚焦推理能力的后训练。鉴于符号逻辑推理的有效性与普遍性,提升大模型的逻辑推理能力成为解决幻觉问题的关键途径。
大模型AI应用在消费级市场的爆发,已引发各界广泛关注。
从 2023 年的 Sora 到如今的可灵、Vidu、通义万相,AIGC 生成式技术的魔法席卷全球,打开了 AI 应用落地的大门。
本周三,知名 AI 创业公司,曾发布「全球首个 AI 软件工程师」的 Cognition AI 开源了一款使用强化学习,用于编写 CUDA 内核的大模型 Kevin-32B。
随着Gemini、GPT-4o等商业大模型把基于文本的图像编辑这一任务再次推向高峰,获取更高质量的编辑数据用于训练、以及训练更大参数量的模型似乎成了提高图像编辑性能的唯一出路。然而浙大哈佛这个团队却反其道而行之,仅用以往工作0.1%的数据量(获取自公开数据集)和1%的训练参数,以极低成本实现了图像的高质量编辑,在一些方面媲美甚至超越商业大模型!
随着大模型加速渗透核心行业,其安全可控性正从技术议题升级为产业落地的先决条件。