32B IOI奥赛击败DeepSeek-R1!Open R1开源复刻第三弹,下一步R1-Zero
32B IOI奥赛击败DeepSeek-R1!Open R1开源复刻第三弹,下一步R1-ZeroHugging Face的Open R1重磅升级,7B击败Claude 3.7 Sonnet等一众前沿模型。凭借CodeForces-CoTs数据集的10万高质量样本、IOI难题的严苛测试,以及模拟真实竞赛的提交策略优化,这款模型展现了惊艳的性能。
Hugging Face的Open R1重磅升级,7B击败Claude 3.7 Sonnet等一众前沿模型。凭借CodeForces-CoTs数据集的10万高质量样本、IOI难题的严苛测试,以及模拟真实竞赛的提交策略优化,这款模型展现了惊艳的性能。
揭秘如何在 20 分钟内用 AI 创建专业级界面,并分享前四大核心技巧,让你的 AI 生成的应用脱胎换骨。
2025 年 2 月发布的 NoLiMA 是一种大语言模型(LLM)长文本理解能力评估方法。不同于传统“大海捞针”(Needle-in-a-Haystack, NIAH)测试依赖关键词匹配的做法,它最大的特点是 通过精心设计问题和关键信息,迫使模型进行深层语义理解和推理,才能从长文本中找到答案。
这才 2 月份,深度搜索(Deep Search)就已经隐隐成为 2025 年的新搜索标准了。像谷歌和 OpenAI 这样的巨头,纷纷亮出自己的“Deep Research”产品,努力抢占这波技术浪潮的先机。(我们也很自豪,在同一天也发布了开源的node-deepresearch)。
为了解决视频编辑模型缺乏训练数据的问题,本文作者(来自香港中文大学、香港理工大学、清华大学等高校和云天励飞)提出了一个名为 Señorita-2M 的数据集。该数据集包含 200 万高质量的视频编辑对,囊括了 18 种视频编辑任务。
本文是白鲸出海与联合非凡产研推出的教育产品榜单第二期(对应 2025 年 1 月 AI 教育 web 和 App 数据)。
只要微调模型生成的前8-32个词,就能让大模型推理能力达到和传统监督训练一样的水平?
在一场激烈对决的棋局中,OpenAI 与 GPU 资源丰富的云服务提供商 CoreWeave 签署了一项为期五年、价值 119 亿美元的协议,据路透社援引接近交易的人士透露。
在DeepSeek与Manus火热前,国内AI几乎经历了凛冽的2024。
2024年对我用AI来做独立开发,最大的意义就是回本了。谈到“回本”,主要是指我们作为Apple Developer,每年需要支付99美金的会员费。第一年的99美金,相当于我的学费。当时我发布了一个名为“裁切大师”的应用,带来了约40多美金的收入