AI资讯新闻榜单内容搜索-小模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 小模型
Qwen3-0.6B 能击败 Bert 吗?

Qwen3-0.6B 能击败 Bert 吗?

Qwen3-0.6B 能击败 Bert 吗?

新增 Qwen3-0.6B 在 Ag_news 数据集 Zero-Shot 的效果。新增 Qwen3-0.6B 线性层分类方法的效果。

来自主题: AI技术研报
8061 点击    2025-05-26 10:14
iOS 19还没来,我提前在iPhone上体验到了苹果最新的AI

iOS 19还没来,我提前在iPhone上体验到了苹果最新的AI

iOS 19还没来,我提前在iPhone上体验到了苹果最新的AI

苹果近期开源本地端侧视觉语言模型FastVLM,支持iPhone等设备本地运行,具备快速响应、低延迟和多设备适配特性。该模型依托自研框架MLX和视觉架构FastViT-HD,通过算法优化实现高效推理,或为未来智能眼镜等新硬件铺路,体现苹果将AI深度嵌入系统底层的战略布局。

来自主题: AI资讯
6624 点击    2025-05-16 15:48
Manus 背后的重要 Infra,E2B 如何给 AI Agents 配备“专属电脑”?

Manus 背后的重要 Infra,E2B 如何给 AI Agents 配备“专属电脑”?

Manus 背后的重要 Infra,E2B 如何给 AI Agents 配备“专属电脑”?

E2B 的愿景很大,CEO 的目标是成为 AI Agent 时代的 AWS,成为一个自动化的 infra 平台,未来可以提供 GPU 支持,满足更复杂的数据分析、小模型训练、游戏生成等需求,并可以托管 agent 构建的应用,覆盖 agent 从开发到部署的完整生命周期。

来自主题: AI资讯
9200 点击    2025-05-11 15:29
字节Seed首次开源代码模型,拿下同规模多个SOTA,提出用小模型管理数据范式

字节Seed首次开源代码模型,拿下同规模多个SOTA,提出用小模型管理数据范式

字节Seed首次开源代码模型,拿下同规模多个SOTA,提出用小模型管理数据范式

字节Seed首次开源代码模型!Seed-Coder,8B规模,超越Qwen3,拿下多个SOTA。它证明“只需极少人工参与,LLM就能自行管理代码训练数据”。通过自身生成和筛选高质量训练数据,可大幅提升模型代码生成能力。

来自主题: AI资讯
7903 点击    2025-05-11 15:18
DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

DeepSeek放大招!新模型专注数学定理证明,大幅刷新多项高难基准测试。在普特南测试上,新模型DeepSeek-Prover-V2直接把记录刷新到49道。目前的第一名在657道题中只做出10道题,为Kimi与AIME2024冠军团队Numina合作成果Kimina-Prover。

来自主题: AI技术研报
7933 点击    2025-05-01 22:52
只花9美元,推理能力暴涨20%!小模型Tina震撼登场,成本缩减260倍

只花9美元,推理能力暴涨20%!小模型Tina震撼登场,成本缩减260倍

只花9美元,推理能力暴涨20%!小模型Tina震撼登场,成本缩减260倍

在人工智能领域,语言模型的发展日新月异,推理能力作为语言模型的核心竞争力之一,一直是研究的焦点,许多的 AI 前沿人才对 AI 推理的效率进行研究。

来自主题: AI技术研报
8193 点击    2025-04-30 18:40
英伟达AI奥赛夺冠,1.5B数学碾压DeepSeek-R1!代码全系开源,陶哲轩点赞

英伟达AI奥赛夺冠,1.5B数学碾压DeepSeek-R1!代码全系开源,陶哲轩点赞

英伟达AI奥赛夺冠,1.5B数学碾压DeepSeek-R1!代码全系开源,陶哲轩点赞

AIMO2冠军「答卷」公布了!英伟达团队NemoSkills拔得头筹,开源了OpenMath-Nemotron系列AI模型,1.5B小模型击败14B-DeepSeek「推理大模型」!

来自主题: AI技术研报
5958 点击    2025-04-26 17:17
过程奖励模型也可以测试时扩展?清华、上海AI Lab 23K数据让1.5B小模型逆袭GPT-4o

过程奖励模型也可以测试时扩展?清华、上海AI Lab 23K数据让1.5B小模型逆袭GPT-4o

过程奖励模型也可以测试时扩展?清华、上海AI Lab 23K数据让1.5B小模型逆袭GPT-4o

随着 OpenAI o1 和 DeepSeek R1 的爆火,大语言模型(LLM)的推理能力增强和测试时扩展(TTS)受到广泛关注。然而,在复杂推理问题中,如何精准评估模型每一步回答的质量,仍然是一个亟待解决的难题。传统的过程奖励模型(PRM)虽能验证推理步骤,但受限于标量评分机制,难以捕捉深层逻辑错误,且其判别式建模方式限制了测试时的拓展能力。

来自主题: AI技术研报
7094 点击    2025-04-14 14:39