AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
Mac用户可以在oMLX中使用TurboQuant了,搭配Gemma-4-31B,谷歌全家桶实测很能打!

Mac用户可以在oMLX中使用TurboQuant了,搭配Gemma-4-31B,谷歌全家桶实测很能打!

Mac用户可以在oMLX中使用TurboQuant了,搭配Gemma-4-31B,谷歌全家桶实测很能打!

对本地部署玩家,尤其是Mac用户来说,长上下文推理最大的痛点往往不是“模型不够聪明”,而是稍微多用点上下文,统一内存就被撑爆了”,这一点在最近的Gemma-4 31B的部署中尤为明显,在同等上下文的情况,显存占用比Qwen3.5-27B高约一倍不止,直接劝退了不少人。但好消息是,谷歌近期提出的TurboQuant KV缓存量化算法,正是为了解决这个痛点而生。

来自主题: AI技术研报
7807 点击    2026-04-09 09:47
让机器人学会手往哪儿伸、怎么操作,东大团队给了新解法

让机器人学会手往哪儿伸、怎么操作,东大团队给了新解法

让机器人学会手往哪儿伸、怎么操作,东大团队给了新解法

在具身智能领域,可供性(affordance)预测 —— 即让机器人从视觉观测中理解 "在哪里操作"(接触点)与 "如何操作"(动作方向)—— 是实现精细化机器人操作的基础之一。精细操作要求机器人不仅能定位到物体的可交互区域,更要掌握接触后的准确运动方向,例如判断抽屉把手的精确拉动方向完成开合。

来自主题: AI技术研报
8725 点击    2026-04-09 09:47
生成式推理再排序,可能会是LLM4RecSys的新突破口吗?

生成式推理再排序,可能会是LLM4RecSys的新突破口吗?

生成式推理再排序,可能会是LLM4RecSys的新突破口吗?

大模型(LLM)的世界知识和推理能力是实现下一代推荐系统,即基于大模型的推荐系统(LLM4Recsys)的重要基石。来自meta ai的研究者们尝试将推理模型引入再排序阶段,推荐系统的最后一环。

来自主题: AI技术研报
10089 点击    2026-04-09 09:46
谷歌的Gemma-4-31B适合哪些人?值得你放弃Qwen3.5-27B吗?深度调研战略报告

谷歌的Gemma-4-31B适合哪些人?值得你放弃Qwen3.5-27B吗?深度调研战略报告

谷歌的Gemma-4-31B适合哪些人?值得你放弃Qwen3.5-27B吗?深度调研战略报告

Gemma4 31B的发布,在开源模型社区引发了巨大的关注。面对这款由谷歌DeepMind于2026年4月2日 推出的重磅模型,很多技术团队和本地部署玩家都在问同一个问题:Gemma4的出现,到底是在开辟一条新的本地部署路线,还是只是给高端玩家多了一个可选项?我们到底需不需要把现有的Qwen3.5 27B工作流整体迁移过去?

来自主题: AI技术研报
8600 点击    2026-04-08 16:29
再不怕乱引文献!绕过付费墙,BibAgent把学术核验转为证据链

再不怕乱引文献!绕过付费墙,BibAgent把学术核验转为证据链

再不怕乱引文献!绕过付费墙,BibAgent把学术核验转为证据链

大模型正在批量生成「看起来很像真的」学术论述,但这些论述背后的引用,真的成立吗?更关键的是:当被引论文被付费墙锁住、原文根本读不到时,自动化核验是否就注定失效?

来自主题: AI技术研报
9808 点击    2026-04-08 16:29
CVPR 2026|1分钟单图变4D视频!AI看图直接脑补物理规律

CVPR 2026|1分钟单图变4D视频!AI看图直接脑补物理规律

CVPR 2026|1分钟单图变4D视频!AI看图直接脑补物理规律

让静态的图片变成三维物体并动起来已经不算新鲜,但如果让图片不仅动起来,还能完美遵循现实世界的物理规律(比如蛋糕的Q弹、沙堆的散落、石雕的坚硬)呢?

来自主题: AI技术研报
5999 点击    2026-04-08 16:27
Cursor 凌晨自曝黑科技:重写 MoE 生成机制,Blackwell 推理性能直接翻倍!网友:直接榨干B200最后一滴带宽!

Cursor 凌晨自曝黑科技:重写 MoE 生成机制,Blackwell 推理性能直接翻倍!网友:直接榨干B200最后一滴带宽!

Cursor 凌晨自曝黑科技:重写 MoE 生成机制,Blackwell 推理性能直接翻倍!网友:直接榨干B200最后一滴带宽!

今天早上,Cursor 在X上发布一条推文:“我们重建了 MoE 模型在 Blackwell GPU 上生成 Tokens 的方式,导致推理速度快了 1.84 倍。”

来自主题: AI资讯
10149 点击    2026-04-08 10:24
同一个模型,换个Harness排名跳了25位:智能体基础设施完全解剖

同一个模型,换个Harness排名跳了25位:智能体基础设施完全解剖

同一个模型,换个Harness排名跳了25位:智能体基础设施完全解剖

LangChain 只换了模型外面的基础设施——同一个模型、同一套权重——就从 TerminalBench 2.0 排行榜 30 名开外直接跳到了第 5 名。另一个独立研究项目让大模型自己优化这层基础设施,达到了 76.4% 的通过率,超过了所有人工设计的方案。

来自主题: AI技术研报
8968 点击    2026-04-08 10:23