AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
大模型能“原地”改参数了!字节Seed&北大新论文:测试时推理无需加层重训练

大模型能“原地”改参数了!字节Seed&北大新论文:测试时推理无需加层重训练

大模型能“原地”改参数了!字节Seed&北大新论文:测试时推理无需加层重训练

字节Seed最新研究,让大模型能“原地改参数”了。既不用改模型结构,也不用重新训练,还跑得很快。具体是这么个情况。智能体时代嘛,大家都知道模型们面对的任务开始变得越来越复杂、上下文越来越长。

来自主题: AI技术研报
8291 点击    2026-04-11 10:25
多模态幻觉的病因「高熵节点」找到了!全基准幻觉率下降

多模态幻觉的病因「高熵节点」找到了!全基准幻觉率下降

多模态幻觉的病因「高熵节点」找到了!全基准幻觉率下降

多模态大推理模型的幻觉,很多时候并非「没看见」,而是在最不确定的推理阶段想偏了。最新研究发现,模型在生成because、however、wait等transition words时,往往处于高熵关键节点,更容易脱离图像证据、转向语言脑补。LEAD在高熵阶段不急于输出单一离散token,而是先在潜在语义空间保留多种候选推理方向,并通过视觉锚点持续拉回图像证据,显著缓解幻觉。

来自主题: AI技术研报
9116 点击    2026-04-11 09:37
马斯克说漏嘴了!Claude Opus参数5T,Sonnet 1T

马斯克说漏嘴了!Claude Opus参数5T,Sonnet 1T

马斯克说漏嘴了!Claude Opus参数5T,Sonnet 1T

哦豁,马斯克一个“不小心”,把Claude参数抖出来了???长话短说:Sonnet 1T、Opus 5T。起因是老马发帖表示,xAI的Colossus 2超算正在训练7个模型,其中最大的一款,参数量直接冲到了10万亿。

来自主题: AI资讯
8253 点击    2026-04-10 16:11
视频生成不再「断片」:OneStory给模型装上「选择性记忆」,跨镜头讲故事人物场景始终如一丨CVPR'26

视频生成不再「断片」:OneStory给模型装上「选择性记忆」,跨镜头讲故事人物场景始终如一丨CVPR'26

视频生成不再「断片」:OneStory给模型装上「选择性记忆」,跨镜头讲故事人物场景始终如一丨CVPR'26

最近,来自Meta与University of Copenhagen的研究者提出了OneStory: Coherent Multi-Shot Video Generation with Adaptive Memory(收录于CVPR 2026)。这项工作聚焦于一个核心问题:如何在生成多镜头视频时,有效保留长程跨镜头上下文,从而实现更强的叙事一致性。

来自主题: AI技术研报
6634 点击    2026-04-10 15:36
狂揽4万星!换掉OpenClaw太爽了,5美元就能养个AI打工人

狂揽4万星!换掉OpenClaw太爽了,5美元就能养个AI打工人

狂揽4万星!换掉OpenClaw太爽了,5美元就能养个AI打工人

每月5美刀,就能在你家服务器里养个AI打工人,无缝接入Telegram、Discord、Slack、飞书、企业微信等平台。它不仅能帮你干活,还会自己攒技能并反哺训练。网友直呼:换掉OpenClaw太爽了!

来自主题: AI资讯
6746 点击    2026-04-10 09:45
4步生图封神,GenEval从61%狂拉到92%,全面超越GPT-4o的TDM-R1模型来了

4步生图封神,GenEval从61%狂拉到92%,全面超越GPT-4o的TDM-R1模型来了

4步生图封神,GenEval从61%狂拉到92%,全面超越GPT-4o的TDM-R1模型来了

超快速 AI 生图领域再破性能天花板!香港科技大学唐靖团队、香港科技大学(深圳分校)胡天阳、小红书 hi-lab 罗维俭提出全新通用强化学习框架 TDM-R1,精准破解超快速扩散生成的核心痛点 —— 仅需 4 步采样(4 NFE),便将组合式生成指标 GenEval 从 61% 飙升至 92%,

来自主题: AI技术研报
9783 点击    2026-04-10 08:35
开源屠刀!400美元炼成「代码副脑」,硅谷天价模型成废铁

开源屠刀!400美元炼成「代码副脑」,硅谷天价模型成废铁

开源屠刀!400美元炼成「代码副脑」,硅谷天价模型成废铁

Claude Code这样私有的编程智能体虽然能力强大,但有着封闭、昂贵、难以定制的局限。艾伦研究院推出的Open Coding Agents,让你只需要400美元就能训练一个32B的专属编程智能体。

来自主题: AI资讯
6084 点击    2026-04-09 15:22
Mac用户可以在oMLX中使用TurboQuant了,搭配Gemma-4-31B,谷歌全家桶实测很能打!

Mac用户可以在oMLX中使用TurboQuant了,搭配Gemma-4-31B,谷歌全家桶实测很能打!

Mac用户可以在oMLX中使用TurboQuant了,搭配Gemma-4-31B,谷歌全家桶实测很能打!

对本地部署玩家,尤其是Mac用户来说,长上下文推理最大的痛点往往不是“模型不够聪明”,而是稍微多用点上下文,统一内存就被撑爆了”,这一点在最近的Gemma-4 31B的部署中尤为明显,在同等上下文的情况,显存占用比Qwen3.5-27B高约一倍不止,直接劝退了不少人。但好消息是,谷歌近期提出的TurboQuant KV缓存量化算法,正是为了解决这个痛点而生。

来自主题: AI技术研报
7890 点击    2026-04-09 09:47