AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
人类遗忘的难题解法,被GPT-5重新找出来了

人类遗忘的难题解法,被GPT-5重新找出来了

人类遗忘的难题解法,被GPT-5重新找出来了

人类遗忘的难题解法,被GPT-5 Pro重新找出来了!这事儿聚焦于埃尔德什问题#339,这是著名数学家保罗・埃尔德什提出或转述的近千道问题之一,收录于erdosproblems.com网站。该网站记录了每道题目的当前状态,其中约三分之一已解决,大部分仍待解。

来自主题: AI资讯
5838 点击    2025-10-14 13:17
剑桥揭开大模型翻车黑箱!别再怪它不懂推理,是行动出错了

剑桥揭开大模型翻车黑箱!别再怪它不懂推理,是行动出错了

剑桥揭开大模型翻车黑箱!别再怪它不懂推理,是行动出错了

为什么大模型,在执行长时任务时容易翻车?这让一些专家,开始质疑大模型的推理能力,认为它们是否只是提供了「思考的幻觉」。近日,剑桥大学等机构的一项研究证明:问题不是出现在推理上,而是出在大模型的执行能力上。

来自主题: AI技术研报
6923 点击    2025-10-14 11:10
真正的AI竞争力,藏在大模型“后训练”这一步

真正的AI竞争力,藏在大模型“后训练”这一步

真正的AI竞争力,藏在大模型“后训练”这一步

当全球的目光还在聚焦基座模型的参数竞赛时,一场更为深刻的变革正在悄然发生——后训练(Post-Training)。

来自主题: AI技术研报
7069 点击    2025-10-14 10:16
Being-VL的视觉BPE路线:把「看」和「说」真正统一起来

Being-VL的视觉BPE路线:把「看」和「说」真正统一起来

Being-VL的视觉BPE路线:把「看」和「说」真正统一起来

为此,北大、UC San Diego 和 BeingBeyond 联合提出一种新的方法——Being-VL 的视觉 BPE 路线。Being-VL 的出发点是把这一步后置:先在纯自监督、无 language condition 的设定下,把图像离散化并「分词」,再与文本在同一词表、同一序列中由同一 Transformer 统一建模,从源头缩短跨模态链路并保留视觉结构先验。

来自主题: AI技术研报
6667 点击    2025-10-14 09:58
告别「解码器饥饿」!中国科学院NeurIPS推SpaceServe,高并发克星

告别「解码器饥饿」!中国科学院NeurIPS推SpaceServe,高并发克星

告别「解码器饥饿」!中国科学院NeurIPS推SpaceServe,高并发克星

在中国科学院计算技术研究所入选NeurIPS 2025的新论文中,提出了SpaceServe的突破性架构,首次将LLM推理中的P/D分离扩展至多模态场景,通过EPD三阶解耦与「空分复用」,系统性地解决了MLLM推理中的行头阻塞难题。

来自主题: AI技术研报
7222 点击    2025-10-13 16:08
ICLR 2026惊现SAM 3,分割一切的下一步:让模型理解「概念」

ICLR 2026惊现SAM 3,分割一切的下一步:让模型理解「概念」

ICLR 2026惊现SAM 3,分割一切的下一步:让模型理解「概念」

说出概念,SAM 3 就明白你在说什么,并在所有出现的位置精确描绘出边界。 Meta 的「分割一切」再上新? 9 月 12 日,一篇匿名论文「SAM 3: SEGMENT ANYTHING WITH CONCEPTS」登陆 ICLR 2026,引发网友广泛关注。

来自主题: AI技术研报
5567 点击    2025-10-13 16:03
Bug变奖励:AI的小失误,揭开创造力真相!

Bug变奖励:AI的小失误,揭开创造力真相!

Bug变奖励:AI的小失误,揭开创造力真相!

扩散模型本该只是复制机器,却一次次画出「六指人像」甚至是陌生场景。最新研究发现,AI的「创造力」其实是架构里的副作用。有学者大胆推测人类的灵感或许也是如此。当灵感成了固定公式,人类和AI的差别还有多少?

来自主题: AI技术研报
5654 点击    2025-10-13 15:53
为MoE解绑:全新「专家即服务」推理架构发布,超细粒度扩展锐减37.5%成本

为MoE解绑:全新「专家即服务」推理架构发布,超细粒度扩展锐减37.5%成本

为MoE解绑:全新「专家即服务」推理架构发布,超细粒度扩展锐减37.5%成本

近年来,大型语言模型的参数规模屡创新高,随之而来的推理开销也呈指数级增长。如何降低超大模型的推理成本,成为业界关注的焦点之一。Mixture-of-Experts (MoE,混合专家) 架构通过引入大量 “专家” 子模型,让每个输入仅激活少数专家,从而在参数规模激增的同时避免推理计算量同比增长。

来自主题: AI技术研报
7401 点击    2025-10-13 15:49
腾讯开源强化学习新算法!让智能体无需专家示范就“自学成才”,还即插即用零成本接入

腾讯开源强化学习新算法!让智能体无需专家示范就“自学成才”,还即插即用零成本接入

腾讯开源强化学习新算法!让智能体无需专家示范就“自学成才”,还即插即用零成本接入

让智能体自己摸索新方法,还模仿自己的成功经验。腾讯优图实验室开源强化学习算法——SPEAR(Self-imitation with Progressive Exploration for Agentic Reinforcement Learning)。

来自主题: AI技术研报
6507 点击    2025-10-13 15:45