AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
拆解AI黑箱,深度解读“机制可解释性”|2026年十大突破性技术

拆解AI黑箱,深度解读“机制可解释性”|2026年十大突破性技术

拆解AI黑箱,深度解读“机制可解释性”|2026年十大突破性技术

现在,我们越来越多地将大语言模型应用于搜索、编程、内容生成和决策辅助等现实场景中。尽管每天有数百万人使用大模型,但它的问题也随之而来,例如有时会产生幻觉,甚至在特定情境下表现出误导或欺骗用户的倾向。

来自主题: AI资讯
8305 点击    2026-01-13 16:09
引入几何约束后,VLM跨越了「空间推理」的认知鸿沟

引入几何约束后,VLM跨越了「空间推理」的认知鸿沟

引入几何约束后,VLM跨越了「空间推理」的认知鸿沟

现有的视觉大模型普遍存在「语义-几何鸿沟」(Semantic-to-Geometric Gap),不仅分不清东南西北,更难以处理精确的空间量化任务。例如问「你坐在沙发上时,餐桌在你的哪一侧?」,VLM 常常答错。

来自主题: AI技术研报
5937 点击    2026-01-13 10:20
Skills的容量上限在哪里?2026单Skills组合还是多Agent好?|UCB最新

Skills的容量上限在哪里?2026单Skills组合还是多Agent好?|UCB最新

Skills的容量上限在哪里?2026单Skills组合还是多Agent好?|UCB最新

在文章开始前,请您先打开Claude code,输入/skill,检查一下您的Claude code有多少个skills?是20个?50个?还是已经突破了100个?自从Anthropic推广Agent Skills以来,我们都爱上了这种“即插即用”的模块化体验。它把臃肿的多智能体编排(MAS)变成了一组优雅的Markdown文件调用,让API账单和延迟同时暴跌了50%以上。

来自主题: AI技术研报
10043 点击    2026-01-13 09:09
不会做RAG、agent的本地数据管理?都来学Claude Code!附深度拆解

不会做RAG、agent的本地数据管理?都来学Claude Code!附深度拆解

不会做RAG、agent的本地数据管理?都来学Claude Code!附深度拆解

企业级场景中,无论是做RAG还是agent,我们都会面临一个问题:出于数据隐私以及合规要求,数据必须保留在本地。但传统的本地存储方案往往存在数据隔离性差、崩溃易丢数据、配置管理混乱、操作不可撤销等问题。

来自主题: AI技术研报
8613 点击    2026-01-13 09:07
2026年,大模型训练的下半场属于「强化学习云」

2026年,大模型训练的下半场属于「强化学习云」

2026年,大模型训练的下半场属于「强化学习云」

2024 年底,硅谷和北京的茶水间里都在讨论同一个令人不安的话题:Scaling Law 似乎正在撞墙。

来自主题: AI技术研报
8664 点击    2026-01-12 15:13
AAAI 2026 Oral|快手提出全新「检索数据引擎」CroPS,打破搜索信息茧房

AAAI 2026 Oral|快手提出全新「检索数据引擎」CroPS,打破搜索信息茧房

AAAI 2026 Oral|快手提出全新「检索数据引擎」CroPS,打破搜索信息茧房

短视频搜索业务是向量检索在工业界最核心的应用场景之一。然而,当前业界普遍采用的「自强化」训练范式过度依赖历史点击数据,导致系统陷入信息茧房,难以召回潜在相关的新鲜内容。

来自主题: AI技术研报
5509 点击    2026-01-12 14:08
顶尖AI竟输给三岁宝宝,BabyVision测试暴露多模态模型硬伤

顶尖AI竟输给三岁宝宝,BabyVision测试暴露多模态模型硬伤

顶尖AI竟输给三岁宝宝,BabyVision测试暴露多模态模型硬伤

过去一年,大模型在语言与文本推理上突飞猛进:论文能写、难题能解、甚至在顶级学术 / 竞赛类题目上屡屡刷新上限。但一个更关键的问题是:当问题不再能 “用语言说清楚” 时,模型还能不能 “看懂”?

来自主题: AI技术研报
9532 点击    2026-01-12 14:07
Sakana让AI互相「猎杀」,而它们开始了趋同进化

Sakana让AI互相「猎杀」,而它们开始了趋同进化

Sakana让AI互相「猎杀」,而它们开始了趋同进化

想象一下,一群 AI 程序在一台虚拟计算机里相互猎杀,目标只有一个:生存。

来自主题: AI技术研报
10349 点击    2026-01-12 10:32