AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
大模型智能体不止能写代码,还能被训练成白帽黑客

大模型智能体不止能写代码,还能被训练成白帽黑客

大模型智能体不止能写代码,还能被训练成白帽黑客

当人们还在惊叹大模型能写代码、能自动化办公时,它们正在悄然踏入一个更敏感、更危险的领域 —— 网络安全。

来自主题: AI技术研报
4589 点击    2025-09-12 11:36
告别错误累计与噪声干扰,EviNote-RAG 开启 RAG 新范式

告别错误累计与噪声干扰,EviNote-RAG 开启 RAG 新范式

告别错误累计与噪声干扰,EviNote-RAG 开启 RAG 新范式

在检索增强生成(RAG)飞速发展的当下,研究者们面临的最大困境并非「生成」,而是「稳定」。

来自主题: AI技术研报
6315 点击    2025-09-12 11:05
攻克AI过度思考难题!美团新研究让通过“可验证”过程奖励激活LRM的高效推理

攻克AI过度思考难题!美团新研究让通过“可验证”过程奖励激活LRM的高效推理

攻克AI过度思考难题!美团新研究让通过“可验证”过程奖励激活LRM的高效推理

LRM通过简单却有效的RLVR范式,培养了强大的CoT推理能力,但伴随而来的冗长的输出内容,不仅显著增加推理开销,还会影响服务的吞吐量,这种消磨用户耐心的现象被称为“过度思考”问题。

来自主题: AI技术研报
8047 点击    2025-09-12 10:47
你知道吗?相较于产生幻觉,LLM其实更会「说谎」|卡梅隆最新

你知道吗?相较于产生幻觉,LLM其实更会「说谎」|卡梅隆最新

你知道吗?相较于产生幻觉,LLM其实更会「说谎」|卡梅隆最新

幻觉并非什么神秘现象,而是现代语言模型训练和评估方式下必然的统计结果。它是一种无意的、因不确定而产生的错误。根据OpenAI9月4号论文的证明,模型产生幻觉(Hallucination),是一种系统性缺陷。

来自主题: AI技术研报
6628 点击    2025-09-12 10:41
万字追问:AI开始超越人类,我们如何处理新的「哥白尼创伤」?

万字追问:AI开始超越人类,我们如何处理新的「哥白尼创伤」?

万字追问:AI开始超越人类,我们如何处理新的「哥白尼创伤」?

唱衰人工智能不会带来更好的明天 —— 构建于人工智能之上的未来世界既非乌托邦,也非反乌托邦,而是充满无限奇幻可能的。

来自主题: AI技术研报
6300 点击    2025-09-12 10:26
全新MoE架构!阿里开源Qwen3-Next,训练成本直降9成

全新MoE架构!阿里开源Qwen3-Next,训练成本直降9成

全新MoE架构!阿里开源Qwen3-Next,训练成本直降9成

训练、推理性价比创新高。 大语言模型(LLM),正在进入 Next Level。 周五凌晨,阿里通义团队正式发布、开源了下一代基础模型架构 Qwen3-Next。总参数 80B 的模型仅激活 3B ,性能就可媲美千问 3 旗舰版 235B 模型,也超越了 Gemini-2.5-Flash-Thinking,实现了模型计算效率的重大突破。

来自主题: AI资讯
9237 点击    2025-09-12 10:10
AI胡说八道这事,终于有人管了?

AI胡说八道这事,终于有人管了?

AI胡说八道这事,终于有人管了?

想象一下,如果 ChatGPT 等 AI 大模型在生成的时候,能把自己不确定的地方都标记出来,你会不会对它们生成的答案放心很多?

来自主题: AI技术研报
8135 点击    2025-09-11 19:34