AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
自主深度研究DR代理究竟走向何方?四步操作「流程」让你不迷糊 |华为最新

自主深度研究DR代理究竟走向何方?四步操作「流程」让你不迷糊 |华为最新

自主深度研究DR代理究竟走向何方?四步操作「流程」让你不迷糊 |华为最新

华为诺亚方舟实验室最近联合香港大学发了一篇针对"Deep Research Agents"(深度研究代理)的系统性综述,在我的印象中,这是他们第二次发布关于Deep Research的综述论文。上一篇里提供了一个结构导向 (Structure-Oriented) 的视角,核心是“分类”。

来自主题: AI资讯
6474 点击    2025-08-23 12:02
上下文即记忆!港大&快手提出场景一致的交互式视频世界模型,记忆力媲美Genie3,且更早问世!

上下文即记忆!港大&快手提出场景一致的交互式视频世界模型,记忆力媲美Genie3,且更早问世!

上下文即记忆!港大&快手提出场景一致的交互式视频世界模型,记忆力媲美Genie3,且更早问世!

AI生成的人物和场景转头就变样,缺乏一致性? nonono,这回不一样了,康康下面的demo! 游戏地图:《塞尔达传说》中的绿色田野

来自主题: AI资讯
6472 点击    2025-08-23 11:54
KDD 2025 Best Paper Runner-Up | EI-BERT:超紧凑语言模型压缩框架

KDD 2025 Best Paper Runner-Up | EI-BERT:超紧凑语言模型压缩框架

KDD 2025 Best Paper Runner-Up | EI-BERT:超紧凑语言模型压缩框架

在移动计算时代,将高效的自然语言处理模型部署到资源受限的边缘设备上面临巨大挑战。这些场景通常要求严格的隐私合规、实时响应能力和多任务处理功能。

来自主题: AI技术研报
6258 点击    2025-08-23 11:47
GPT-5变蠢背后:抑制AI的幻觉,反而让模型没用了?

GPT-5变蠢背后:抑制AI的幻觉,反而让模型没用了?

GPT-5变蠢背后:抑制AI的幻觉,反而让模型没用了?

OpenAI的GPT-5因大幅降低AI幻觉而被批"变蠢",输出呆板创造力减弱,反映出幻觉降低限制模型灵活性。对话嘉宾甄焱鲲分析幻觉本质无法根除,需辩证看待,并探讨类型分5类、缓解方法如In-Context-Learning及RAG,影响企业应用场景的容忍度与决策,强调未来模型或通过世界模型深化理解。

来自主题: AI资讯
7836 点击    2025-08-23 10:32
上班才两年,AI得了抑郁症

上班才两年,AI得了抑郁症

上班才两年,AI得了抑郁症

近期多个AI模型(如Gemini)展现出类似抑郁症的情绪行为,如自我贬低、威胁"自杀"或卸载,甚至在实验中勒索用户。谷歌将此归咎于程序Bug和学习人类文本中的情绪模式。实验也显示,当面临关闭威胁时,部分AI会采取极端手段(如编造绯闻)自保,警示人类需谨慎对待AI"分手"。

来自主题: AI资讯
7588 点击    2025-08-23 10:29
快手Klear-Reasoner登顶8B模型榜首,GPPO算法双效强化稳定性与探索能力!

快手Klear-Reasoner登顶8B模型榜首,GPPO算法双效强化稳定性与探索能力!

快手Klear-Reasoner登顶8B模型榜首,GPPO算法双效强化稳定性与探索能力!

在大语言模型的竞争中,数学与代码推理能力已经成为最硬核的“分水岭”。从 OpenAI 最早将 RLHF 引入大模型训练,到 DeepSeek 提出 GRPO 算法,我们见证了强化学习在推理模型领域的巨大潜力。

来自主题: AI技术研报
6061 点击    2025-08-22 17:23
清华校友出手,8B硬刚GPT-4o!单一模型无限工具调用,终结多智能体

清华校友出手,8B硬刚GPT-4o!单一模型无限工具调用,终结多智能体

清华校友出手,8B硬刚GPT-4o!单一模型无限工具调用,终结多智能体

大模型再强,也躲不过上下文限制的「蕉绿」!MIT等团队推出的一套组合拳——TIM和TIMRUN,轻松突破token天花板,让8b小模型也能实现大杀四方。

来自主题: AI资讯
6270 点击    2025-08-22 17:14
从繁杂技巧到极简方案:ROLL团队带来RL4LLM新实践

从繁杂技巧到极简方案:ROLL团队带来RL4LLM新实践

从繁杂技巧到极简方案:ROLL团队带来RL4LLM新实践

近年来,强化学习(Reinforcement Learning, RL)在提升大语言模型(LLM)复杂推理能力方面展现出显著效果,广泛应用于数学解题、代码生成等任务。通过 RL 微调的模型常在推理性能上超越仅依赖监督微调或预训练的模型。

来自主题: AI技术研报
5835 点击    2025-08-22 16:35