AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
奖励模型变天!0.005%参数量推理速度翻倍,性能还更强

奖励模型变天!0.005%参数量推理速度翻倍,性能还更强

奖励模型变天!0.005%参数量推理速度翻倍,性能还更强

最新奖励模型SWIFT直接利用模型生成过程中的隐藏状态,参数规模极小,仅占传统模型的不到0.005%。SWIFT在多个基准测试中表现优异,推理速度提升1.7×–6.7×,且在对齐评估中稳定可靠,展现出高效、通用的奖励建模新范式。

来自主题: AI技术研报
7035 点击    2026-01-23 15:17
AAAI'26 Oral:小样本对齐人类认知,LLM不再模仿答案

AAAI'26 Oral:小样本对齐人类认知,LLM不再模仿答案

AAAI'26 Oral:小样本对齐人类认知,LLM不再模仿答案

GEM框架利用认知科学原理,从少量人类偏好中提取多维认知评估,让AI在极少标注下精准理解人类思维,提高了数据效率,在医疗等专业领域表现优异,为AI与人类偏好对齐提供新思路。

来自主题: AI技术研报
9383 点击    2026-01-23 10:14
视频理解+开放网络搜索=首个视频Deep Research评测基准

视频理解+开放网络搜索=首个视频Deep Research评测基准

视频理解+开放网络搜索=首个视频Deep Research评测基准

现有的多模态模型往往被困在「视频」的孤岛里——它们只能回答视频内的问题。但在真实世界中,人类解决问题往往是「看视频找线索 -> 上网搜证 -> 综合推理」。

来自主题: AI技术研报
10646 点击    2026-01-22 16:10
非Transformer架构的新突破,Liquid AI开源LFM2.5-1.2B-Thinking模型

非Transformer架构的新突破,Liquid AI开源LFM2.5-1.2B-Thinking模型

非Transformer架构的新突破,Liquid AI开源LFM2.5-1.2B-Thinking模型

就在刚刚,Liquid AI 又一次在 LFM 模型上放大招。他们正式发布并开源了 LFM2.5-1.2B-Thinking,一款可完全在端侧运行的推理模型。Liquid AI 声称,该模型专门为简洁推理而训练;在生成最终答案前,会先生成内部思考轨迹;在端侧级别的低延迟条件下,实现系统化的问题求解;在工具使用、数学推理和指令遵循方面表现尤为出色。

来自主题: AI资讯
11464 点击    2026-01-22 11:59
AI for Science开年新突破:中科大实现多尺度结构逆向设计128倍加速,登上Nature子刊

AI for Science开年新突破:中科大实现多尺度结构逆向设计128倍加速,登上Nature子刊

AI for Science开年新突破:中科大实现多尺度结构逆向设计128倍加速,登上Nature子刊

近日,中国科学技术大学(USTC)联合新疆师范大学、中关村人工智能研究院、香港理工大学,在数据驱动的多功能双连通多尺度结构逆向设计领域取得重要突破。

来自主题: AI技术研报
7545 点击    2026-01-22 10:12
AI用3年时光,来了解你!首个AI Clone长期记忆基准

AI用3年时光,来了解你!首个AI Clone长期记忆基准

AI用3年时光,来了解你!首个AI Clone长期记忆基准

现有AI记忆评测存在局限,如数据源单一、忽视变化本质、注入成本高等。CloneMem通过层次化生成框架构建合成人生,设计贴近真实场景的评测任务,涵盖多种问题类型。

来自主题: AI技术研报
10490 点击    2026-01-22 10:11