AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
魔法原子进军硅谷背后:世界模型野望与生态卡位

魔法原子进军硅谷背后:世界模型野望与生态卡位

魔法原子进军硅谷背后:世界模型野望与生态卡位

魔法原子在会上推出了新一代人形机器人 MagicBot X1 和灵巧手 MagicHand H01,而且第一次把其世界模型 Magic-Mix、数据生成与训练反馈闭环,作为一套完整的具身智能底层能力集中展示出来。

来自主题: AI资讯
7459 点击    2026-05-01 11:09
GPT Image 2研究科学家陈博远:我在OpenAI修中文

GPT Image 2研究科学家陈博远:我在OpenAI修中文

GPT Image 2研究科学家陈博远:我在OpenAI修中文

GPT Image 2的发布给整个AI圈带来了亿点点震撼。但很多人可能没注意到,幕后最会玩梗的居然是他——主力训练者陈博远。他和奥特曼同台主持,悄悄修好了中文渲染;给模型起代号“布基胶带”,还拿香蕉艺术品玩梗;为了秀模型的文字能力,设计了米粒刻字、漫画套娃、视觉证明题这些“彩蛋级”测试。

来自主题: AI资讯
7937 点击    2026-05-01 11:07
终结多智能体视觉幻觉“滚雪球”!新国立等提出ViF:无需改造模型,即插即用

终结多智能体视觉幻觉“滚雪球”!新国立等提出ViF:无需改造模型,即插即用

终结多智能体视觉幻觉“滚雪球”!新国立等提出ViF:无需改造模型,即插即用

基于视觉语言模型(VLM)的多智能体系统(MAS)正成为复杂多模态协作的核心方案,却被一个致命痛点死死卡住:多智能体视觉幻觉滚雪球——单个智能体的视觉误判通过纯文本信息流逐级放大,早期细微错误最终演变成系统性崩溃。

来自主题: AI技术研报
7333 点击    2026-05-01 10:46
大模型“降智”真相,找到了

大模型“降智”真相,找到了

大模型“降智”真相,找到了

今天,智谱发布了一篇名为《Scaling Pain:超大规模Coding Agent推理实践》的技术报告,披露了GLM-5系列模型在Coding Agent场景下遇到的推理基础设施挑战与对应解法。

来自主题: AI技术研报
9399 点击    2026-04-30 13:52
Generalist之后,罗剑岚团队推出LWD,也要变革具身智能训练范式

Generalist之后,罗剑岚团队推出LWD,也要变革具身智能训练范式

Generalist之后,罗剑岚团队推出LWD,也要变革具身智能训练范式

智元机器人的办公室里,最近员工们一上班就能看到机器人熟练地切着水果:这么全面的能力是如何做到的?答案是直接在真实环境中搞大规模分布式强化学习训练。它们使用的是全新的具身智能训练范式:面向通用机器人策略的分布式多机强化学习(LWD)。这一套技术捅破了当前VLA的「天花板」。

来自主题: AI技术研报
6435 点击    2026-04-30 13:52
2025 年我国用于人工智能训练和推理的数据总量达 199.48EB,同比增长 42.86%

2025 年我国用于人工智能训练和推理的数据总量达 199.48EB,同比增长 42.86%

2025 年我国用于人工智能训练和推理的数据总量达 199.48EB,同比增长 42.86%

据央视新闻报道,今天,《全国数据资源调查报告(2025 年)》在第九届数字中国建设峰会上发布。报告显示,2025 年,全国数据生产总量同比增长 27.28%,达到 52.26ZB(ZettaByte,泽字节 | 1ZB=1024EB),这相当于全国所有算力中心存储容量的近 30 倍。从国际来看,我国数据生产总量占全球的 27.44%。

来自主题: AI技术研报
8612 点击    2026-04-30 12:50
ACL 2026|答得更准还写得更短?华为泰勒实验室提出SHAPE,给LLM推理装了个「推理税」

ACL 2026|答得更准还写得更短?华为泰勒实验室提出SHAPE,给LLM推理装了个「推理税」

ACL 2026|答得更准还写得更短?华为泰勒实验室提出SHAPE,给LLM推理装了个「推理税」

来自华为泰勒实验室、北京大学和上海财经大学的研究团队提出了 SHAPE(Stage-aware Hierarchical Advantage via Potential Estimation),给推理链装上了一套「里程碑 + 推理税」机制——不仅告诉模型每一步推得对不对,还让它为啰嗦付出代价。结果是:准确率平均提升 3%,token 消耗直降 30%。

来自主题: AI技术研报
7855 点击    2026-04-30 12:12
ACL 2026|Doc-V*:读100页文档不如只翻对5页,80页场景「暴打」RAG 10个点

ACL 2026|Doc-V*:读100页文档不如只翻对5页,80页场景「暴打」RAG 10个点

ACL 2026|Doc-V*:读100页文档不如只翻对5页,80页场景「暴打」RAG 10个点

Doc-V* 由小米大模型 Plus 团队和华中科技大学 VLRLab 团队合作提出,一种从「静态阅读」到「主动探索」的多页文档理解新范式,通过交互式视觉推理让模型像人一样有策略地阅读长文档。

来自主题: AI技术研报
8433 点击    2026-04-30 09:00
openJiuwen社区首发「Coordination Enginnering」,让智能体从「单兵作战」到「精锐团队」

openJiuwen社区首发「Coordination Enginnering」,让智能体从「单兵作战」到「精锐团队」

openJiuwen社区首发「Coordination Enginnering」,让智能体从「单兵作战」到「精锐团队」

围绕 Coordination Engineering 这一下一跳工程范式,他们发布了一套完整的多智能体协同技术体系:Agent Team 实现团队自主协作,业界首发 Team Skills 沉淀协作经验,Team Skills Hub 打通共享生态,Team Skills 自演进 驱动团队持续进化。

来自主题: AI资讯
7320 点击    2026-04-30 08:42
10万引普林斯顿刘壮最新访谈:架构没那么重要,数据才是王道

10万引普林斯顿刘壮最新访谈:架构没那么重要,数据才是王道

10万引普林斯顿刘壮最新访谈:架构没那么重要,数据才是王道

普林斯顿大学助理教授刘壮,在学术圈是一个颇为特殊的存在——他的每一篇论文几乎都在质疑某个“理所当然”的假设。架构真的重要吗?数据集真的足够多样吗?归一化层是必需的吗?大语言模型有世界模型吗?AI智能体能替代博士生吗?

来自主题: AI技术研报
8605 点击    2026-04-30 08:39