AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
56倍加速生成式策略:西交大提出EfficientFlow,迈向高效具身智能

56倍加速生成式策略:西交大提出EfficientFlow,迈向高效具身智能

56倍加速生成式策略:西交大提出EfficientFlow,迈向高效具身智能

生成式模型正在成为机器人和具身智能领域的重要范式,它能够从高维视觉观测中直接生成复杂、灵活的动作策略,在操作、抓取等任务中表现亮眼。但在真实系统中,这类方法仍面临两大「硬伤」:一是训练极度依赖大规模演示数据,二是推理阶段需要大量迭代,动作生成太慢,难以实时控制。

来自主题: AI技术研报
5353 点击    2025-12-17 09:55
浙大联手字节:开源大规模指令跟随视频编辑数据集OpenVE-3M

浙大联手字节:开源大规模指令跟随视频编辑数据集OpenVE-3M

浙大联手字节:开源大规模指令跟随视频编辑数据集OpenVE-3M

作者提出了一个大规模、高质量、多类别的指令跟随的视频编辑数据集 OpenVE-3M,共包含 3M 样本对,分为空间对齐和非空间对齐 2 大类别共 8 小类别。

来自主题: AI技术研报
6787 点击    2025-12-17 09:22
AI Agent最新「Memory」综述 |多所顶尖机构联合发布

AI Agent最新「Memory」综述 |多所顶尖机构联合发布

AI Agent最新「Memory」综述 |多所顶尖机构联合发布

就在昨天,新加坡国立大学、中国人民大学、复旦大学等多所顶尖机构联合发布了一篇AI Agent 记忆(Memory)综述。

来自主题: AI技术研报
7501 点击    2025-12-17 09:21
OpenAI最强产品负责人:AGI限制在于人,不在LLM!Codex已能待命自我训练,曝内部压缩机制,18天3人上线安卓Sora

OpenAI最强产品负责人:AGI限制在于人,不在LLM!Codex已能待命自我训练,曝内部压缩机制,18天3人上线安卓Sora

OpenAI最强产品负责人:AGI限制在于人,不在LLM!Codex已能待命自我训练,曝内部压缩机制,18天3人上线安卓Sora

从 0 到上线,在OpenAI内部,安卓版 Sora经历的时间只有 28 天,而且期间只用了 2-3 名员工。

来自主题: AI资讯
6904 点击    2025-12-16 16:30
让扩散模型「可解释」不再降质,开启图片编辑新思路

让扩散模型「可解释」不再降质,开启图片编辑新思路

让扩散模型「可解释」不再降质,开启图片编辑新思路

过去三年,扩散模型席卷图像生成领域。以 DiT (Diffusion Transformer) 为代表的新一代架构不断刷新图像质量的极限,让模型愈发接近真实世界的视觉规律。

来自主题: AI技术研报
7182 点击    2025-12-16 16:27
医疗AI迎来大考!南洋理工发布首个LLM电子病历处理评测 | AAAI'26

医疗AI迎来大考!南洋理工发布首个LLM电子病历处理评测 | AAAI'26

医疗AI迎来大考!南洋理工发布首个LLM电子病历处理评测 | AAAI'26

南洋理工大学研究人员构建了EHRStruct基准,用于评测LLM处理结构化电子病历的能力。该基准涵盖11项核心任务,包含2200个样本,按临床场景、认知层级和功能类别组织。研究发现通用大模型优于医学专用模型,数据驱动任务表现更强,输入格式和微调方式对性能有显著影响。

来自主题: AI技术研报
9663 点击    2025-12-16 16:27
打脸哲学无用!牛津博士教出Claude,自曝百万年薪提示词秘诀

打脸哲学无用!牛津博士教出Claude,自曝百万年薪提示词秘诀

打脸哲学无用!牛津博士教出Claude,自曝百万年薪提示词秘诀

在Anthropic,有一位驻场哲学家Amanda Askell专门研究如何与AI模型打交道。她不仅主导设计了Claude的性格、对齐与价值观机制,还总结出一些行之有效的提示词技巧。哲学在AI时代不仅没有落伍,反而那些通过哲学训练掌握提示词技巧的人,年薪中位数可以高达15万美元。

来自主题: AI资讯
6486 点击    2025-12-16 14:40
Veo何止生成视频:DeepMind正在用它模拟整个机器人世界

Veo何止生成视频:DeepMind正在用它模拟整个机器人世界

Veo何止生成视频:DeepMind正在用它模拟整个机器人世界

随着通用型(Generalist)机器人策略的发展,机器人能够通过自然语言指令在多种环境中完成各类任务,但这也带来了显著的挑战。

来自主题: AI技术研报
9680 点击    2025-12-16 14:39