AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
Feed-Forward 3D综述:三维视觉如何「一步到位」

Feed-Forward 3D综述:三维视觉如何「一步到位」

Feed-Forward 3D综述:三维视觉如何「一步到位」

在 3D 视觉领域,如何从二维图像快速、精准地恢复三维世界,一直是计算机视觉与计算机图形学最核心的问题之一。从早期的 Structure-from-Motion (SfM) 到 Neural Radiance Fields (NeRF),再到 3D Gaussian Splatting (3DGS),技术的演进让我们离实时、通用的 3D 理解越来越近。

来自主题: AI技术研报
5937 点击    2025-11-07 10:15
只用国产GPU训练的大模型性能飙升100%!国内唯一,更懂你

只用国产GPU训练的大模型性能飙升100%!国内唯一,更懂你

只用国产GPU训练的大模型性能飙升100%!国内唯一,更懂你

刚刚,唯一全国产算力训出的大模型重磅升级,推理效率飙升100%,数学能力国际领先。当全球巨头还在云端「卷」算法时,中国队则亮出了软硬一体这一截然不同的底牌。

来自主题: AI资讯
8498 点击    2025-11-07 10:14
机械手真正「活」了,银河通用&清华推出DexNDM,用神经动力学重塑灵巧操作

机械手真正「活」了,银河通用&清华推出DexNDM,用神经动力学重塑灵巧操作

机械手真正「活」了,银河通用&清华推出DexNDM,用神经动力学重塑灵巧操作

机器人使用灵巧手帮人类在工厂里拧螺丝,在家里切菜做饭的一天何时可以到来?为了实现这一愿景,旨在解决灵巧操作技能 sim-to-real 难题的 DexNDM 应运而生。

来自主题: AI技术研报
6399 点击    2025-11-06 15:01
距离觉醒意识,人工智能还差一具肉身?

距离觉醒意识,人工智能还差一具肉身?

距离觉醒意识,人工智能还差一具肉身?

当AI能写诗、能编程,甚至能和你争论哲学,它会不会真的“有感觉”?它会不会像你一样,体验到红色的炙热或痛苦的尖锐?

来自主题: AI技术研报
5486 点击    2025-11-06 15:00
扩展外部测试时Scaling Law,中关村学院新发现:轻量级验证器可解锁LLM推理最优选择

扩展外部测试时Scaling Law,中关村学院新发现:轻量级验证器可解锁LLM推理最优选择

扩展外部测试时Scaling Law,中关村学院新发现:轻量级验证器可解锁LLM推理最优选择

在大语言模型(LLM)席卷各类复杂任务的今天,“测试时扩展”(Test-Time Scaling,TTS)已成为提升模型推理能力的核心思路 —— 简单来说,就是在模型 “答题” 时分配更多的计算资源来让它表现更好。严格来说,Test-Time Scaling 分成两类:

来自主题: AI技术研报
7070 点击    2025-11-06 14:59
英国首例AI训练判决!Stability AI大战Getty Images,双方均宣称胜诉

英国首例AI训练判决!Stability AI大战Getty Images,双方均宣称胜诉

英国首例AI训练判决!Stability AI大战Getty Images,双方均宣称胜诉

2025年11月4日,一家总部位于英国伦敦的人工智能公司Stability AI,赢得了一项具有里程碑意义的高等法院案件,该案审查了人工智能模型在未经许可的情况下使用大量受版权保护数据的合法性。而本案的原告,Getty Images 在针对人工智能公司 Stability AI 图像生成产品的英国诉讼中基本败诉。

来自主题: AI监管政策
7870 点击    2025-11-06 11:38
大模型不擅长点鼠标?中科院团队打造AI专属交互界面,任务成功率提升67%

大模型不擅长点鼠标?中科院团队打造AI专属交互界面,任务成功率提升67%

大模型不擅长点鼠标?中科院团队打造AI专属交互界面,任务成功率提升67%

在日常使用电脑时,看着屏幕、点击鼠标是再自然不过的基本操作。但这种对人类明明很容易的操作方式,却成为 AI 的巨大挑战:它们视力差、动作慢、不擅长看也不擅长点。

来自主题: AI技术研报
5497 点击    2025-11-06 10:32
NeurIPS 2025 Spotlight | 你刷到的视频是真的么?用物理规律拆穿Sora谎言

NeurIPS 2025 Spotlight | 你刷到的视频是真的么?用物理规律拆穿Sora谎言

NeurIPS 2025 Spotlight | 你刷到的视频是真的么?用物理规律拆穿Sora谎言

随着生成式 AI(如 Sora)的发展,合成视频几乎可以以假乱真,带来了深度伪造与虚假信息传播的风险。现有检测方法多依赖表层伪影或数据驱动学习,难以在高质量生成视频中保持较好的泛化能力。其根本原因在于,这些方法大都未能充分利用自然视频所遵循的物理规律,挖掘自然视频的更本质的特征。

来自主题: AI技术研报
8456 点击    2025-11-06 09:39