AI资讯新闻榜单内容搜索-预训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 预训练
从少样本到千样本!MachineLearningLM给大模型上下文学习装上「机器学习引擎」

从少样本到千样本!MachineLearningLM给大模型上下文学习装上「机器学习引擎」

从少样本到千样本!MachineLearningLM给大模型上下文学习装上「机器学习引擎」

这项名为 MachineLearningLM 的新研究突破了这一瓶颈。该研究提出了一种轻量且可移植的「继续预训练」框架,无需下游微调即可直接通过上下文学习上千条示例,在金融、健康、生物信息、物理等等多个领域的二分类 / 多分类任务中的准确率显著超越基准模型(Qwen-2.5-7B-Instruct)以及最新发布的 GPT-5-mini。

来自主题: AI技术研报
6993 点击    2025-09-17 09:30
OpenVision 2:大道至简的生成式预训练视觉编码器

OpenVision 2:大道至简的生成式预训练视觉编码器

OpenVision 2:大道至简的生成式预训练视觉编码器

本文来自加州大学圣克鲁兹分校(UCSC)、苹果公司(Apple)与加州大学伯克利分校(UCB)的合作研究。第一作者刘彦青,本科毕业于浙江大学,现为UCSC博士生,研究方向包括多模态理解、视觉-语言预训

来自主题: AI技术研报
4782 点击    2025-09-16 09:37
斯坦福:优化器「诸神之战」?AdamW 凭「稳定」胜出

斯坦福:优化器「诸神之战」?AdamW 凭「稳定」胜出

斯坦福:优化器「诸神之战」?AdamW 凭「稳定」胜出

自2014 年提出以来,Adam 及其改进版 AdamW 长期占据开放权重语言模型预训练的主导地位,帮助模型在海量数据下保持稳定并实现较快收敛。

来自主题: AI技术研报
6677 点击    2025-09-08 16:18
具身VLA后训练:TeleAI提出潜空间引导的VLA跨本体泛化方法

具身VLA后训练:TeleAI提出潜空间引导的VLA跨本体泛化方法

具身VLA后训练:TeleAI提出潜空间引导的VLA跨本体泛化方法

在多模态大模型的基座上,视觉 - 语言 - 动作(Visual-Language-Action, VLA)模型使用大量机器人操作数据进行预训练,有望实现通用的具身操作能力。

来自主题: AI技术研报
5210 点击    2025-09-08 15:20
SceneSplat: 基于3DGS的场景理解和视觉语言预训练,让3D高斯「听懂人话」的一跃

SceneSplat: 基于3DGS的场景理解和视觉语言预训练,让3D高斯「听懂人话」的一跃

SceneSplat: 基于3DGS的场景理解和视觉语言预训练,让3D高斯「听懂人话」的一跃

开放词汇识别与分类对于全面理解现实世界的 3D 场景至关重要。目前,所有现有方法在训练或推理过程中都依赖于 2D 或文本模态。这凸显出缺乏能够单独处理 3D 数据以进行端到端语义学习的模型,以及训练此类模型所需的数据。与此同时,3DGS 已成为各种视觉任务中 3D 场景表达的重要标准之一。

来自主题: AI技术研报
5162 点击    2025-09-08 10:01
震撼实锤!清华姚班校友揭「1.4×加速」陷阱:AI优化器为何名不符实?

震撼实锤!清华姚班校友揭「1.4×加速」陷阱:AI优化器为何名不符实?

震撼实锤!清华姚班校友揭「1.4×加速」陷阱:AI优化器为何名不符实?

为了降低大模型预训练成本,最近两年,出现了很多新的优化器,声称能相比较AdamW,将预训练加速1.4×到2×。但斯坦福的一项研究,指出不仅新优化器的加速低于宣称值,而且会随模型规模的增大而减弱,该研究证实了严格基准评测的必要性。

来自主题: AI技术研报
7128 点击    2025-09-07 12:03
ICCV 2025 | 基于时序增强关系敏感知识迁移的弱监督动态场景图生成

ICCV 2025 | 基于时序增强关系敏感知识迁移的弱监督动态场景图生成

ICCV 2025 | 基于时序增强关系敏感知识迁移的弱监督动态场景图生成

本文主要介绍来自该团队的最新论文:TRKT,该任务针对弱监督动态场景图任务展开研究,发现目前的性能瓶颈在场景中目标检测的质量,因为外部预训练的目标检测器在需要考虑关系信息和时序上下文的场景图视频数据上检测结果欠佳。

来自主题: AI技术研报
6772 点击    2025-09-05 11:18
苹果最新模型,5年前的iPhone能跑

苹果最新模型,5年前的iPhone能跑

苹果最新模型,5年前的iPhone能跑

智东西9月1日消息,苹果又公布了大模型研发新进展! 8月28日,苹果在arXiv发布新论文,介绍新一代多模态基础模型MobileCLIP2及其背后的多模态强化训练机制,同天在GitHub、Hugging Face上开源了模型的预训练权重和数据生成代码。

来自主题: AI技术研报
6093 点击    2025-09-02 11:04
DeepSeek刚提到FP8,英伟达就把FP4精度推向预训练,更快、更便宜

DeepSeek刚提到FP8,英伟达就把FP4精度推向预训练,更快、更便宜

DeepSeek刚提到FP8,英伟达就把FP4精度推向预训练,更快、更便宜

前些天,DeepSeek 在发布 DeepSeek V3.1 的文章评论区中,提及了 UE8M0 FP8 的量化设计,声称是针对即将发布的下一代国产芯片设计。

来自主题: AI资讯
7005 点击    2025-08-28 15:40
刚刚,英伟达新模型上线!4B推理狂飙53倍,全新注意力架构超越Mamba 2

刚刚,英伟达新模型上线!4B推理狂飙53倍,全新注意力架构超越Mamba 2

刚刚,英伟达新模型上线!4B推理狂飙53倍,全新注意力架构超越Mamba 2

Jet-Nemotron是英伟达最新推出的小模型系列(2B/4B),由全华人团队打造。其核心创新在于提出后神经架构搜索(PostNAS)与新型线性注意力模块JetBlock,实现了从预训练Transformer出发的高效架构优化。

来自主题: AI技术研报
6612 点击    2025-08-26 19:34