AI资讯新闻榜单内容搜索-鲁棒性

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 鲁棒性
抗干扰能力提升近40% !无需对抗训练,北航上海AI Lab新蒸馏方法提升模型鲁棒性 | ICML 2025

抗干扰能力提升近40% !无需对抗训练,北航上海AI Lab新蒸馏方法提升模型鲁棒性 | ICML 2025

抗干扰能力提升近40% !无需对抗训练,北航上海AI Lab新蒸馏方法提升模型鲁棒性 | ICML 2025

在人工智能模型规模持续扩大的今天,数据集蒸馏(Dataset Distillation,DD)方法能够通过使用更少的数据,达到接近完整数据的训练效果,提升模型训练效率,降低训练成本。

来自主题: AI技术研报
5394 点击    2025-07-29 10:12
Nature子刊 | 上交突破极限,端到端无人机高速避障,可微分物理实现

Nature子刊 | 上交突破极限,端到端无人机高速避障,可微分物理实现

Nature子刊 | 上交突破极限,端到端无人机高速避障,可微分物理实现

上海交通大学研究团队提出了一种融合无人机物理建模与深度学习的端到端方法,实现了轻量、可部署、可协同的无人机集群自主导航方案,其鲁棒性和机动性大幅领先现有方案。

来自主题: AI技术研报
6831 点击    2025-07-28 11:26
ICML 2025 | CoTo:让LoRA训练「渐入佳境」,模型融合、剪枝样样精通

ICML 2025 | CoTo:让LoRA训练「渐入佳境」,模型融合、剪枝样样精通

ICML 2025 | CoTo:让LoRA训练「渐入佳境」,模型融合、剪枝样样精通

还在为 LoRA 训练不稳定、模型融合效果差、剪枝后性能大降而烦恼吗?来自香港城市大学、南方科技大学、浙江大学等机构的研究者们提出了一种简单的渐进式训练策略,CoTo,通过在训练早期随机失活一部分适配器,并逐渐提高其激活概率,有效缓解了层级不均衡问题,并显著增强了模型在多任务融合和剪枝等操作上的鲁棒性和有效性。该工作已被机器学习顶会 ICML 2025 接收。

来自主题: AI技术研报
5353 点击    2025-07-27 13:12
Nature:让AI自适应学习,需要先给它装个多巴胺系统吗?

Nature:让AI自适应学习,需要先给它装个多巴胺系统吗?

Nature:让AI自适应学习,需要先给它装个多巴胺系统吗?

持续适应性学习,即指适应环境并提升表现的能力,是自然智能与人工智能共有的关键特征。大脑达成这一目标的核心机制在于神经递质调控(例如多巴胺DA、乙酰胆碱ACh、肾上腺素)通过设置大脑全局变量来有效防止灾难性遗忘,这一机制有望增强人工神经网络在持续学习场景中的鲁棒性。本文将概述该领域的进展,进而详述两项6月Nature发表的背靠背相关研究。

来自主题: AI技术研报
4576 点击    2025-07-24 10:51
上交研究登Nature大子刊!可微分物理首次突破端到端无人机高速避障

上交研究登Nature大子刊!可微分物理首次突破端到端无人机高速避障

上交研究登Nature大子刊!可微分物理首次突破端到端无人机高速避障

上海交通大学研究团队提出了一种融合无人机物理建模与深度学习的端到端方法,该研究首次将可微分物理训练的策略成功部署到现实机器人中,实现了无人机集群自主导航,并在鲁棒性、机动性上大幅领先现有的方案。

来自主题: AI技术研报
6562 点击    2025-07-08 11:54
为什么用错奖励,模型也能提分?新研究:模型学的不是新知识,是思维

为什么用错奖励,模型也能提分?新研究:模型学的不是新知识,是思维

为什么用错奖励,模型也能提分?新研究:模型学的不是新知识,是思维

最近的一篇论文中,来自人大和腾讯的研究者们的研究表明,语言模型对强化学习中的奖励噪音具有鲁棒性,即使翻转相当一部分的奖励(例如,正确答案得 0 分,错误答案得 1 分),也不会显著影响下游任务的表现。

来自主题: AI技术研报
6606 点击    2025-06-08 14:35
CVPR 25 |全面提升视觉感知鲁棒性,生成模型快速赋能三维检测

CVPR 25 |全面提升视觉感知鲁棒性,生成模型快速赋能三维检测

CVPR 25 |全面提升视觉感知鲁棒性,生成模型快速赋能三维检测

来自香港中文大学(深圳)等单位的学者们提出了一种名为 DriveGEN 的无训练自动驾驶图像可控生成方法。该方法无需额外训练生成模型,即可实现训练图像数据的可控扩充,从而以较低的计算资源成本提升三维检测模型的鲁棒性。

来自主题: AI技术研报
7030 点击    2025-05-23 14:09
视觉语言模型易受攻击?西安交大等提出基于扩散模型的对抗样本生成新方法

视觉语言模型易受攻击?西安交大等提出基于扩散模型的对抗样本生成新方法

视觉语言模型易受攻击?西安交大等提出基于扩散模型的对抗样本生成新方法

对抗攻击,特别是基于迁移的有目标攻击,可以用于评估大型视觉语言模型(VLMs)的对抗鲁棒性,从而在部署前更全面地检查潜在的安全漏洞。然而,现有的基于迁移的对抗攻击由于需要大量迭代和复杂的方法结构,导致成本较高

来自主题: AI技术研报
7204 点击    2024-12-28 14:01
率先解决多类数据同时受损,中科大MIRA团队TRACER入选NeurIPS 2024:强鲁棒性的离线变分贝叶斯强化学习

率先解决多类数据同时受损,中科大MIRA团队TRACER入选NeurIPS 2024:强鲁棒性的离线变分贝叶斯强化学习

率先解决多类数据同时受损,中科大MIRA团队TRACER入选NeurIPS 2024:强鲁棒性的离线变分贝叶斯强化学习

近日,中科大王杰教授团队 (MIRA Lab) 针对离线强化学习数据集存在多类数据损坏这一复杂的实际问题,提出了一种鲁棒的变分贝叶斯推断方法,有效地提升了智能决策模型的鲁棒性,为机器人控制、自动驾驶等领域的鲁棒学习奠定了重要基础。论文发表在 CCF-A 类人工智能顶级会议 Neural Information Processing Systems(NeurIPS 2024)。

来自主题: AI技术研报
3077 点击    2024-11-16 15:13