AI资讯新闻榜单内容搜索-训练数据

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练数据
手术刀式去噪突破LLM能力上限,从头预训练模型下游任务平均提高7.2% | 中科院&阿里

手术刀式去噪突破LLM能力上限,从头预训练模型下游任务平均提高7.2% | 中科院&阿里

手术刀式去噪突破LLM能力上限,从头预训练模型下游任务平均提高7.2% | 中科院&阿里

在噪声污染严重影响预训练数据的质量时,如何能够高效且精细地精炼数据? 中科院计算所与阿里Qwen等团队联合提出RefineX,一个通过程序化编辑任务实现大规模、精准预训练数据精炼的新框架。

来自主题: AI技术研报
5973 点击    2025-07-22 10:03
ACM MM 2025 | EventVAD:7B参数免训练,视频异常检测新SOTA

ACM MM 2025 | EventVAD:7B参数免训练,视频异常检测新SOTA

ACM MM 2025 | EventVAD:7B参数免训练,视频异常检测新SOTA

现有视频异常检测(Video Anomaly Detection, VAD)方法中,有监督方法依赖大量领域内训练数据,对未见过的异常场景泛化能力薄弱;而无需训练的方法虽借助大语言模型(LLMs)的世界知识实现检测,但存在细粒度视觉时序定位不足、事件理解不连贯、模型参数冗余等问题。

来自主题: AI技术研报
5797 点击    2025-07-21 10:28
MIT发布自适应语言模型!新任务,自生成远超「GPT-4.1合成训练数据」

MIT发布自适应语言模型!新任务,自生成远超「GPT-4.1合成训练数据」

MIT发布自适应语言模型!新任务,自生成远超「GPT-4.1合成训练数据」

自适应语言模型框架SEAL,让大模型通过生成自己的微调数据和更新指令来适应新任务。SEAL在少样本学习和知识整合任务上表现优异,显著提升了模型的适应性和性能,为大模型的自主学习和优化提供了新的思路。

来自主题: AI技术研报
6533 点击    2025-07-10 11:33
Meta新注意力机制突破Transformer上限,还用上了OpenAI的开源技术

Meta新注意力机制突破Transformer上限,还用上了OpenAI的开源技术

Meta新注意力机制突破Transformer上限,还用上了OpenAI的开源技术

Meta挖走OpenAI大批员工后,又用OpenAI的技术搞出新突破。新架构名为2-Simplicial Transformer,重点是通过修改标准注意力,让Transformer能更高效地利用训练数据,以突破当前大模型发展的数据瓶颈。

来自主题: AI技术研报
5902 点击    2025-07-08 12:01
vivo突破手机AI部署难题,绕开MoE架构限制,骁龙8 Elite流畅运行|ICCV 2025

vivo突破手机AI部署难题,绕开MoE架构限制,骁龙8 Elite流畅运行|ICCV 2025

vivo突破手机AI部署难题,绕开MoE架构限制,骁龙8 Elite流畅运行|ICCV 2025

vivo AI研究院联合港中文以及上交团队为了攻克这些难题,从训练数据和模型结构两方面,系统性地分析了如何在MLLM训练中维持纯语言能力,并基于此提出了GenieBlue——专为移动端手机NPU设计的高效MLLM结构方案。

来自主题: AI技术研报
5892 点击    2025-07-05 13:12
策略改写「一战历史」!中科院开源全新博弈智能体框架DipLLM

策略改写「一战历史」!中科院开源全新博弈智能体框架DipLLM

策略改写「一战历史」!中科院开源全新博弈智能体框架DipLLM

中科院自动化所提出DipLLM,这是首个在复杂策略游戏Diplomacy中基于大语言模型微调的智能体框架,仅用Cicero 1.5%的训练数据就实现超越

来自主题: AI资讯
7230 点击    2025-07-01 15:30
10%训练数据超越100%表现,机器人学习领域迎来重要突破

10%训练数据超越100%表现,机器人学习领域迎来重要突破

10%训练数据超越100%表现,机器人学习领域迎来重要突破

第一作者陈昌和是美国密歇根大学的研究生,师从 Nima Fazeli 教授,研究方向包括基础模型、机器人学习与具身人工智能,专注于机器人操控、物理交互与控制优化。

来自主题: AI技术研报
9291 点击    2025-06-11 14:29
喝点VC|a16z合伙人:开发者市场或成为AI首个真正意义上的万亿级市场;当前模型最致命的缺陷是永远不愿承认"我不知道"

喝点VC|a16z合伙人:开发者市场或成为AI首个真正意义上的万亿级市场;当前模型最致命的缺陷是永远不愿承认"我不知道"

喝点VC|a16z合伙人:开发者市场或成为AI首个真正意义上的万亿级市场;当前模型最致命的缺陷是永远不愿承认"我不知道"

问题越常见,所需上下文越少。比如"写个博客网站"这类典型教学案例,模型生成这类代码易如反掌。但面对缺乏训练数据的新颖需求时,你必须精确描述需求、提供API文档等完整上下文,难度会指数级上升。

来自主题: AI资讯
6274 点击    2025-06-08 11:36
无需人工标注!AI自生成训练数据,靠「演绎-归纳-溯因」解锁推理能力

无需人工标注!AI自生成训练数据,靠「演绎-归纳-溯因」解锁推理能力

无需人工标注!AI自生成训练数据,靠「演绎-归纳-溯因」解锁推理能力

新加坡国立大学等机构的研究者们通过元能力对齐的训练框架,模仿人类推理的心理学原理,将演绎、归纳与溯因能力融入模型训练。实验结果显示,这一方法不仅提升了模型在数学与编程任务上的性能,还展现出跨领域的可扩展性。

来自主题: AI技术研报
9188 点击    2025-06-03 10:36