AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: 模型训练
视觉语言模型安全升级,还不牺牲性能!技术解读一文看懂|淘天MMLab南大重大出品

视觉语言模型安全升级,还不牺牲性能!技术解读一文看懂|淘天MMLab南大重大出品

视觉语言模型安全升级,还不牺牲性能!技术解读一文看懂|淘天MMLab南大重大出品

模型安全和可靠性、系统整合和互操作性、用户交互和认证…… 当“多模态”“跨模态”成为不可阻挡的AI趋势时,多模态场景下的安全挑战尤其应当引发产学研各界的注意。

来自主题: AI技术研报
7138 点击    2025-01-18 10:48
TPAMI-2024 | Uni-AdaFocus视频理解框架,让AI学会「划重点」,计算效率提升4-23倍!

TPAMI-2024 | Uni-AdaFocus视频理解框架,让AI学会「划重点」,计算效率提升4-23倍!

TPAMI-2024 | Uni-AdaFocus视频理解框架,让AI学会「划重点」,计算效率提升4-23倍!

Uni-AdaFocus 是一个通用的高效视频理解框架,实现了降低时间、空间、样本三维度冗余性的统一建模。代码和预训练模型已开源,还有在自定义数据集上使用的完善教程,请访问项目链接。

来自主题: AI资讯
6481 点击    2025-01-18 10:03
阶跃公开了自家新型注意力机制:KV缓存消耗直降93.7%,性能不减反增

阶跃公开了自家新型注意力机制:KV缓存消耗直降93.7%,性能不减反增

阶跃公开了自家新型注意力机制:KV缓存消耗直降93.7%,性能不减反增

随着当前大语言模型的广泛应用和推理时扩展的新范式的崛起,如何实现高效的大规模推理成为了一个巨大挑战。特别是在语言模型的推理阶段,传统注意力机制中的键值缓存(KV Cache)会随着批处理大小和序列长度线性增长,俨然成为制约大语言模型规模化应用和推理时扩展的「内存杀手」。

来自主题: AI技术研报
6098 点击    2025-01-18 09:57
生成越长越跑偏?浙大商汤新作StarGen让场景视频生成告别「短片魔咒」

生成越长越跑偏?浙大商汤新作StarGen让场景视频生成告别「短片魔咒」

生成越长越跑偏?浙大商汤新作StarGen让场景视频生成告别「短片魔咒」

本文介绍了一篇由浙江大学章国锋教授和商汤科技研究团队联合撰写的论文《StarGen: A Spatiotemporal Autoregression Framework with Video Diffusion Model for Scalable and Controllable Scene Generation》。

来自主题: AI技术研报
6824 点击    2025-01-17 11:14
大模型量化训练极限在哪?腾讯混元提出低比特浮点数训练Scaling Laws

大模型量化训练极限在哪?腾讯混元提出低比特浮点数训练Scaling Laws

大模型量化训练极限在哪?腾讯混元提出低比特浮点数训练Scaling Laws

大模型低精度训练和推理是大模型领域中的重要研究方向,旨在通过降低模型精度来减少计算和存储成本,同时保持模型的性能。因为在大模型研发成本降低上的巨大价值而受到行业广泛关注 。

来自主题: AI技术研报
3485 点击    2025-01-17 11:07
微软最新复杂推理:基于过程奖励的LE-MCTS集成新方法

微软最新复杂推理:基于过程奖励的LE-MCTS集成新方法

微软最新复杂推理:基于过程奖励的LE-MCTS集成新方法

在人工智能快速发展的今天,大型语言模型(LLM)在各类任务中展现出惊人的能力。然而,当面对需要复杂推理的任务时,即使是最先进的开源模型也往往难以保持稳定的表现。现有的模型集成方法,无论是在词元层面还是输出层面的集成,都未能有效解决这一挑战。

来自主题: AI技术研报
4606 点击    2025-01-17 10:36
2024诺贝尔化学奖得主:「模型幻觉」给我无限创造力

2024诺贝尔化学奖得主:「模型幻觉」给我无限创造力

2024诺贝尔化学奖得主:「模型幻觉」给我无限创造力

AI「幻觉」可能在一般人看来是模型的胡言乱语,但它为科学家提供了新的灵感。David Baker甚至利用AI「幻觉」赢得了诺贝尔化学奖。纽约时报发文AI正在加速科学发展,但「幻觉」一词,在科学界仍有争议。

来自主题: AI资讯
7082 点击    2025-01-16 15:51
大模型能学会外星语言吗?

大模型能学会外星语言吗?

大模型能学会外星语言吗?

近日,《自然-通讯》的一项研究指出,语言结构的组合性不仅让大模型的学习变得更加高效,也使人类在学习语言时变得更加轻松。

来自主题: AI资讯
7081 点击    2025-01-16 10:51
LoRA最新最权威的一切都在这了,2025综述

LoRA最新最权威的一切都在这了,2025综述

LoRA最新最权威的一切都在这了,2025综述

在人工智能快速发展的今天,大型基础模型(如GPT、BERT等)已经成为AI应用的核心基石。然而,这些动辄数十亿甚至数万亿参数的模型给开发者带来了巨大的计算资源压力。传统的全参数微调方法不仅需要大量的计算资源,还面临着训练不稳定、容易过拟合等问题。

来自主题: AI技术研报
4850 点击    2025-01-16 10:48