AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
AI代码生成,上下文示例怎样写最有效?港科大最新

AI代码生成,上下文示例怎样写最有效?港科大最新

AI代码生成,上下文示例怎样写最有效?港科大最新

长久以来我们都知道在Prompt里塞几个好例子能让LLM表现得更好,这就像教小孩学东西前先给他做个示范。在Vibe coding爆火后,和各种代码生成模型打交道的人变得更多了,大家也一定用过上下文学习(In-Context Learning, ICL)或者检索增强生成(RAG)这类技术来提升它的表现。

来自主题: AI技术研报
7547 点击    2025-08-13 10:45
Lumina-mGPT 2.0:自回归模型华丽复兴,媲美顶尖扩散模型

Lumina-mGPT 2.0:自回归模型华丽复兴,媲美顶尖扩散模型

Lumina-mGPT 2.0:自回归模型华丽复兴,媲美顶尖扩散模型

上海人工智能实验室等团队提出Lumina-mGPT 2.0 —— 一款独立的、仅使用解码器的自回归模型,统一了包括文生图、图像对生成、主体驱动生成、多轮图像编辑、可控生成和密集预测在内的广泛任务。

来自主题: AI技术研报
6438 点击    2025-08-12 17:03
ICCV 2025 | 小红书AIGC团队提出图像和视频换脸新算法DynamicFace

ICCV 2025 | 小红书AIGC团队提出图像和视频换脸新算法DynamicFace

ICCV 2025 | 小红书AIGC团队提出图像和视频换脸新算法DynamicFace

近年来,扩散模型在图像与视频合成领域展现出前所未有的生成能力,为人脸生成与编辑技术按下了加速键。特别是一张静态人脸驱动任意表情、姿态乃至光照的梦想,正在走向大众工具箱,并在三大场景展现巨大潜力

来自主题: AI技术研报
6706 点击    2025-08-12 16:10
LLM总是把简单任务复杂化,Karpathy无语:有些任务无需那么多思考

LLM总是把简单任务复杂化,Karpathy无语:有些任务无需那么多思考

LLM总是把简单任务复杂化,Karpathy无语:有些任务无需那么多思考

随着推理大模型和思维链的出现与普及,大模型具备了「深度思考」的能力,不同任务的泛用性得到了很大的提高。

来自主题: AI资讯
5980 点击    2025-08-12 15:58
GPT-oss太离谱:无提示自行想象编程问题,还重复求解5000次

GPT-oss太离谱:无提示自行想象编程问题,还重复求解5000次

GPT-oss太离谱:无提示自行想象编程问题,还重复求解5000次

GPT-oss放飞自我了?!居然出现了明显的幻觉行为。 在没有提示词的情况下,消耗超过30000个token凭空想出一个问题,还反复求解了5000多次?!

来自主题: AI资讯
5717 点击    2025-08-12 11:52
4D空间智能:AI如何一步步「看懂」时空结构?一篇综述解析通往四维世界的五大层次

4D空间智能:AI如何一步步「看懂」时空结构?一篇综述解析通往四维世界的五大层次

4D空间智能:AI如何一步步「看懂」时空结构?一篇综述解析通往四维世界的五大层次

4D 空间智能重建是计算机视觉领域的核心挑战,其目标在于从视觉数据中还原三维空间的动态演化过程。这一技术通过整合静态场景结构与时空动态变化,构建出具有时间维度的空间表征系统,在虚拟现实、数字孪生和智能交互等领域展现出关键价值。

来自主题: AI技术研报
6985 点击    2025-08-12 11:42
从捍卫者到引路人,上交&上海AI Lab提出LEGION:不仅是AI图像伪造克星,还能反哺生成模型进化?

从捍卫者到引路人,上交&上海AI Lab提出LEGION:不仅是AI图像伪造克星,还能反哺生成模型进化?

从捍卫者到引路人,上交&上海AI Lab提出LEGION:不仅是AI图像伪造克星,还能反哺生成模型进化?

近年来,文生图模型(Text-to-Image Models)飞速发展,从早期的 GAN 架构到如今的扩散和自回归模型,生成图像的质量和细节表现力实现了跨越式提升。这些模型大大降低了高质量图像创作的门槛,为设计、教育、艺术创作等领域带来了前所未有的便利。

来自主题: AI技术研报
6565 点击    2025-08-12 11:31
Attention Sink产生的起点?清华&美团首次揭秘MoE LLM中的超级专家机制

Attention Sink产生的起点?清华&美团首次揭秘MoE LLM中的超级专家机制

Attention Sink产生的起点?清华&美团首次揭秘MoE LLM中的超级专家机制

稀疏激活的混合专家模型(MoE)通过动态路由和稀疏激活机制,极大提升了大语言模型(LLM)的学习能力,展现出显著的潜力。基于这一架构,涌现出了如 DeepSeek、Qwen 等先进的 MoE LLM。

来自主题: AI技术研报
6045 点击    2025-08-12 11:07
token危机解决?扩散模型数据潜力3倍于自回归,重训480次性能仍攀升

token危机解决?扩散模型数据潜力3倍于自回归,重训480次性能仍攀升

token危机解决?扩散模型数据潜力3倍于自回归,重训480次性能仍攀升

扩散语言模型(DLMs)是超强的数据学习者。 token 危机终于要不存在了吗? 近日,新加坡国立大学 AI 研究者 Jinjie Ni 及其团队向着解决 token 危机迈出了关键一步。

来自主题: AI资讯
5576 点击    2025-08-11 10:53
联合理解生成的关键拼图?腾讯发布X-Omni:强化学习让离散自回归生成方法重焕生机,轻松渲染长文本图像

联合理解生成的关键拼图?腾讯发布X-Omni:强化学习让离散自回归生成方法重焕生机,轻松渲染长文本图像

联合理解生成的关键拼图?腾讯发布X-Omni:强化学习让离散自回归生成方法重焕生机,轻松渲染长文本图像

在图像生成领域,自回归(Autoregressive, AR)模型与扩散(Diffusion)模型之间的技术路线之争始终未曾停歇。大语言模型(LLM)凭借其基于「预测下一个词元」的优雅范式,已在文本生成领域奠定了不可撼动的地位。

来自主题: AI技术研报
5952 点击    2025-08-11 10:17