AI资讯新闻榜单内容搜索-Dyna

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Dyna
清华姚班校友刘壮团队再发力,无需归一化的Transformer性能进化

清华姚班校友刘壮团队再发力,无需归一化的Transformer性能进化

清华姚班校友刘壮团队再发力,无需归一化的Transformer性能进化

这篇新论文提出了一种非常简单的新激活层 Derf(Dynamic erf),让「无归一化(Normalization-Free)」的 Transformer 不仅能稳定训练,还在多个设置下性能超过了带 LayerNorm 的标准 Transformer。

来自主题: AI技术研报
7331 点击    2026-01-24 10:38
看完 Manus、Cursor 分享后的最大收获:避免 Context 的过度工程化才是关键

看完 Manus、Cursor 分享后的最大收获:避免 Context 的过度工程化才是关键

看完 Manus、Cursor 分享后的最大收获:避免 Context 的过度工程化才是关键

最近,Cursor 也发表了一篇文章《Dynamic context discovery》,分享了他们是怎么做上下文管理的。结合 Manus、Cursor 这两家 Agent 领域头部团队的思路,我们整理了如何做好上下文工程的一些关键要点。

来自主题: AI资讯
7764 点击    2026-01-10 10:48
字节Seed:大概念模型来了,推理的何必是下一个token

字节Seed:大概念模型来了,推理的何必是下一个token

字节Seed:大概念模型来了,推理的何必是下一个token

LLM的下一个推理单位,何必是Token?刚刚,字节Seed团队发布最新研究——DLCM(Dynamic Large Concept Models)将大模型的推理单位从token(词) 动态且自适应地推到了concept(概念)层级。

来自主题: AI技术研报
9311 点击    2026-01-04 21:01
动态RAG性能提升14个点!用4万亿token教会大模型 「什么时候该检索」

动态RAG性能提升14个点!用4万亿token教会大模型 「什么时候该检索」

动态RAG性能提升14个点!用4万亿token教会大模型 「什么时候该检索」

近日,来自伊利诺伊大学芝加哥分校、纽约大学、与蒙纳士大学的联合团队提出QuCo-RAG,首次跳出「从模型自己内部信号来评估不确定性」的思维定式,转而用预训练语料的客观统计来量化不确定性,

来自主题: AI技术研报
8146 点击    2026-01-01 10:13
DeepSeek、Gemini谁更能提供情感支持?趣丸×北大来了波情绪轨迹动态评估

DeepSeek、Gemini谁更能提供情感支持?趣丸×北大来了波情绪轨迹动态评估

DeepSeek、Gemini谁更能提供情感支持?趣丸×北大来了波情绪轨迹动态评估

近日,由趣丸科技与北京大学软件工程国家工程研究中心共同发表的《Detecting Emotional Dynamic Trajectories: An Evaluation Framework for Emotional Support in Language Models(检测情感动态轨迹:大语言模型情感支持的评估框架)》论文,获 AAAI 2026 录用。

来自主题: AI技术研报
8533 点击    2025-12-08 14:13
NeurIPS 2025 | DynaAct:DeepSeek R1之外,探索大模型推理的另一条道路

NeurIPS 2025 | DynaAct:DeepSeek R1之外,探索大模型推理的另一条道路

NeurIPS 2025 | DynaAct:DeepSeek R1之外,探索大模型推理的另一条道路

大模型推理的爆发,实际源于 scaling 范式的转变:从 train-time scaling 到 test-time scaling(TTS),即将更多的算力消耗部署在 inference 阶段。典型的实现是以 DeepSeek r1 为代表的 long CoT 方法:通过增加思维链的长度来获得答案精度的提升。那么 long CoT 是 TTS 的唯一实现吗?

来自主题: AI技术研报
8011 点击    2025-11-30 09:30
榨干GPU性能,中兴Mariana(马里亚纳)突破显存壁垒

榨干GPU性能,中兴Mariana(马里亚纳)突破显存壁垒

榨干GPU性能,中兴Mariana(马里亚纳)突破显存壁垒

当大语言模型(LLM)走向千行百业,推理效率与显存成本的矛盾日益尖锐。

来自主题: AI资讯
7942 点击    2025-08-26 19:21
让强化学习快如闪电:FlashRL一条命令实现极速Rollout,已全部开源

让强化学习快如闪电:FlashRL一条命令实现极速Rollout,已全部开源

让强化学习快如闪电:FlashRL一条命令实现极速Rollout,已全部开源

在今年三月份,清华 AIR 和字节联合 SIA Lab 发布了 DAPO,即 Decoupled Clip and Dynamic sAmpling Policy Optimization(解耦剪辑和动态采样策略优化)。

来自主题: AI技术研报
7876 点击    2025-08-13 11:27