韩松等提出FlashMoBA,比MoBA快7.4倍,序列扩到512K也不会溢出
韩松等提出FlashMoBA,比MoBA快7.4倍,序列扩到512K也不会溢出今年 2 月,月之暗面提出了一种名为 MoBA 的注意力机制,即 Mixture of Block Attention,可以直译为「块注意力混合」。
今年 2 月,月之暗面提出了一种名为 MoBA 的注意力机制,即 Mixture of Block Attention,可以直译为「块注意力混合」。
Gemini 3.0还未杀到,一系列惊艳实测就已宣告:AI「生成涌现」时代,真的来了!几乎同一时间,国内一款新生AI神器,竟将这股超能力塞进手机,30秒手搓一个APP。
如果多个大模型能读懂彼此的想法,会发生什么?
单Transformer搞定任意视图3D重建!
当我们谈论大型语言模型(LLM)的"强化学习"(RL)时,我们在谈论什么?从去年至今,RL可以说是当前AI领域最炙手可热的词汇。
最近,小编注意到一位全栈工程师 Rohith Singh 在Reddit上发表了一篇帖子,介绍他如何对四个模型(Kimi K2 Thinking、Sonnet 4.5、GPT-5 Codex 和 GPT-5.1 Codex)进行了实测。
为了同时解决知识的实时性和推理的复杂性这两大挑战,搜索智能体(Search Agent)应运而生。它与 RAG 的核心区别在于,Search Agent 能够通过与实时搜索引擎进行多轮交互来分解并执行复杂任务。这种能力在人物画像构建,偏好搜索等任务中至关重要,因为它能模拟人类专家进行深度、实时的资料挖掘。
如何让 AI的生成能力涌现?一个摆在头部玩家面前的新问题。
近日,外媒一篇关于阿里 AI 全面入局 C 端之战,秘密启动「千问」项目的报道,在坊间引起各种猜测,甚至连相关的「阿里食堂烧鸭饭」都上了好几次热搜。没办法,大家太好奇了。
2025 年,AI 产业正在经历一场关键转折。