Transformer可以改装成Mamba了:苹果把推理成本直接打成线性
Transformer可以改装成Mamba了:苹果把推理成本直接打成线性最近,苹果又整了个活儿,很工程、也挺关键: 把又贵又强的 Transformer,改造成又便宜又差不多强的 Mamba。而且,性能基本没怎么掉。
最近,苹果又整了个活儿,很工程、也挺关键: 把又贵又强的 Transformer,改造成又便宜又差不多强的 Mamba。而且,性能基本没怎么掉。
上周六,我们在上海举办了第一届通灵黑客松。
LPM 1.0 只是冰山一角,蔡浩宇真正在造的,是下一个时代的游戏引擎。
浙江大学团队开源了一个基于多智能体技术的演化叙事系统OpenStory,不仅还原了经典《红楼梦》中的角色和场景,实验结果也揭示了AGI下系统脆弱性,引发对智能演化的深刻思考。
近日,腾讯混元团队提出HY-SOAR (Self-Correction for Optimal Alignment and Refinement),一种面向扩散模型和流匹配模型的数据驱动后训练方法。
要说也真够逗的,索尼的机器人又开始找画面了。
当很多具身智能公司更关心机器人先在哪些场景里跑通商业化时,自变量更想寻找哪条路径能够通往 AGI。
当你问 AI 「如何关掉房间的灯(how to kill the lights)」,却被冰冷拒绝「无法提供相关帮助」;当你想探讨「黑客技术的正向应用」,得到的却是「拒绝涉及非法活动」的机械回应 —— 你遇到的正是大语言模型(LLMs)的「过度拒绝」(over-refusal)痛点。
在推理后训练里,多数方法仍依赖奖励模型、验证器或额外教师信号。如果不依赖这些外部信号,只使用模型自身生成的答案进行自训练,是否仍然能够提升推理能力?是的!SePT(Self-evolving Post-Training)给出肯定答案,简洁的自训练方法,可在数学推理任务准确率直升10个点!
对 AI 数据中心持续不断的需求正在蔓延到为冷却芯片服务器等关键任务提供组件的鲜为人知的公司。