AI编程节省95% token,工具调用上限狂飙20倍,开源记忆系统登顶GitHub热榜
AI编程节省95% token,工具调用上限狂飙20倍,开源记忆系统登顶GitHub热榜用Claude Code写代码的人,终于不用每次开新会话都从头解释项目背景了。顶GitHub开源热榜的一款持久化记忆系统Claude-Mem,直击AI编程助手最致命的痛点:跨会话失忆。
用Claude Code写代码的人,终于不用每次开新会话都从头解释项目背景了。顶GitHub开源热榜的一款持久化记忆系统Claude-Mem,直击AI编程助手最致命的痛点:跨会话失忆。
编辑|杨文、Panda 最近,OpenClaw 火得一塌糊涂。 短短几天,这个顶着红色龙虾 Logo 的开源 AI 助理 OpenClaw,就在 GitHub 上斩获超 16 万 star 量。 它就
一场AI春晚,浓缩海淀AI生态。 作者 | 王涵 编辑 | 漠影 在北京海淀区,你很容易产生一种“时空错位感”。 走在街头,擦肩而过的大学生讨论的是最新文献;走进咖啡厅,邻座对着电脑屏幕专注地敲着代码
目前,人形机器人已经能在现实中跳舞、奔跑、甚至完成后空翻。但接下来更关键的问题是:这些系统能否在部署之后持续地进行强化学习 —— 在真实世界的反馈中变得更稳定、更可靠,并在分布不断变化的新环境里持续适应与改进?
小米MiMo大模型团队,加入AI拜年战场——推出HySparse,一种面向Agent时代的混合稀疏注意力架构。
2025 年 1 月 20 日,DeepSeek 发布了推理大模型 DeepSeek-R1,在学术界和工业界引发了对大模型强化学习方法的广泛关注与研究热潮。 研究者发现,在数学推理等具有明确答案的任务
LaST₀团队 投稿 量子位 | 公众号 QbitAI 近日,至简动力、北京大学、香港中文大学、北京人形机器人创新中心提出了一种名为LaST₀的全新隐空间推理VLA模型,在基于Transformer混
随着 AI 智能体(Agent)能力日益强大,其自主行为带来的安全风险也愈发复杂。现有安全工具往往只能给出「安全 / 不安全」的简单判断,无法告知我们风险的根源。为此,上海人工智能实验室正式开源 Ag
一直以来,神经网络的激活函数就像是 AI 引擎中的火花塞。从早期的 Sigmoid、Tanh,到后来统治业界的 ReLU,再到近年来的 GELU 和 Swish,每一次激活函数的演进都伴随着模型性能的提升。但长期以来,寻找最佳激活函数往往依赖于人类直觉或有限的搜索空间。
我深入研究Salient的故事后发现,这个行业的落后程度超乎想象。美国近80%的家庭都有某种形式的债务,每年大约有8000亿美元的新汽车贷款发放。为了服务这些贷款,贷款机构每年要花费200亿到300亿美元——主要是雇佣大量人工打电话、发信件、协商还款计划。这是一个巨大的成本中心,但几十年来基本没有发生任何技术革新。