智谱AI上市后,再发新成果。
开源轻量级大语言模型GLM-4.7-Flash,直接替代前代GLM-4.5-Flash,API免费开放调用。

这是一个30B总参数、仅3B激活参数的混合专家(MoE)架构模型,官方给它的定位是“本地编程与智能体助手”。
在SWE-bench Verified代码修复测试中,GLM-4.7-Flash拿下59.2分,“人类最后的考试”等评测中也显著超越同规模的Qwen3-30B和GPT-OSS-20B。

作为去年12月发布的旗舰模型GLM-4.7的轻量化版本,GLM-4.7-Flash继承了GLM-4系列在编码和推理上的核心能力,同时针对效率做了专门优化。
除了编程,官方还推荐将这个模型用于创意写作、翻译、长上下文任务,甚至角色扮演场景。
GLM-4.7-Flash沿用了该系列的”混合思考模型”的设计。
总参数量300亿,但实际推理时仅激活约30亿参数,使模型在保持能力的同时大幅降低计算开销。
上下文窗口支持到200K,既可以云端API调用,也支持本地部署。
目前官方还没有给出技术报告,更多细节还要从配置文件自己挖掘。

有开发者注意到一个重要细节:GLM团队这次首次采用了MLA(Multi-head Latent Attention)架构。这一架构此前由DeepSeek-v2率先使用并验证有效,如今智谱也跟进了。
从具体结构来看,GLM-4.7-Flash的深度与GLM-4.5 Air和Qwen3-30B-A3B接近,但专家数量有所不同——它采用64个专家而非128个,激活时只调用5个(算上共享专家)。

目前发布不到12小时,HuggingFace、vLLM等主流平台就提供了day0支持。


官方也在第一时间提供了对华为昇腾NPU的支持。

本地部署方面,经开发者实测在32GB统一内存、M5芯片的苹果笔记本上能跑到43 token/s的速度。

官方API平台上基础版GLM-4.7-Flash完全免费(限1个并发),高速版GLM-4.7-FlashX价格也相当白菜。

对比同类模型,在上下文长度支持和输出token价格上有优势,但目前延迟和吞吐量还有待优化。

HuggingFace:
https://huggingface.co/zai-org/GLM-4.7-Flash
参考链接:
[1]https://x.com/Zai_org/status/2013261304060866758
文章来自于“量子位”,作者 “梦晨”。
【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。
项目地址:https://github.com/browser-use/browser-use
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md