
GLM-5 的技术架构体现了"站在巨人肩膀上"的明智选择。模型采用了DeepSeek-V3 同款架构,包括稀疏注意力机制(DSA)和多 Token 预测(MTP)等核心技术。
核心参数规格:
**稀疏注意力机制(DSA)**是 GLM-5 的一大亮点。通过两阶段流程实现长文本处理效率的大幅提升:首先由 Lightning Indexer 轻量级组件快速扫描所有历史 token 并打分,然后只挑选得分最高的 Top-k 个 token 进行完整的注意力计算。这种设计在维持长文本效果无损的同时,大幅降低了模型部署成本。
在编程能力方面,GLM-5 实现了对 Claude Opus 4.5 的对齐,在业内公认的主流基准测试中取得开源模型最高分数:

GLM-5编程能力评估
在内部 Claude Code 评估集合中,GLM-5 在前端、后端、长程任务等编程开发任务上显著超越 GLM-4.7。模型能够以极少的人工干预自主完成 Agentic 长程规划与执行、后端重构和深度调试等系统工程任务,使用体验逼近 Opus 4.5。
GLM-5 在智能体能力方面实现了开源 SOTA,在多个评测基准中均取得最高表现:

GLM-5 Agent能力评估
这些能力构成了 Agentic Engineering 的核心:模型不仅要能写代码、完成工程,还要能在长程任务中保持目标一致性、进行资源管理、处理多步骤依赖关系,成为真正的 Agentic Ready 基座模型。
GLM-5 的能力支持非常全面,包括思考模式、流式输出、Function Call、上下文缓存、结构化输出等核心功能,同时支持MCP 工具调用和GLM in Excel等特色服务。
主要应用场景包括:
Agentic Coding能基于自然语言自动生成可运行代码,覆盖前后端与数据处理等开发环节,显著缩短从需求到产物的迭代周期。
智能体任务具备自主决策与工具调用能力,可在模糊复杂目标下完成从理解、规划到执行与自检的全流程智能体任务,实现"一句话输入到完整交付物"。
办公场景通过强大的长程规划与记忆能力,能够稳定完成跨阶段、多步骤、强逻辑关联的复杂办公任务,确保指令遵循度与目标一致性。
专业领域应用
GLM-5 的升级不仅仅是参数规模的简单扩大,而是全方位的能力提升:
参数规模扩展从 355B(激活 32B)扩展至 744B(激活 40B),更大规模的预训练算力显著提升了模型的通用智能水平。
异步强化学习构建全新的"Slime"框架,支持更大模型规模及更复杂的强化学习任务,提出异步智能体强化学习算法,使模型能够持续从长程交互中学习。
部署友好性采用 DeepSeek 同款架构意味着 GLM-5 可以直接受益于 vLLM、SGLang 等推理框架已有的优化,部署门槛更低。
GLM-5 的出现,为开发者提供了一个逼近商业旗舰模型性能的开源选择。在保持开源优势的同时,在编程能力和智能体任务执行方面达到了行业领先水平。
对于企业用户而言,GLM-5 的长程任务执行能力和工具调用能力使其成为构建复杂 AI 应用的理想基座。无论是需要处理复杂工程任务的软件开发团队,还是需要构建智能客服、数据分析等应用的企业,GLM-5 都提供了强大的技术支持。
打开 VS Code 里的 Kilo Code,模型选择 GLM-5 free,我已经白嫖体验上了,目前为止体感不错,等待深入白嫖体验。

GLM-5 的发布标志着智谱 AI 在大模型技术上的重大突破,也为开源大模型社区注入了新的活力。随着 Agentic Engineering 理念的普及,GLM-5 有望在更多实际应用场景中展现其价值,推动 AI 技术向更智能、更实用的方向发展。
[1]
GLM-5官方文档: https://docs.bigmodel.cn/cn/guide/models/text/glm-5