核心简报: 2026年2月11日前后,智谱AI(Zhipu AI / Z.ai)正式推出了新一代旗舰大模型 GLM-5。该模型不仅在参数规模上实现了翻倍,更在架构设计上全面拥抱 Agentic Engineering(智能体工程) 理念,旨在让 AI 从单纯的“辅助写代码”进化为能够深度参与任务编排、长程规划与自我迭代的“工程级助手”。
GLM-5 采用了当前前沿的 Mixture-of-Experts (MoE) 混合专家架构,并在技术细节上引入了多项显著改进:
| 技术指标 | GLM-5 详细参数 | 技术意义 |
|---|---|---|
| 总参数规模 | 约 744B – 745B | 是前代 GLM-4.5 (355B) 的约 2 倍。 |
| 推理激活参数 | 约 40B – 44B | 在保持超大规模知识库的同时,显著降低推理开销。 |
| 注意力机制 | DeepSeek Sparse Attention (DSA) | 首次集成稀疏注意力机制,优化长上下文下的 Token 效率与部署成本。 |
| 预测技术 | 多 Token 预测 (MTP) | 提升生成速度,减少交互延迟。 |
| 隐藏层层数 | 约 78 层 | 支持更复杂的非线性变换,强化逻辑深度。 |
智谱AI 在 GLM-5 的训练过程中投入了海量的计算资源与数据,数据规模从 GLM-4 的 23T 扩展到了 28.5T Tokens。更重要的是其底层训练框架的升级:
GLM-5 的发布标志着智谱 AI 策略的重大转向——从关注单一任务的准确率,转向关注 Agent 在真实工程环境中的协同能力。
模型不再仅仅是根据一段描述写出一个函数,而是能够参与从 **API 拆解、任务编排到多服务协同** 的全流程。它可以根据顶层需求,自主规划出涉及多个模块、多个工具调用的工程方案,并执行端到端的实现。
得益于长上下文规划能力和对外部工具调用的深度优化,GLM-5 能够处理涉及数百次工具调用的长期自动化工作流。其体感表现被认为已经 **逼近甚至在某些特定场景下超越了 Claude Opus 4.5**。
对于涉及多步推理、算法设计、复杂文档拆解等高难度逻辑任务,GLM-5 表现出显著的可靠性提升。它在数学竞赛和开源逻辑基准测试中均达到了全球 SOTA 级别。
智谱 AI 延续了其拥抱开源的传统:
GLM-5 的发布不仅是参数量的提升,更是国产大模型在“工程化”道路上的深度探索。对于后端架构师、CI/CD 工程师以及 Agent 开发者而言,GLM-5 提供了一个强大的“工程助手”,能够承担起拆解微服务、画时序图、编写复杂运维脚本等重任。
随着稀疏注意力和 MTP 技术的成熟,GLM-5 证明了超大规模模型在复杂上下文处理与长任务链执行上可以兼顾性能与成本。这预示着 2026 年将进入真正的“Agentic Engineering”爆发元年。
原文链接: https://z.ai/blog/glm-5