2026 年 2 月 11 日,智譜 AI 發布了 GLM-5。
這本身不算特別新聞——中國每個月都有新模型發布。但 GLM-5 有三個特點讓它值得認真看待:
- 它是目前開源模型中排名最高的(LMArena 和 Artificial Analysis 雙料第一)
- 它完全在華為昇騰晶片上訓練,沒用一張 NVIDIA GPU
- 它以 MIT 授權開源——這是前沿級模型中最寬鬆的授權條款
智譜 AI 是中國「AI 六小虎」中第一家上市的公司。GLM-5 發布當天,股價暴漲 28.7%。
智譜 AI 是誰?
智譜 AI(國際品牌名 Z.ai)成立於 2019 年,是從**清華大學知識工程實驗室(KEG)**孵化出來的 AI 公司,總部位於北京清華科技園。
核心團隊
- 唐杰 — 聯合創辦人暨首席科學家。清華大學教授,IEEE/ACM/AAAI Fellow,GLM 架構的設計者
- 李娟子 — 聯合創辦人。清華大學教授,KEG 實驗室主任
- 張鵬 — CEO。清華博士,負責商業化策略
- 劉德兵 — 董事長暨聯合創辦人。前 Technicolor 中國區高管
智譜的學術根基非常深。GLM(General Language Model)的架構設計源自清華的研究,從 2022 年的 GLM-130B 開始就在國際學術界有影響力(ICLR 2023 論文)。
融資與上市
- 累計融資超過 14 億美元,投資方包括阿里巴巴、騰訊、美團、小米、沙烏地 Aramco 旗下 Prosperity7
- 2026 年 1 月 8 日在香港交易所上市(股票代號:2513),IPO 募資約 5.58 億美元,公開認購超額 1,159 倍
- 上市後市值一度突破 190 億美元,股價較上市價漲幅超過 250%
GLM 的演進:從 130B 到 744B
| 時間 | 模型 | 關鍵特點 |
|---|---|---|
| 2022/07 | GLM-130B | 130B 密集模型,超越 GPT-3 175B,ICLR 2023 論文 |
| 2023/03 | ChatGLM / ChatGLM-6B | 對齊版本,6B 開源版引爆社群 |
| 2023/06 | ChatGLM2-6B | MMLU +23%,context 2K→32K |
| 2023 下半年 | ChatGLM3-6B | 新增 function calling、code interpreter、agent 能力 |
| 2024 | GLM-4 系列 | 10T+ tokens 預訓練,GLM-4 All Tools 支持自主工具選擇 |
| 2025/07 | GLM-4.5 | 355B MoE(32B 活躍),23T tokens,當時開源 MoE SOTA |
| 2026/02 | GLM-5 | 744B MoE(40B 活躍),28.5T tokens,MIT 授權 |
| 2026/03 | GLM-5-Turbo | 針對 OpenClaw agent 場景優化,工具調用錯誤率降至 0.67% |
從 ChatGLM-6B 到 GLM-5,智譜走了一條清晰的路線:先用小模型開源搶開發者心智,再逐步推出更大、更強的模型。這跟 Meta 的 LLaMA 策略類似,但智譜做得更早(在中國市場)。
GLM-5 的五個核心能力
1. 創意寫作
GLM-5 在文學風格的多樣性和中文表達品質上有明顯提升,能處理不同文體和語境。
2. 程式碼生成:從 Vibe Coding 到 Agentic Engineering
智譜在技術報告中用了一個有趣的說法:GLM-5 要實現從「vibe coding」(隨意寫寫)到「agentic engineering」(系統性工程)的轉變。在 SWE-bench Verified 上得分 77.8%,是開源模型第一。
3. 多步推理
在 Humanity’s Last Exam(帶工具)上拿到 50.4 分,超越 Claude Opus 4.5 和 GPT-5.2,是目前公開報告中的最高分。
4. Agentic 智能
GLM-5 支持自主規劃、工具使用、文件生成(Word、PDF、Excel),能端到端完成 PRD 撰寫、財務報告、教案設計等任務。
5. 長文本處理
- 輸入:200K tokens
- 輸出:128K tokens
128K 的輸出上限在目前的模型中是非常高的——大多數模型的輸出上限遠低於輸入上限。
幻覺控制
透過 Slime RL 框架,GLM-5 將幻覺率從 GLM-4.7 的 90% 降到 34%,據稱低於 Claude Sonnet 4.5 的先前紀錄。
技術架構
MoE 設計
總參數: 744B
Expert 數: 256
每次啟動: top-8(約 40-44B 活躍參數)
稀疏率: ~5.9%
預訓練資料:28.5T tokens
Context: 200K 輸入 / 128K 輸出
關鍵技術創新
DeepSeek Sparse Attention(DSA) 根據 token 重要性動態分配注意力資源,降低不必要的計算開銷。
Multi-head Latent Attention(MLA) 相比標準 multi-head attention,記憶體開銷降低 33%。
Context 漸進擴展 不是一開始就在 200K 上訓練,而是分階段擴展:
- 32K(前 1T tokens)→ 128K(500B tokens)→ 200K(50B tokens)
Slime:非同步 RL 基礎設施
Slime 是 GLM-5 後訓練階段的核心,有幾個值得注意的設計:
- 完全非同步:推理、評估、參數更新三個管線獨立運行
- TITO 閘道(Token-in-Token-out):消除 re-tokenization 的不一致問題
- FP8 推理:加速 rollout 速度
- 心跳驅動的容錯:自動處理訓練中的節點故障
- 每次 RL 運行產生 3,000-6,000 條訊息,專門磨練長程規劃和工具使用能力
- 優化目標是端到端延遲而非聚合吞吐量
華為昇騰:零 NVIDIA 依賴
這可能是 GLM-5 最具戰略意義的技術細節。
2025 年 1 月,美國商務部將智譜列入實體清單。智譜隨即全面轉向華為昇騰 910B 晶片和 MindSpore 框架。GLM-5 的訓練使用了約 100,000 張昇騰 910B。
這證明了一件事:前沿級模型的訓練不再必須依賴 NVIDIA。雖然效率上可能仍有差距,但「能不能做到」這個問題的答案已經是肯定的。
基準測試比較
與閉源模型的對比
| 基準 | GLM-5 | Claude Opus 4.5 | GPT-5.2 | Gemini 3 Pro |
|---|---|---|---|---|
| HLE(帶工具) | 50.4 | < 50.4 | < 50.4 | — |
| HLE(無工具) | 30.5 | — | — | — |
| AIME 2026 I | 92.7 | 93.3 | — | — |
| GPQA-Diamond | 86.0 | — | — | — |
| SWE-bench Verified | 77.8 | 80.9 | 80.0 | 63.8 |
| SWE-bench 多語言 | 73.3(9 種語言) | — | — | — |
開源模型排名(2026 年 3 月)
Artificial Analysis Intelligence Index:
- Gemini 3.1 Pro Preview:57
- GPT-5.4:57
- Claude Opus 4.6:53
- GLM-5(推理模式):50 ← 開源第一
- Kimi K2.5:47
- Qwen3.5:45
LMArena Text Arena:
- GLM-5:1452 分,總排名 #11,開源第一
簡單來說:GLM-5 是目前最強的開源模型,在部分基準上甚至超越了 Claude 和 GPT。
API 與定價
官方 API(Z.ai / BigModel.cn)
| 模型 | 輸入(/1M tokens) | Cache 命中 | 輸出(/1M tokens) |
|---|---|---|---|
| GLM-5 | $1.00 | $0.20 | $3.20 |
| GLM-5-Code | $1.20 | $0.30 | $5.00 |
| GLM-5-Turbo | $1.20 | — | $4.00 |
與競品定價比較
| 模型 | 輸入 | 輸出 | 倍率(vs GLM-5) |
|---|---|---|---|
| GLM-5 | $1.00 | $3.20 | 1x |
| Kimi K2.5 | $0.60 | $2.50 | 更便宜 |
| Claude Opus 4.6 | $5.00 | $25.00 | 5-8x 更貴 |
| GPT-5.2 | — | — | 顯著更貴 |
GLM-5 的定位很清楚:接近前沿閉源模型的能力,開源模型的定價。
部署選項
- 雲端 API:BigModel.cn、OpenRouter、NVIDIA NIM
- 本地部署:支持 vLLM、SGLang、KTransformers、xLLM
- MIT 授權:商用無限制
OpenClaw 與 Agent 生態
智譜圍繞 GLM-5 建立了一套完整的 agent 生態:
OpenClaw
OpenClaw 是智譜的 agent 框架,GLM-5-Turbo 是為它專門優化的模型。覆蓋六大場景:
- 資訊搜尋 — 網路搜尋和資料彙整
- 辦公自動化 — 文件生成、報告撰寫
- 日常任務 — 排程、提醒、生活管理
- 資料分析 — 數據處理和視覺化
- 軟體開發 — 程式碼生成、除錯、重構
- 多 Agent 協作 — 多個 agent 協同完成複雜任務
GLM-5-Turbo 的工具調用錯誤率僅 0.67%,遠低於其他模型的 2-6%。
AutoGLM
AutoGLM 是一個獨立的手機 agent 應用,用語音指令操作手機完成各種任務。智譜稱其為「中國最早的 agent 模型」。
CodeGeeX
智譜的 AI 程式碼助手,類似 GitHub Copilot,基於 GLM 系列模型。
市場定位
在中國
- AI 六小虎之首:智譜是六家中國 AI 新創(智譜、月之暗面、MiniMax、百川、零一萬物、階躍星辰)中第一家上市的
- 政府市場龍頭:中國政府 AI 支出的 70% 必須使用「首批」國產模型,智譜佔最大份額
- 服務超過 50% 的中國前十大互聯網公司,290 萬用戶(15% 付費),12,000 家企業客戶
在全球
- 開源第一:LMArena 和 Artificial Analysis 雙料開源冠軍
- 主權 AI:為東南亞和中東國家提供「AI-in-a-Box」解決方案(印尼、越南、馬來西亞、新加坡、阿聯酋、沙烏地、肯亞)
- 在新加坡、英國、馬來西亞設有辦公室
戰略意義
GLM-5 最大的故事可能不是基準分數,而是它證明了:
一個被列入美國實體清單的中國公司,用純國產硬體訓練出了前沿級模型,然後以 MIT 授權開源。
這對全球 AI 格局的影響,可能比任何單一基準分數都更深遠。
值得關注的點
優勢
- 開源最強:MIT 授權 + 開源第一的排名,對開發者極具吸引力
- 成本效益:接近閉源前沿的能力,1/5 到 1/8 的價格
- Agent 生態完整:從底層模型到 OpenClaw 框架到終端應用(AutoGLM、CodeGeeX)
- 非美國硬體:對受出口管制影響的國家和企業有戰略價值
- 幻覺控制:Slime RL 框架的 34% 幻覺率是顯著進步
挑戰
- SWE-bench 等軟體工程基準仍落後 Claude 和 GPT 約 3 個百分點
- 英文寫作品質和 MMLU-Pro 等通用知識基準仍有差距
- 華為昇騰的訓練效率是否能跟上 NVIDIA 的迭代速度仍是未知數
- 國際品牌知名度不如 OpenAI、Anthropic、Google
- 地緣政治因素可能影響國際市場的採用意願
結語
GLM-5 代表了中國 AI 發展的一個重要里程碑:它不只是「又一個追趕者」,而是在多個維度(開源排名、agent 能力、成本效益、硬體獨立性)上展現了差異化的競爭力。
對於開發者來說,GLM-5 的 MIT 授權和有競爭力的 API 定價讓它成為一個認真的選項——特別是如果你在做 agent 應用、需要中文能力、或者對供應商多元化有需求。
對於觀察 AI 產業的人來說,智譜從清華實驗室到港交所上市、從 NVIDIA GPU 到華為昇騰的歷程,本身就是一個值得深入了解的故事。