Skip to content

GLM-5:智譜 AI 的 744B 開源模型,用華為晶片訓出來的前沿 AI

2026年3月26日 1 分鐘
TL;DR GLM-5 是智譜 AI(Z.ai)於 2026 年 2 月發布的 744B MoE 開源模型,完全在華為昇騰晶片上訓練,以 MIT 授權開源。它是目前開源模型中排名最高的,在 Humanity's Last Exam 等基準上甚至超越 Claude 和 GPT-5,而 API 定價只有它們的 1/5 到 1/8。

2026 年 2 月 11 日,智譜 AI 發布了 GLM-5

這本身不算特別新聞——中國每個月都有新模型發布。但 GLM-5 有三個特點讓它值得認真看待:

  1. 它是目前開源模型中排名最高的(LMArena 和 Artificial Analysis 雙料第一)
  2. 它完全在華為昇騰晶片上訓練,沒用一張 NVIDIA GPU
  3. 它以 MIT 授權開源——這是前沿級模型中最寬鬆的授權條款

智譜 AI 是中國「AI 六小虎」中第一家上市的公司。GLM-5 發布當天,股價暴漲 28.7%。


智譜 AI 是誰?

智譜 AI(國際品牌名 Z.ai)成立於 2019 年,是從**清華大學知識工程實驗室(KEG)**孵化出來的 AI 公司,總部位於北京清華科技園。

核心團隊

  • 唐杰 — 聯合創辦人暨首席科學家。清華大學教授,IEEE/ACM/AAAI Fellow,GLM 架構的設計者
  • 李娟子 — 聯合創辦人。清華大學教授,KEG 實驗室主任
  • 張鵬 — CEO。清華博士,負責商業化策略
  • 劉德兵 — 董事長暨聯合創辦人。前 Technicolor 中國區高管

智譜的學術根基非常深。GLM(General Language Model)的架構設計源自清華的研究,從 2022 年的 GLM-130B 開始就在國際學術界有影響力(ICLR 2023 論文)。

融資與上市

  • 累計融資超過 14 億美元,投資方包括阿里巴巴、騰訊、美團、小米、沙烏地 Aramco 旗下 Prosperity7
  • 2026 年 1 月 8 日在香港交易所上市(股票代號:2513),IPO 募資約 5.58 億美元,公開認購超額 1,159 倍
  • 上市後市值一度突破 190 億美元,股價較上市價漲幅超過 250%

GLM 的演進:從 130B 到 744B

時間模型關鍵特點
2022/07GLM-130B130B 密集模型,超越 GPT-3 175B,ICLR 2023 論文
2023/03ChatGLM / ChatGLM-6B對齊版本,6B 開源版引爆社群
2023/06ChatGLM2-6BMMLU +23%,context 2K→32K
2023 下半年ChatGLM3-6B新增 function calling、code interpreter、agent 能力
2024GLM-4 系列10T+ tokens 預訓練,GLM-4 All Tools 支持自主工具選擇
2025/07GLM-4.5355B MoE(32B 活躍),23T tokens,當時開源 MoE SOTA
2026/02GLM-5744B MoE(40B 活躍),28.5T tokens,MIT 授權
2026/03GLM-5-Turbo針對 OpenClaw agent 場景優化,工具調用錯誤率降至 0.67%

從 ChatGLM-6B 到 GLM-5,智譜走了一條清晰的路線:先用小模型開源搶開發者心智,再逐步推出更大、更強的模型。這跟 Meta 的 LLaMA 策略類似,但智譜做得更早(在中國市場)。


GLM-5 的五個核心能力

1. 創意寫作

GLM-5 在文學風格的多樣性和中文表達品質上有明顯提升,能處理不同文體和語境。

2. 程式碼生成:從 Vibe Coding 到 Agentic Engineering

智譜在技術報告中用了一個有趣的說法:GLM-5 要實現從「vibe coding」(隨意寫寫)到「agentic engineering」(系統性工程)的轉變。在 SWE-bench Verified 上得分 77.8%,是開源模型第一。

3. 多步推理

在 Humanity’s Last Exam(帶工具)上拿到 50.4 分,超越 Claude Opus 4.5 和 GPT-5.2,是目前公開報告中的最高分。

4. Agentic 智能

GLM-5 支持自主規劃、工具使用、文件生成(Word、PDF、Excel),能端到端完成 PRD 撰寫、財務報告、教案設計等任務。

5. 長文本處理

  • 輸入:200K tokens
  • 輸出:128K tokens

128K 的輸出上限在目前的模型中是非常高的——大多數模型的輸出上限遠低於輸入上限。

幻覺控制

透過 Slime RL 框架,GLM-5 將幻覺率從 GLM-4.7 的 90% 降到 34%,據稱低於 Claude Sonnet 4.5 的先前紀錄。


技術架構

MoE 設計

總參數:    744B
Expert 數: 256
每次啟動:  top-8(約 40-44B 活躍參數)
稀疏率:    ~5.9%
預訓練資料:28.5T tokens
Context:   200K 輸入 / 128K 輸出

關鍵技術創新

DeepSeek Sparse Attention(DSA) 根據 token 重要性動態分配注意力資源,降低不必要的計算開銷。

Multi-head Latent Attention(MLA) 相比標準 multi-head attention,記憶體開銷降低 33%。

Context 漸進擴展 不是一開始就在 200K 上訓練,而是分階段擴展:

  • 32K(前 1T tokens)→ 128K(500B tokens)→ 200K(50B tokens)

Slime:非同步 RL 基礎設施

Slime 是 GLM-5 後訓練階段的核心,有幾個值得注意的設計:

  • 完全非同步:推理、評估、參數更新三個管線獨立運行
  • TITO 閘道(Token-in-Token-out):消除 re-tokenization 的不一致問題
  • FP8 推理:加速 rollout 速度
  • 心跳驅動的容錯:自動處理訓練中的節點故障
  • 每次 RL 運行產生 3,000-6,000 條訊息,專門磨練長程規劃和工具使用能力
  • 優化目標是端到端延遲而非聚合吞吐量

華為昇騰:零 NVIDIA 依賴

這可能是 GLM-5 最具戰略意義的技術細節。

2025 年 1 月,美國商務部將智譜列入實體清單。智譜隨即全面轉向華為昇騰 910B 晶片和 MindSpore 框架。GLM-5 的訓練使用了約 100,000 張昇騰 910B

這證明了一件事:前沿級模型的訓練不再必須依賴 NVIDIA。雖然效率上可能仍有差距,但「能不能做到」這個問題的答案已經是肯定的。


基準測試比較

與閉源模型的對比

基準GLM-5Claude Opus 4.5GPT-5.2Gemini 3 Pro
HLE(帶工具)50.4< 50.4< 50.4
HLE(無工具)30.5
AIME 2026 I92.793.3
GPQA-Diamond86.0
SWE-bench Verified77.880.980.063.8
SWE-bench 多語言73.3(9 種語言)

開源模型排名(2026 年 3 月)

Artificial Analysis Intelligence Index:

  • Gemini 3.1 Pro Preview:57
  • GPT-5.4:57
  • Claude Opus 4.6:53
  • GLM-5(推理模式):50 ← 開源第一
  • Kimi K2.5:47
  • Qwen3.5:45

LMArena Text Arena:

  • GLM-5:1452 分,總排名 #11,開源第一

簡單來說:GLM-5 是目前最強的開源模型,在部分基準上甚至超越了 Claude 和 GPT。


API 與定價

官方 API(Z.ai / BigModel.cn)

模型輸入(/1M tokens)Cache 命中輸出(/1M tokens)
GLM-5$1.00$0.20$3.20
GLM-5-Code$1.20$0.30$5.00
GLM-5-Turbo$1.20$4.00

與競品定價比較

模型輸入輸出倍率(vs GLM-5)
GLM-5$1.00$3.201x
Kimi K2.5$0.60$2.50更便宜
Claude Opus 4.6$5.00$25.005-8x 更貴
GPT-5.2顯著更貴

GLM-5 的定位很清楚:接近前沿閉源模型的能力,開源模型的定價

部署選項

  • 雲端 API:BigModel.cn、OpenRouter、NVIDIA NIM
  • 本地部署:支持 vLLM、SGLang、KTransformers、xLLM
  • MIT 授權:商用無限制

OpenClaw 與 Agent 生態

智譜圍繞 GLM-5 建立了一套完整的 agent 生態:

OpenClaw

OpenClaw 是智譜的 agent 框架,GLM-5-Turbo 是為它專門優化的模型。覆蓋六大場景:

  1. 資訊搜尋 — 網路搜尋和資料彙整
  2. 辦公自動化 — 文件生成、報告撰寫
  3. 日常任務 — 排程、提醒、生活管理
  4. 資料分析 — 數據處理和視覺化
  5. 軟體開發 — 程式碼生成、除錯、重構
  6. 多 Agent 協作 — 多個 agent 協同完成複雜任務

GLM-5-Turbo 的工具調用錯誤率僅 0.67%,遠低於其他模型的 2-6%。

AutoGLM

AutoGLM 是一個獨立的手機 agent 應用,用語音指令操作手機完成各種任務。智譜稱其為「中國最早的 agent 模型」。

CodeGeeX

智譜的 AI 程式碼助手,類似 GitHub Copilot,基於 GLM 系列模型。


市場定位

在中國

  • AI 六小虎之首:智譜是六家中國 AI 新創(智譜、月之暗面、MiniMax、百川、零一萬物、階躍星辰)中第一家上市的
  • 政府市場龍頭:中國政府 AI 支出的 70% 必須使用「首批」國產模型,智譜佔最大份額
  • 服務超過 50% 的中國前十大互聯網公司,290 萬用戶(15% 付費),12,000 家企業客戶

在全球

  • 開源第一:LMArena 和 Artificial Analysis 雙料開源冠軍
  • 主權 AI:為東南亞和中東國家提供「AI-in-a-Box」解決方案(印尼、越南、馬來西亞、新加坡、阿聯酋、沙烏地、肯亞)
  • 在新加坡、英國、馬來西亞設有辦公室

戰略意義

GLM-5 最大的故事可能不是基準分數,而是它證明了:

一個被列入美國實體清單的中國公司,用純國產硬體訓練出了前沿級模型,然後以 MIT 授權開源。

這對全球 AI 格局的影響,可能比任何單一基準分數都更深遠。


值得關注的點

優勢

  • 開源最強:MIT 授權 + 開源第一的排名,對開發者極具吸引力
  • 成本效益:接近閉源前沿的能力,1/5 到 1/8 的價格
  • Agent 生態完整:從底層模型到 OpenClaw 框架到終端應用(AutoGLM、CodeGeeX)
  • 非美國硬體:對受出口管制影響的國家和企業有戰略價值
  • 幻覺控制:Slime RL 框架的 34% 幻覺率是顯著進步

挑戰

  • SWE-bench 等軟體工程基準仍落後 Claude 和 GPT 約 3 個百分點
  • 英文寫作品質和 MMLU-Pro 等通用知識基準仍有差距
  • 華為昇騰的訓練效率是否能跟上 NVIDIA 的迭代速度仍是未知數
  • 國際品牌知名度不如 OpenAI、Anthropic、Google
  • 地緣政治因素可能影響國際市場的採用意願

結語

GLM-5 代表了中國 AI 發展的一個重要里程碑:它不只是「又一個追趕者」,而是在多個維度(開源排名、agent 能力、成本效益、硬體獨立性)上展現了差異化的競爭力。

對於開發者來說,GLM-5 的 MIT 授權和有競爭力的 API 定價讓它成為一個認真的選項——特別是如果你在做 agent 應用、需要中文能力、或者對供應商多元化有需求。

對於觀察 AI 產業的人來說,智譜從清華實驗室到港交所上市、從 NVIDIA GPU 到華為昇騰的歷程,本身就是一個值得深入了解的故事。


參考資料