大家好,我是最近天天被AI狂轟濫炸的袋鼠帝。
先看看我用GLM-5優化的行銷短影片一鍵生成平台

生成效果不重要,後面接入更好的模型即可,關鍵是平台能力搭建起來了。
真的,2026年的AI比25年瘋太多了。
最近我這個一天16個小時泡在AI裡面的人,都有點追不上AI進化的速度。感覺每天一睜眼,世界就變了個樣。
這不,昨天深夜,智譜又放了個大招,直接開源了他們目前最強的旗艦模型:GLM-5。
在全球權威的Artificial Analysis榜單裡,GLM-5超越Gemini干到了全球第四、開源第一!

還真是如我所料啊,記得上次GLM-4.7發布的時候,我就在文章裡跟兄弟們預測了一波:盲猜GLM-4.8或者GLM-5將在春節前夕發布,沒想到真來了,哈哈😄

而且這次的版本號終於不像之前那樣4.5、4.6、4.7這樣擠牙膏式的更新了,這次直接干到了5.0。
這就說明,不是什麼小修小補,是底座能力的大跨越。
先給大家介紹一下,這次GLM-5到底更新了啥:
簡單來說,以前的模型,大家普遍都在卷Vibe Coding,就是所謂的一句話生成,看誰生成的網頁特效更炫酷,看誰能一句話搓個炫酷的遊戲。
但GLM-5這次不跟你卷這個了(終於!),它把大模型的能力從寫程式碼,提升到能構建系統。
什麼意思呢?它的重心不再是寫漂亮的前端頁面,而是進化成了一個能幹髒活、累活、做長任務的系統架構師。
強調的是Agentic Engineering,也就是智能體工程能力。
我看了一下官方的數據,參數規模從355B干到了744B(激活40),預訓練數據從23T提升到了28.5T。
在SWE-bench-Verified這個公認的程式設計基準測試裡,得分77.8,直接把Gemini 3 Pro甩在了身後,和目前公認的最強閉源模型Claude Opus 4.5可以說是不相上下。

目前在z.ai上面就可以免費使用:

開源地址:
GitHub:github.com/zai-org/GLM…
Hugging Face:huggingface.co/zai-org/GLM…
ModelScope:modelscope.cn/models/Zhip…
其實在前幾天,X上就突然冒出來一個叫Pony的神秘模型。
當時很多朋友都在猜,這個Pony到底是哪路神仙?眾說紛紜

其實代號Pony的模型就是GLM-5,至於為什麼叫Pony呢,大概是因為馬年快到了吧🤔。
我當時也第一時間從OpenRouter把Pony接入到Claude Code裡試用了一下,說實話,真滴很強(在X上熱度也是非常高)。

只花了7分鐘,一次性生成了一個API中轉站!

雖然還是MVP Demo,但是頁面功能已經很齊全了,而且包含後端邏輯,以及數據庫,數據是動態的,麻雀雖小五臟俱全。

在深度體驗後,我發現GLM-5在制定計畫的時候,那種味道,太像Claude Opus了。
熟悉Claude Opus的朋友都知道,在幹活之前,可以用它會給你列一個非常詳細、邏輯嚴密的計畫。
GLM-5現在也有了這個能力。
比如,我有一個一直想做,但是因為懶一直沒動手的事兒。
我手頭有Gemini、ChatGPT、Kimi、智譜等等一堆會員帳號。
平時寫文章或者查資料的時候,有些問題我經常會想聽聽多個AI的意見,綜合對比一下。
那我就得打開多個瀏覽器窗口,複製切換不同窗口粘貼發送多次,然後輪流切換窗口查看結果。
雖然也不是多大的事兒,但次數多了真的很煩。
我就在想,能不能做一個瀏覽器插件,能統一在一個窗口裡面,同時向這四個AI的網頁端發送同一個問題,然後在插件裡面統一收到回覆?
但是這玩意兒還挺麻煩的,因為每個AI網站的結構都不一樣,還有各種保護機制,需要去分析它們的DOM結構。
於是,我就把這個複雜的任務交給了GLM-5。
開啟Claude Code的計畫模式先讓它做個計畫

PS:上面這個輸出就挺像Claude Opus的風格
然後它還會跟我互動,詢問我的意見:

最終得到的計畫非常詳細,真的太長了,有633行。。

然後就按照計畫開始吭哧吭哧執行了,沒想到第一步初始化專案就跑了50多分鐘..
在這個過程中,它自動調用Playwright MCP工具,自動打開瀏覽器,去訪問那幾個AI的網站。
它就像一個真的程式員一樣,去鍵檢查元素,去分析輸入框在哪裡,發送按鈕的Class是什麼,怎麼獲取返回的文本流...整個過程全自動,我一行程式碼都沒寫。
PS:忘記錄屏了,因為我同時還在其他窗口跑另一個任務

等待是值得的,我想要的一次提問、全網AI同時回答的插件,就這麼熱氣騰騰地出爐了。
這完全就是我需要的東西~

另外,我之前不是做了一個數位人行銷視頻一鍵生成平台嘛。
後來為了追求更好的體驗,我重構了一下前端,這一重構不要緊,整個專案可以說是亂成了一鍋粥:前後端介面對不上,後端的一些老舊邏輯在新前端面前跑不通,Bug非常多,搞起來很麻煩。
這次,我在Claude Code開啟plan mode,然後直接把主流程找bug,改bug的任務甩給了GLM-5
先出來一份詳細的計畫:

確認計畫無誤後,我就讓它吭哧吭哧開始執行了(過程中用到了瀏覽器mcp來控制)。

它的執行速度並不快。
但並不是模型慢,很多時候,我看那個Token的消耗速度,肉眼可見地一秒鐘就竄到上千了。
但是因為任務太複雜,它需要不斷地自我反思、調用工具、運行測試。
也有一些時間是消耗在依賴下載,或者命令執行上。
這個修復任務,也整整執行了40多分鐘。
可能有的朋友會說,40分鐘?我都寫完了。
emmm,但這40分鐘裡,我就開著錄屏,刷視頻,甚至去遛了狗。
而它是在全神貫注幫我幹活,而且是在幹那種最讓人頭秃的找Bug和重構的活。
別看它執行得慢,但是最終得到的效果是非常顯著的。
我一運行,好家伙,問題基本都搞定了。
請看VCR:

這裡面也有一些效果是我後續自己測試的時候發現小Bug,然後讓它修復並優化的。
但是在修Bug和優化功能這塊,我是真的放心交給它。
以前用別的AI改Bug,經常是擔心bug越改越多,專案越改越亂,典型的拆了東牆補西牆..
之前為了規避這個問題,得用各種工程化的手段去約束AI。
比如每次修改強調範圍,或者把這些寫到規則裡面,或者每次只改一個bug,每次改完,還得測一下別的功能...反正很麻煩。
但是用GLM-5修改Bug,體驗完全變了。
我從來就是只需要描述現狀,把報錯日誌丟給它,告訴它我期望的效果是什麼。
它幾乎都能一次修復成功,而且完全不會影響別的功能。
甚至,我在一次對話中,直接把整個流程中發現的四個不同的Bug,一股腦全扔給它,它也能條理清晰的一個個修好。

這種穩健的感覺,真的太舒服了。
我現在可以放心交給GLM-5幫我完成任何複雜的開發任務,基本不會出錯。
即便偶爾有問題,大不了在Claude Code裡面執行一下回滾命令,倒回去重來就好了。
整個專案用GLM-5優化了一圈之後,所有流程基本都搞定了。
我也準備很快就把這個專案開源出來(還需要再把各種模型API那塊抽出來,變成配置)。
體驗完GLM-5,我最大的感受就是:國產AI真的站起來了。
前幾天,字節跳動的Seedance 2.0發布,證明了中國國產模型在視頻生成領域已經達到了世界第一水平,直接超越Sora2和Veo3.1。
而這次智譜GLM-5的發布,則是在另一個硬核的賽道AI Coding上,交出了一份超預期的答卷。
我們以前總說,國產模型在邏輯推理、在寫程式碼上,跟GPT、跟Claude Opus、跟Gemini還有差距。
但今天,GLM-5用實打實的表現告訴我們:這個差距正在被抹平。
GLM-5也不是一個只能用來做Demo的玩具,它是一個真正能幫你幹活、能幫你構建系統、能幫你解決長任務、複雜問題的生產力工具。
最關鍵的是,它是開源的。
這意味着,每一個開發者,每一個企業,都可以以更低的成本,擁有一個頂級的AI架構師。
官方發公告說,正在緊急擴容,而且重點是,這次接入的是國產芯片的萬卡集群。

這裡也可以看出,從芯片到模型,從底層算力到上層應用,我們正在構建一套完全屬於自己的、世界頂級的AI技術栈。
2026年,注定是AI應用爆發的一年,也是更瘋狂的一年。
如果你也想體驗這種擁有頂級AI架構師的感覺,趕緊去試試GLM-5吧。
前提是你得搶到Max套餐,哈哈。
我是袋鼠帝,一個春節還在努力更新的AI博主~
謝謝你耐心看完我的文章~