大家好,我是袋鼠帝。
最近這幾天,我聽到好多朋友都在抱怨:OpenClaw 好是好用,就是太費 Token 了!

Claude Code 也是一樣的,用它來做 Vibe Coding 確實爽,但同樣非常燒token。然後,每次想切換個模型,還要改配置,重啟...
然後我現在其實是同時開了智譜、Kimi、minimax的coding plan,月花費將近1K了...
而且每次切換模型,我都要把API地址,apikey,模型名稱都切換一遍..
然後今天早上我打開微信,突然發現:阿里雲上新了 Coding Plan

最關鍵的是,它一口氣支持了自家除夕最新發布的Qwen-3.5、除夕前一個週Kimi發布的Kimi-K2.5,還有智譜的GLM-4.7。
雖然沒上最新的 GLM-5 有點可惜(畢竟剛開源,估計還在適配),但我真心希望後續能給加上。如果後續能再把 MiniMax-M2.5 也拉進來,那這套陣容就徹底無敵了。
不過話說回來,這幾個模型的能力就不用我再多強調了吧?絕對是目前國內編程和 Agent 領域的第一梯隊。
除夕夜剛剛發布的 Qwen-3.5,在很多測試裡的表現簡直強得離譜。
Kimi-K2.5 也是除夕前一周剛剛升級的多模態模型,推理和長文本、編程能力大家有目共睹。
至於 GLM-4.7,雖然在 Agent 和複雜系統工程能力上比GLM-5稍弱,但4.7 有個巨大的優勢:快!
GLM-5主要是做複雜任務的,雖然任務質量高了,但過程挺慢的,而 4.7 的響應速度非常適合接入 OpenClaw(小龍蝦)這種個人助理應用。
畢竟你找個助理幫你幹活,肯定是希望他秒回,不然你體感上總會覺得他是不是睡著了。
阿里雲這個 Coding Plan 最大的好處,就是一次購買,全家桶帶走。
這幾家的頂尖模型你隨便切換使用。

選完之後,根據引導,會跳轉到配置頁面。

點擊生成 API Key,複製並保存好這串專屬密鑰。
注意,這個 Key 的格式是 sk-sp- 開頭的,千萬別和百煉通用的 Key 搞混了。
然後,我點開了右上角的「使用指南」。
這裡真的要給阿里雲的產品經理點個讚。
非常貼心的同時提供了 OpenAI 兼容協議 和 Anthropic 兼容協議 的兩套 API 地址。

OpenAI 兼容地址:
coding.dashscope.aliyuncs.com/v1
Anthropic 兼容地址:
coding.dashscope.aliyuncs.com/apps/anthropic
這意味著你可以拿著這個API接口,無縫接入市面上幾乎所有主流的 AI 編程工具和 Agent 框架。

另外,阿里雲的coding plan不按 Token 計費,而是按請求次數
emmm,這下應該不怕燒token了。
大家都知道,像 OpenClaw、Claude Code 這種 Agent 工具,在執行一個複雜任務時,會在後台進行大量的多輪規劃、工具調用、自我反思。
這個過程中產生的 Token 消耗量是指數級增長的。
有數據顯示,單個 Agent 的算力消耗是傳統 Chatbot 的 100 到 1000 倍。
以前按 Token 算錢,你看着它在後台瘋狂思考,心就在滴血。
如果按次收費,那終於可以心安理得的把複雜的任務交給它,自己去喝杯茶了。

當然,作為 API 來使用,除了量大管飽,最重要的還是穩定和速度。
阿里雲作為亞太第一雲廠商,算力底座這塊絕對是讓人放心的。
下面,我就給大家實操作演示一下,怎麼把它接入到我平時最常用的兩個工具(Claude Code和openclaw)。以及實用情況如何。
接入過程非常簡單,
把下面的配置寫到Claude Code的setting.json配置文件中
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "填寫阿里雲coding plan的apikey",
"ANTHROPIC_BASE_URL": "https://coding.dashscope.aliyuncs.com/apps/anthropic",
"ANTHROPIC_MODEL": "填寫模型名稱"
}
}

對了,支持的模型名稱有:
qwen3.5-plus、qwen3-max-2026-01-23、qwen3-coder-next、qwen3-coder-plus、glm-4.7、kimi-k2.5
然後,你可以隨意在多個模型之間切換,完全不需要改配置。
只需要在claude Code的對話框中執行
/model 模型名稱

正好,我最近在開發我的 營銷短視頻一鍵生成平台 ,遇到了個 Bug。
Prompt:我希望在 极速创作-脚本库选择 页面,如果我在自定義編輯框裡輸入了文案,即使我沒有點擊 保存到腳本庫 ,這段文案也能直接被引入到視頻生成的 Prompt 中。而現在的邏輯是,系統默認還會去讀取原來選中的那個老文案。另外,如果我點擊了 保存 ,系統只彈了個保存成功的提示,但數據庫裡根本沒存進去。請幫我修復一下
我初步試了一下,這個回覆速度真很快了(不知道是不是今天剛上,還沒有多少人用的原因)

而且非常穩定,我之前用一些coding plan,會出現那種卡死的情況,就是半天都沒反應,然後突然又莫名其妙不執行任務,這個問題在阿里雲這次的coding plan上沒有出現。
接入 OpenClaw
把下面的配置項替換一下,雲上部署的位置在/root/.openclaw/openclaw.json
主要就關注openclaw.json裡面的models和agents配置,注意把apikey填上
{
"models": {
"mode": "merge",
"providers": {
"bailian": {
"baseUrl": "https://coding.dashscope.aliyuncs.com/v1",
"apiKey": "這裡填阿里雲coding plan的apikey",
"api": "openai-completions",
"models": [
{
"id": "qwen3.5-plus",
"name": "qwen3.5-plus",
"reasoning": false,
"input": [
"text"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 262144,
"maxTokens": 65536
}
]
}
},
"agents": {
"defaults": {
"model": {
"primary": "bailian/qwen3.5-plus"
},
"models": {
"bailian/qwen3.5-plus": {
"alias": "qwen3.5-plus"
}
},
"maxConcurrent": 4,
"subagents": {
"maxConcurrent": 8
}
}
}
}
}
修改完配置,保存
執行如下指令,重啟openclaw生效:
openclaw gateway restart
這次我把模型切到了阿里最新的qwen3.5-plus。

大家都知道這幾天一直在傳 DeepSeek V4 可能在大年初一發布。
我實在是不想自己一直去刷DeepSeek的消息,于是我給 OpenClaw 下了個任務。
設置好之後,我就把它掛在後台了。

按次計費就是這點好,哪怕它每 5 分鐘去調用一次模型分析網頁內容,我也不心疼。
回到控制台看了一下使用量,只使用了21次,如果我們想要把價值拉滿,就少發:“你好”,“在嗎”🤣,儘量每次都給複雜任務,讓它多跑token
不過需要注意一下,一次複雜問題,可能會觸發10-20次模型調用

不得不說,阿里雲這波 Coding Plan 真的很有誠意。
對比了一下市面上其他幾家的訂閱服務,阿里雲在價格上的優勢明顯。
而且,模型選擇多。加上阿里雲充足的算力保障,服務極其穩定。
我之前在深圳做專案管理的時候,待過的幾家公司基本都用的阿里雲伺服器,所以對他們的底層基建還是很有信心的。
如果你只是平時寫點小腳本,或者偶爾用 AI 輔助一下工作,選擇Lite基礎套餐就足夠了。每個月 18000 次請求,絕對夠你折騰。
但如果你像我一樣,是個開發者,或者重度依賴 Agent 來處理複雜的自動化工作流。每個月 90000 次請求,基本上等於實現了算力自由。
如果你覺得這篇文章對你有幫助,記得點讚、收藏,分享給身邊有需要的朋友。
讓我們一起,在新的一年裡,效率起飛,馬到成功!
我是袋鼠帝,一個致力於幫你把AI變成生產力的博主。我們下期見。
謝謝你耐心看完我的文章~