🔧 阿川の電商水電行
Shopify 顧問、維護與客製化
💡
小任務 / 單次支援方案
單次處理 Shopify 修正/微調
⭐️
維護方案
每月 Shopify 技術支援 + 小修改 + 諮詢
🚀
專案建置
Shopify 功能導入、培訓 + 分階段交付

阿里出手了!終於不怕OpenClaw燒token啦,直接算力自由~

大家好,我是袋鼠帝。

最近這幾天,我聽到好多朋友都在抱怨:OpenClaw 好是好用,就是太費 Token 了!

圖片 圖片

Claude Code 也是一樣的,用它來做 Vibe Coding 確實爽,但同樣非常燒token。然後,每次想切換個模型,還要改配置,重啟...

然後我現在其實是同時開了智譜、Kimi、minimax的coding plan,月花費將近1K了...

而且每次切換模型,我都要把API地址,apikey,模型名稱都切換一遍..

然後今天早上我打開微信,突然發現:阿里雲上新了 Coding Plan

圖片 圖片

最關鍵的是,它一口氣支持了自家除夕最新發布的Qwen-3.5、除夕前一個週Kimi發布的Kimi-K2.5,還有智譜的GLM-4.7。

雖然沒上最新的 GLM-5 有點可惜(畢竟剛開源,估計還在適配),但我真心希望後續能給加上。如果後續能再把 MiniMax-M2.5 也拉進來,那這套陣容就徹底無敵了。

不過話說回來,這幾個模型的能力就不用我再多強調了吧?絕對是目前國內編程和 Agent 領域的第一梯隊。

除夕夜剛剛發布的 Qwen-3.5,在很多測試裡的表現簡直強得離譜。

Kimi-K2.5 也是除夕前一周剛剛升級的多模態模型,推理和長文本、編程能力大家有目共睹。

至於 GLM-4.7,雖然在 Agent 和複雜系統工程能力上比GLM-5稍弱,但4.7 有個巨大的優勢:快!

GLM-5主要是做複雜任務的,雖然任務質量高了,但過程挺慢的,而 4.7 的響應速度非常適合接入 OpenClaw(小龍蝦)這種個人助理應用。

畢竟你找個助理幫你幹活,肯定是希望他秒回,不然你體感上總會覺得他是不是睡著了。

阿里雲這個 Coding Plan 最大的好處,就是一次購買,全家桶帶走。

這幾家的頂尖模型你隨便切換使用。

圖片 圖片 圖片

選完之後,根據引導,會跳轉到配置頁面。

圖片

點擊生成 API Key,複製並保存好這串專屬密鑰。

注意,這個 Key 的格式是 sk-sp- 開頭的,千萬別和百煉通用的 Key 搞混了。

然後,我點開了右上角的「使用指南」。

這裡真的要給阿里雲的產品經理點個讚。

非常貼心的同時提供了 OpenAI 兼容協議 和 Anthropic 兼容協議 的兩套 API 地址。

圖片

OpenAI 兼容地址:
coding.dashscope.aliyuncs.com/v1

Anthropic 兼容地址:
coding.dashscope.aliyuncs.com/apps/anthropic

這意味著你可以拿著這個API接口,無縫接入市面上幾乎所有主流的 AI 編程工具和 Agent 框架。

圖片

另外,阿里雲的coding plan不按 Token 計費,而是按請求次數

emmm,這下應該不怕燒token了。

大家都知道,像 OpenClaw、Claude Code 這種 Agent 工具,在執行一個複雜任務時,會在後台進行大量的多輪規劃、工具調用、自我反思。

這個過程中產生的 Token 消耗量是指數級增長的。

有數據顯示,單個 Agent 的算力消耗是傳統 Chatbot 的 100 到 1000 倍。

以前按 Token 算錢,你看着它在後台瘋狂思考,心就在滴血。

如果按次收費,那終於可以心安理得的把複雜的任務交給它,自己去喝杯茶了。

圖片

當然,作為 API 來使用,除了量大管飽,最重要的還是穩定和速度。

阿里雲作為亞太第一雲廠商,算力底座這塊絕對是讓人放心的。

下面,我就給大家實操作演示一下,怎麼把它接入到我平時最常用的兩個工具(Claude Code和openclaw)。以及實用情況如何。

接入 Claude Code

接入過程非常簡單,

把下面的配置寫到Claude Code的setting.json配置文件中

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "填寫阿里雲coding plan的apikey",
    "ANTHROPIC_BASE_URL": "https://coding.dashscope.aliyuncs.com/apps/anthropic",
    "ANTHROPIC_MODEL": "填寫模型名稱"
  }
}

圖片

對了,支持的模型名稱有:
qwen3.5-plus、qwen3-max-2026-01-23、qwen3-coder-next、qwen3-coder-plus、glm-4.7、kimi-k2.5

然後,你可以隨意在多個模型之間切換,完全不需要改配置。

只需要在claude Code的對話框中執行

/model 模型名稱

圖片

正好,我最近在開發我的 營銷短視頻一鍵生成平台 ,遇到了個 Bug。

Prompt:我希望在 极速创作-脚本库选择 页面,如果我在自定義編輯框裡輸入了文案,即使我沒有點擊 保存到腳本庫 ,這段文案也能直接被引入到視頻生成的 Prompt 中。而現在的邏輯是,系統默認還會去讀取原來選中的那個老文案。另外,如果我點擊了 保存 ,系統只彈了個保存成功的提示,但數據庫裡根本沒存進去。請幫我修復一下

我初步試了一下,這個回覆速度真很快了(不知道是不是今天剛上,還沒有多少人用的原因)

wxv_4398160152214749185

而且非常穩定,我之前用一些coding plan,會出現那種卡死的情況,就是半天都沒反應,然後突然又莫名其妙不執行任務,這個問題在阿里雲這次的coding plan上沒有出現。

接入 OpenClaw

把下面的配置項替換一下,雲上部署的位置在/root/.openclaw/openclaw.json

主要就關注openclaw.json裡面的models和agents配置,注意把apikey填上

{
  "models": {
    "mode": "merge",
    "providers": {
      "bailian": {
        "baseUrl": "https://coding.dashscope.aliyuncs.com/v1",
        "apiKey": "這裡填阿里雲coding plan的apikey",
        "api": "openai-completions",
        "models": [
          {
            "id": "qwen3.5-plus",
            "name": "qwen3.5-plus",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 262144,
            "maxTokens": 65536
          }
        ]
      }
    },
    "agents": {
      "defaults": {
        "model": {
          "primary": "bailian/qwen3.5-plus"
        },
        "models": {
          "bailian/qwen3.5-plus": {
            "alias": "qwen3.5-plus"
          }
        },
        "maxConcurrent": 4,
        "subagents": {
          "maxConcurrent": 8
        }
      }
    }
  }
}

修改完配置,保存

執行如下指令,重啟openclaw生效:

openclaw gateway restart

這次我把模型切到了阿里最新的qwen3.5-plus。

圖片

大家都知道這幾天一直在傳 DeepSeek V4 可能在大年初一發布。

我實在是不想自己一直去刷DeepSeek的消息,于是我給 OpenClaw 下了個任務。

設置好之後,我就把它掛在後台了。

圖片

按次計費就是這點好,哪怕它每 5 分鐘去調用一次模型分析網頁內容,我也不心疼。

回到控制台看了一下使用量,只使用了21次,如果我們想要把價值拉滿,就少發:“你好”,“在嗎”🤣,儘量每次都給複雜任務,讓它多跑token

不過需要注意一下,一次複雜問題,可能會觸發10-20次模型調用

圖片

不得不說,阿里雲這波 Coding Plan 真的很有誠意。

對比了一下市面上其他幾家的訂閱服務,阿里雲在價格上的優勢明顯。

而且,模型選擇多。加上阿里雲充足的算力保障,服務極其穩定。

我之前在深圳做專案管理的時候,待過的幾家公司基本都用的阿里雲伺服器,所以對他們的底層基建還是很有信心的。

如果你只是平時寫點小腳本,或者偶爾用 AI 輔助一下工作,選擇Lite基礎套餐就足夠了。每個月 18000 次請求,絕對夠你折騰。

但如果你像我一樣,是個開發者,或者重度依賴 Agent 來處理複雜的自動化工作流。每個月 90000 次請求,基本上等於實現了算力自由。

如果你覺得這篇文章對你有幫助,記得點讚、收藏,分享給身邊有需要的朋友。

讓我們一起,在新的一年裡,效率起飛,馬到成功!

我是袋鼠帝,一個致力於幫你把AI變成生產力的博主。我們下期見。

謝謝你耐心看完我的文章~


原文出處:https://juejin.cn/post/7610637031321698330


精選技術文章翻譯,幫助開發者持續吸收新知。

共有 0 則留言


精選技術文章翻譯,幫助開發者持續吸收新知。
🏆 本月排行榜
🥇
站長阿川
📝22  
624
🥈
我愛JS
💬2  
7
評分標準:發文×10 + 留言×3 + 獲讚×5 + 點讚×1 + 瀏覽數÷10
本數據每小時更新一次
🔧 阿川の電商水電行
Shopify 顧問、維護與客製化
💡
小任務 / 單次支援方案
單次處理 Shopify 修正/微調
⭐️
維護方案
每月 Shopify 技術支援 + 小修改 + 諮詢
🚀
專案建置
Shopify 功能導入、培訓 + 分階段交付