2026年2月20日,Anthropic 宣布推出在 Claude Code 上運作的安全掃描功能「Claude Code Security」。
瞬間,網路安全股紛紛暴跌。
📉 2026/02/20 網路安全股動態:
JFrog (FROG): -25%
Okta (OKTA): -9.2%
SailPoint: -9.4%
CrowdStrike (CRWD): -8%
Cloudflare (NET): -8%
Zscaler: -5.5%
Global X Cyber ETF: -4.9%(自2023年11月以來的最低點)
僅僅因為一個 AI 工具的發布,安全行業整體受到了震動。
而且,巴克萊的分析師指出「這一賣盤是過度反應」,因為 Claude Code Security 並非直接與現有安全公司競爭的產品,卻使市場發生如此大的波動。
這正是AI 會改變安全結構的認知在擴大。
簡單來說,AI 像人類安全研究員一樣讀取代碼並找出漏洞的工具。
與傳統的靜態分析工具(SAST)根本上採取不同的方式。
【傳統 SAST(如 SonarQube、Snyk 等)】
基於規則 → 搜索已知的模式
↓
如果與模式匹配則報告
↓
如果不匹配則忽略
問題: 無法找到未知模式、複雜的數據流、邏輯缺陷
【Claude Code Security】
AI 進行推理 → 讀取整個代碼,理解組件間的
互動
↓
跟蹤數據的流向
↓
像人類安全研究員一樣
發現邏輯缺陷
↓
自我驗證發現(多階段驗證)
↓
提出修正補丁
1. 基於推理的分析
不依賴於規則,理解代碼的含義以找出漏洞。「這個變數來自用戶輸入,並且未經淨化就傳遞給 SQL 查詢」,這種理解上下文的推理能夠實現。
2. 多階段驗證
Claude 自行重新檢查發現的漏洞,試圖反駁自己的發現「這真的能被利用嗎?」「這真的算是漏洞嗎?」。這樣可以減少假陽性。
3. 嚴重性與確信度評估
對每一個發現都附加嚴重性(Severity)和確信度(Confidence)等級。讓團隊能夠更容易地設定優先順序。
4. 人工干預
不會自動應用修正,開發者必須確認並批准後才會應用修正。
在 Claude Code Security 的開發過程中,Anthropic 使用 Claude Opus 4.6 對正在運行的開源代碼庫進行了掃描。
結果顯示: 發現超過 500 件高危漏洞,這些漏洞在過去幾十年內未被專家審核過的 bug。
| 專案 | 漏洞類型 | 詳細 |
|---|---|---|
| Ghostscript | 解析邊界檢查漏洞 | 在解析 Git 提交歷史時引發崩潰 |
| OpenSC | 緩衝區溢出 | 透過分析 strrchr() 和 strcat() 函數調用發現 |
| CGIF | 堆緩衝區溢出 | GIF 圖像庫。在 v0.5.1 中已修補 |
Anthropic 對 CGIF 的漏洞這樣說明:
「發現這個漏洞需要概念性理解 LZW 算法和 GIF 文件格式之間的關係」
傳統的模糊測試工具僅增加代碼覆蓋率無法達到,理解特定的分支序列所需的概念性知識是必須的。這意味著基於規則的工具原理上無法找到這種類型的 bug。
更重要的是,Claude 能在沒有特定任務工具、定制機制或專用提示的情況下發現這一漏洞,僅憑通用的代碼推理能力就找出了 500 多件零日漏洞。
傳統 SAST 擅長的事:
├── 偵測已知的 CVE 模式
├── SQL 注入等常見模式
├── 檢查依賴庫的漏洞
└── 組合 CI/CD 管道
傳統 SAST 不擅長的事:
├── 未知的漏洞(零日)
├── 複雜業務邏輯缺陷
├── 由組件之間相互作用引起的 bug
├── 小眾語言或框架
└── 算法層級的邏輯錯誤
Claude Code Security 就是瞄準這個「不擅長的領域」。
不僅僅是 Anthropic。OpenAI 在約 4 個月前也發布了「Aardvark」這個安全研究代理。
| 項目 | Claude Code Security | OpenAI Aardvark |
|---|---|---|
| 基礎模型 | Claude Opus 4.6 | GPT-5 |
| 方法 | 代碼推理 + 多階段驗證 | 提交監控 + 推理 |
| 基準準確度 | — | 偵測已知漏洞的 92% |
| 沙盒 | — | 在隔離環境下驗證可利用性 |
| 提供形式 | 企業/團隊專用預覽 | — |
| OSS 支援 | 為維護者提供免費優先訪問 | — |
兩家公司皆在「讓 AI 像人類安全研究員一樣進行推理」方面達成共識。從傳統的模式匹配轉向 AI 推理,正是整個行業的趨勢。
不過,早期基準中也出現了一些挑戰。根據某 Semgrep 的研究,對同一代碼庫執行相同提示三次後,檢測數量分別為 3 件、6 件和 11 件,結果很不一致。重現性確保仍在發展中。
過去,想要進行專業的漏洞診斷,必須委託安全專家顧問或投入高額工具。Claude Code Security 允許 Enterprise/Team 計劃的用戶無需額外成本使用。
開源軟體維護者將獲得免費的優先訪問,這是一個重大的利好。即使是缺乏資金的個人開源項目,也能獲得企業級的安全掃描。
這裡有諷刺之處。
最近的研究顯示,AI 生成代碼中有 25% 至 40% 包含安全漏洞,包括 SQL 注入、XSS 和不安全的認證模式等。
換句話說,AI 所寫的代碼的 bug,將由另一個 AI 找出。
開發者使用 AI 編寫代碼
↓
AI 生成含漏洞的代碼(25%至40% 機率)
↓
Claude Code Security 掃描 AI 的代碼
↓
發現漏洞並提出修正補丁
↓
開發者確認並應用
AI 修正 AI 的 bug。 這就是 2026 年的開發工作流程。
Anthropic Frontier Red Team 的領導者 Logan Graham 說:
「這將成為大幅增強安全團隊能力的工具」
該強調「增強」而不是「取代」。即使 AI 發現了漏洞,可達性分析(Reachability)、可利用性評估和運營上的優先處理仍然需要人類專家的參與。
安全工程師的工作從「找出漏洞」逐步轉向「評估 AI 發現的漏洞影響」。
Claude 的能力可用於攻擊和防守的雙重用途技術。Anthropic 採取了一些安全措施。
1. 使用限制
測試者只能掃描「自家擁有且有權掃描的代碼」。禁止無授權掃描第三方、許可代碼或 OSS。
2. 濫用檢測
實現了一種檢測惡意使用的機制。
3. 負責任的披露
在開源中發現的漏洞,與維護者協作經過負責任的披露過程。
4. 分階段發布
並不會立即公開,而是從企業/團隊專用預覽開始。
可以從 claude.com/contact-sales/security 申請免費的優先訪問。
如果這篇文章對你有幫助,請點讚並保存!
如果你對 AI 時代的安全有意見,請在評論中告訴我們。
Claude Code Security - Anthropic
Claude Opus 4.6 Finds 500+ High-Severity Flaws Across Major Open-Source Libraries - The Hacker News
Cybersecurity stocks drop after Anthropic debuts Claude Code Security - SiliconANGLE
AI can now hunt software bugs on its own - Fortune
Cybersecurity stocks fall after Anthropic unveils Claude Code Security - Seeking Alpha
Introducing Aardvark: OpenAI's agentic security researcher - OpenAI