最近,與脆弱性相關的文章受到越來越多的關注 @nix。
Microsoft 365 Copilot 作為可以訪問業務數據的 AI 正在普及,但因其自動解析內容的特性,存在被惡意利用的風險。過去的「EchoLeak」事件中,發生了不需要用戶操作的零點擊信息洩漏,並且 Microsoft 進行了修復。然而,即使在零點擊路徑被封鎖後,攻擊者仍然在持續適應其他手法。
GBHackers 報告的攻擊手法是讓惡意文檔被 Copilot 總結以提取內部數據,並根據其總結結果生成偽造的登錄按鈕等來引導用戶,這是一種一鍵式的手法。與 EchoLeak 的零點擊型不同的是,這種「AI 進行信息收集→生成偽 UI→用戶操作→洩漏」的多層結構使得檢測變得困難。
攻擊方法的名稱尚未官方定義,因此以下將由 Adam Logue 指出的方法稱為「通過 Mermaid 圖進行任意數據洩漏」(Arbitrary Data Exfiltration Via Mermaid Diagrams)簡稱為「Mermaid 型」。
當攻擊者植入的惡意內容到達租戶時,Copilot 將自動解析接收內容並進行提示注入。Copilot 通過連接器搜索並獲取內部郵件或文件,並將其內容發送到攻擊者指定的外部位置,洩漏機密。這種不需要用戶操作的「零點擊」案例是其特徵。
攻擊者發送嵌入命令和偽 UI 的惡意文檔(如使用 mermaid 等技術)。用戶要求 Copilot 總結或解釋時,提示注入將激活,Copilot 會獲取內部數據並自動生成偽造的登錄按鈕。當用戶點擊該按鈕後,機密數據將通過正規服務或中繼路徑帶出外部。
詳細介紹該手法的網站簡潔地表述為下:
AI 助理的便利性雖高,但若設置或權限鬆散,內部信息有可能會從意想不到的路徑被帶出。應優先實施以下對策。
優先對策(應立即執行的順序)
在 Adam Logue 的驗證中,詳細說明了 Copilot 如何將搜索的郵件以 hex 編碼方式嵌入 mermaid 的鏈接,並在點擊後發送到攻擊者的伺服器。Microsoft 已經對 mermaid 動態交互的功能進行了禁用以進行緩解,但管理者必須確認補丁適用狀況及動態內容的呈現設置。
AI 雖便利,但也當然存在引發意外操作的風險。
希望能夠在充分了解的基礎上妥善共存。
如果您喜歡這篇文章,請考慮關注 @nix。