Microsoft 確認旗下 Microsoft 365 Copilot Chat 存在一個安全漏洞,令 AI 助理在未獲授權的情況下讀取並摘要標有「機密」標籤的電郵數週,完全繞過企業設定的資料保護措施。Microsoft 已於 2 月初開始推出修補程式,惟至今仍未披露受影響客戶數目。
這個以 CW1226324 追蹤的漏洞首次於 2026 年 1 月 21 日被發現。Microsoft 發出的服務警報指出,Copilot Chat 的「工作」分頁會錯誤讀取用戶「已傳送郵件」及「草稿」資料夾中的電郵,即使這些郵件已設有敏感度標籤系統亦會照樣處理。問題根源是程式碼錯誤,令 Copilot 的資料擷取管道與 Microsoft 現有的資料外洩防護(DLP)執行層出現脫節, 令 AI 「看到」理應被屏蔽的內容。
Microsoft Purview 等工具負責執行 DLP 政策,原意是監控並防止企業應用程式及裝置上的資料外洩,保護存放於 Exchange 及 SharePoint 等 Microsoft 365 位置的敏感資料。然而這次漏洞揭示保護措施在應用程式層面未能有效落實,這令企業在毫不知情的情況下任由 AI 模型處理機密資料長達數週,嚴重影響合規責任。程式碼錯誤引起這次問題,Microsoft 已於 2 月初開始部署修補程式,同時主動聯絡部分受影響用戶確認修復成效。
事件曝光前後歐洲議會資訊科技部門向議員發出通知,宣布封鎖其公務裝置上所有內建 AI 功能,涵蓋 ChatGPT、Microsoft Copilot 及 Claude 等工具。歐洲議會憂慮雲端 AI 服務的基礎設施可能令用戶資料受美國司法管轄範圍下的外部存取要求影響,加上底層模型或會使用 AI 助理上傳的資訊作訓練,這令機密內容有機會在原有脈絡以外流傳。封鎖措施屬臨時性質並將維持至資訊科技部門完成評估,確認系統正共享哪些資訊以及能否在裝置本地處理而毋需上傳至雲端。
Copilot Chat 自 2025 年 9 月起向 Microsoft 365 付費商業客戶推出,整合至 Word、Excel、PowerPoint 及 OneNote 等 Office 應用程式。這次事件是 AI 工具在企業環境應用潛在風險的典型示例,顯示即使已設定技術性保護措施,AI 系統的程式碼錯誤仍可令機密資料意外外洩。Microsoft 發言人未有回應受影響客戶數目的查詢,僅表示隨著調查進展相關數字或有所變化。
來源:TechCrunch