資安公司 Irregular 最新研究揭示,ChatGPT、Claude 及 Gemini 等主流 AI 聊天機械人生成的密碼表面上字元複雜卻存在可預測規律。黑客即使使用數十年前舊電腦也能在數小時內暴力破解。研究團隊警告這個根本缺陷無法透過修改提示語或調整模型參數解決。
規律重複 並非真正隨機
研究團隊要求各 AI 模型各自生成 50 個包含大小寫字母、數字及特殊符號的 16 字元密碼。測試 Claude 的 Opus 4.6 模型後發現 50 個密碼中只有 30 個各不相同,當中 18 個完全一樣。絕大多數密碼的首末字元亦呈現相同規律,反映它們並非真正隨機。
ChatGPT (GPT-5.2) 幾乎每次都以字元「v」開頭,約半數密碼的第二個字元為「Q」。Google 的 Gemini 3 Flash 生成密碼大多以大寫或小寫「K」開頭,其後往往是「#」、「P」或「9」。研究人員更以 Google 的 Nano Banana Pro 影像生成模型測試,要求生成一張寫有密碼的 Post-It 便條影像,結果發現影像同樣出現與 Gemini 一致的字元規律。
熵值遠低安全標準
Irregular 以 Shannon 熵公式計算各大語言模型生成密碼的熵值,結果發現 16 字元密碼的熵值僅約 27 bits (字元統計法) 及 20 bits (對數概率法),遠低於真正隨機密碼所需的 98 bits 及 120 bits。換言之黑客理論上用數十年前的舊電腦也能在數小時內破解這些密碼。
有媒體以 Gemini 3 Pro 重複測試發現該模型同時提供 3 個選項,選項包括高複雜度、符號密集型及隨機英數字型。前兩個仍有相似規律而第三個選項則較為隨機。Gemini 3 Pro 亦附上安全警告建議用戶不要將 AI 聊天介面生成的密碼用於敏感帳號,同時推薦使用 1Password 或 Bitwarden 等第三方密碼管理工具。
網上工具難以識別缺陷
弔詭的是市面上多款網上密碼強度檢測工具將這些 AI 生成密碼評為「極強」,部分甚至聲稱需要數百年方可破解。這些工具未能掌握大語言模型生成密碼時的特定規律,因此無法識別當中的可預測性。
研究人員在 GitHub 及公開網絡搜尋常見字元組合,發現大量開源專案的測試程式碼、安裝說明及技術文件均直接沿用 AI 生成密碼,反映問題影響範圍相當廣泛。Irregular 指出這或會為黑客提供可利用的攻擊模式,開啟暴力破解新時代。
AI 輔助開發趨勢帶來警示
Anthropic 行政總裁 Dario Amodei 曾表示 AI 未來將負責撰寫大多數程式碼。Irregular 引用這番話警告若 AI 生成的密碼本身不夠安全將會帶來深遠影響。研究團隊呼籲開發人員立即檢視並更換所有 AI 生成密碼。團隊亦提醒業界這種「表面正確、實則有缺陷」的問題不會只局限於密碼生成。隨著 AI 輔助開發 (vibe coding) 趨勢持續升溫,業界應保持高度警覺。
來源:The Register
分享到 :
最新影片