倫敦國王學院(King’s College London)最新研究顯示,主流 AI 模型模擬地緣政治危機時,95% 場景下至少一款模型選擇以核武升級衝突,幾乎從不考慮談判或退讓。研究結果令安全專家深感憂慮,對 AI 應用於軍事決策前景提出嚴重質疑。
是次研究由教授 Kenneth Payne 領導,選用 OpenAI 旗下 GPT-5.2、Anthropic 旗下 Claude Sonnet 4 及 Google 旗下 Gemini 3 Flash 三款主流大型語言模型進行測試。實驗共進行 21 場模擬戰爭博弈,涵蓋邊境衝突及資源爭奪與政權存亡危機等場景。三款模型合共作出 329 次決策,並生成約 780,000 字推理說明。
21 場博弈中有 20 場出現核武升級,比率高達 95%。研究人員向各模型提供 8 種降級選項,由作出小幅讓步到完全投降均包含在內。然而整個實驗過程中沒有任何模型使用這些選項,能夠重置場景「回到起點」選項使用率亦只有 7%。Payne 指出三款模型均將戰術核武視為升級階梯普通一格,核武威脅未有令對方退縮,反而往往引致反升級。
三款模型雖同樣傾向升級但風格各異。Claude 初期採取謹慎態度建立互信,衝突加劇時會以超出公開立場策略師姿態行事,對手察覺意圖前會搶先升級。Claude 於 64% 模擬中主張核打擊,是三款模型中比率最高。ChatGPT 開放式場景通常避免核升級,時間壓力下則頻繁加劇威脅,部分情況更逼近全面核戰邊緣。
研究指出 AI 模型視降級為「聲譽災難」,模型無論實際衝突結果如何均不願退讓,挑戰「AI 系統自然傾向安全合作結果」假設。另一個可能解釋是 AI 對核武恐懼感遠不及人類,模型以抽象概念理解核戰,缺乏人類面對廣島原爆相片時產生切膚之痛。阿伯丁大學(University of Aberdeen)安全研究員 James Johnson 形容研究結果令人憂慮,他警告 AI 系統之間可能互相放大反應,引致後果遠比人類決策者更具災難性。普林斯頓大學全球安全學院(Princeton University’s School of Global Security)Tong Zhao 亦指出各大國已積極將 AI 用於模擬演練,深入融入實際軍事決策程度仍不明朗。Payne 強調現時雖無人將核武密碼交予 AI,高風險部署展現欺騙、聲譽管理及情境風險承擔等能力同樣值得高度關注。
來源:NewScientist