Google DeepMind 創辦人 Demis Hassabis 近日坦言,研發超級 AI 確實存在滅絕人類風險。全球 AI 競賽已進入無法停止狀態,外部治理手段難以有效管控。他放棄早年依賴制度及倫理委員會的安全構想,轉而主張親身佔據核心決策位置,憑藉對 AI 風險的敬畏把控技術走向。
早年安全願景落空
Hassabis 一直是 AI 安全堅定倡導者。早年他設想透過獨立監督及秘密研發方式,創造絕對安全超級智能。2014 年將 DeepMind 出售給 Google 時,他明確要求保留 AI 安全獨立決策權。他要求設立外部監督委員會並禁止軍事應用,然而這些安全構想接連落空。Elon Musk 其後創立 OpenAI,打破單一主體管控 AI 的設想。他與 Google 治理權談判亦以失敗告終。
ChatGPT 打亂研發節奏
2022 年 ChatGPT 面世,令 Google 陷入競爭焦慮。DeepMind 隨後與 Google Brain 合併,研發速度凌駕安全規範,早年建立的安全防線逐步失效。Hassabis 由此認清現實。在商業競爭及技術競賽壓力下,依附商業巨頭的非營利治理機制根本難以存續。
轉型個人把關策略
如今 Hassabis 轉變思路,主張讓自己佔據核心決策位置。他憑藉對 AI 風險的敬畏之心,在關鍵節點把控技術方向。他一邊推進 Gemini 等模型研發,一邊堅守安全底線,期望以個人影響力降低 AI 失控風險。Hassabis 憑藉 AlphaFold 蛋白質摺疊研究,於 2024 年榮獲諾貝爾化學獎。他在科學界的公信力,令這番警告更受重視。
四大威脅層次清晰
今年 2 月,Hassabis 出席新德里 India AI Impact Summit,就 AI 風險提出兩個層次威脅。近期而言,生化安全及網絡安全是最迫切危機。AI 技術降低生化武器製造門檻,亦令關鍵基礎設施面臨前所未有網絡攻擊風險。長遠而言,惡意行為者武器化 AI 技術,以及自主系統脫離設計者意圖自行運作,同樣是人類必須正視的挑戰。他呼籲各國在現有制度被壓垮前,盡快合作制定全球最低安全標準。
AI 安全視窗持續收窄
Google DeepMind 早前發表一份 145 頁研究報告。報告預測人工通用智能(AGI)最快可於 2030 年出現,並警告 AI 存在「永久摧毀人類」潛在風險。Hassabis 預測 AGI 將在未來 5 至 10 年內出現。業界分析指出,全球 AI 競賽殘酷現狀令統一治理難以實現。AI 安全視窗持續收窄,人類正面臨關乎文明存續的巨大挑戰。
資料來源:cnBeta
