Google 旗下 DeepMind 實驗室於 2025 年 4 月發布一份長達 145 頁人工智能安全報告,預測通用人工智能(AGI)或於 2030 年達到人類智能水平,並警告其潛在風險可能對人類構成「永久毀滅」的威脅。報告指出,此議題非單一公司所能獨力解決,需全社會集思廣益,並提出風險防控建議。研究人員將 AGI 風險歸納為四大類別,包括濫用、錯位、失誤及結構性風險,特別重視預防措施與及早識別危險能力。
AGI 風險分類與防控策略
報告將 AGI 潛在風險分為四類:濫用風險指人類蓄意利用 AI 作出危害行為;錯位風險涉及系統產生非預期的惡性行為;失誤風險源於設計或訓練瑕疵引發的意外失靈;結構性風險則因不同主體間利益衝突而起。DeepMind 推出一套以預防濫用為核心的緩解策略,強調提前辨識危險能力的重要性,並建議建立國際合作框架監管 AGI 發展。DeepMind 首席執行官 Demis Hassabis 此前亦曾表示,AGI 可能於未來 5 至 10 年內問世,呼籲設立類似聯合國的機構加以監督。
業界競爭與專家質疑
報告中,DeepMind 對競爭對手 Anthropic 和 OpenAI 的安全策略提出間接批評,指 Anthropic 在訓練及監督方面力度欠佳,而 OpenAI 則過度專注於對齊研究。據 Fortune 報道,部分專家對此看法存疑,認為 AGI 定義尚未清晰,2030 年時間表難以科學驗證。Future of Life Institute 聯合創始人 Anthony Aguirre 指出,超智能 AI 或引發前所未有的社會動盪,目前人類對其掌控能力仍顯不足,不少意見認為,科技進步應在創新與安全間尋求平衡,以免失控釀禍。
未來發展預測
這份報告既揭示 AGI 的潛力與隱憂,亦喚起業界對安全標準的深思。隨着 Google 投入逾 1000 億美元(約港幣 7770 億元)於 AI 研發,未來數年或迎來更多政策與技術突破。預料國際間將深化合作,制定監管框架,確保 AGI 發展造福人類而非帶來威脅。有興趣閱讀全民的朋友可以點擊連結。
資料來源:Google DeepMind、Fortune、NDTV
相關文章:
【教學】免費圖片變影片 AI 免 VPN、電腦手機都玩到 【教學】AI speaker 免費 AI 生成語音工具 AI 代你講嘢、支援廣東話語音 Nothing Phone (3a) 及 (3a) Pro 開箱評測影片:入門價超實用 AI 手機功能示範
分享到 :
最新影片
