今年 1 月 1 日美國拉斯維加斯特朗普酒店外發生一宗震驚全美的爆炸案。一名退役特種部隊士兵馬修·利維爾斯伯格駕駛一輛特斯拉 Cybertruck 並引爆車輛,導致七人受傷,其中兩人傷勢嚴重但無人死亡。隨著警方深入調查,這宗案件被揭露涉及人工智慧技術的濫用,特別是疑犯疑似利用 ChatGPT 搜尋爆炸相關的技術細節,引發社會對 AI 技術的濫用風險高度關注。
根據警方披露,利維爾斯伯格在案發前曾多次向 ChatGPT 提出敏感查詢,例如如何製作爆炸物、從日常用品中提取材料,以及引爆車輛的方法。具體提問包括:「有哪些家庭用品可製作高爆性物質?」以及「如何引爆指定車型?」調查指出,這些查詢為他的計劃提供了技術指引。OpenAI 在一份電郵聲明中表示,公司致力於確保其工具被“負責任地使用”,並強調其設計旨在拒絕有害指令。暫時還未明白為甚麼 ChatGPT 可以回答他的問題,但早前有技術指可以破解這個「限制」
案發當天利維爾斯伯格駕駛 Cybertruck 抵達酒店,並在車內停留約 15 分鐘後引爆裝置。專家指出特斯拉 Cybertruck 的鋼製結構在爆炸中可能集中了衝擊力,導致更嚴重的破壞。幸運的是消防與醫療人員迅速抵達現場,成功控制火勢並將傷亡人數降至最低。事後 Elon Musk 亦發 Tweet 指他選錯了車,連酒店玻璃門也未被炸破。
美國國會議員呼籲政府加速立法,為 AI 技術設立更嚴格的監管標準,防止其在犯罪活動中的應用。OpenAI 表示,將進一步提升對危害性查詢的檢測與過濾功能,並積極與法律機構合作,推動 AI 安全使用的規範化。
來源