OpenAI 籌備新團隊應對 AI 災難 預防潛在核武和生化威脅

Published by
藍骨
Share

越來越強大的 AI 科技帶來的隱憂不容忽視,如果遭到濫用,則有機會造成毀滅性的風險。OpenAI 有見及此,也成立了一個團隊,專門評估和防範相關的問題,確保 AI 科技不會帶來災難。

OpenAI 宣佈成立的團隊名為「Preparedness(備戰)」,由麻省理工學院的可部署機器學習中心 Center for Deployable Machine Learning) 主任 Aleksander Madry 領導。團隊的主要任務包括追蹤、預測,以及防範未來 AI 系統可能帶來的危險,特別是這些系統在網絡安全範疇的潛在威脅。OpenAI 在說明中提及了不同的風險類別,當中更包括有化學、生物、輻射和核威脅等可怕的危機。

同時,OpenAI 也舉辦挑戰賽邀請開發者社群提交風險研究提案,獲選的開發者不只可以獲得獎金,還有機會加入 Preparedness 團隊。這活動要求參與者思考如果惡意使用者獲得對 OpenAI 某些先進模型不受限制的存取,可能會發生的最壞情況。OpenAI 強調,隨著 AI 模型的能力不斷提升,對全人類的潛在益處增加同時,也帶來了嚴重的風險。因此,他們正在積極發展策略和基礎設施,以確保能夠安全地控制和部署這些高級 AI 系統。

來源:OpenAI


相關文章:
  • OpenAI 與 Reddit 合作   將 Reddit 內容納入訓練人工智能
  • ChatGPT 介面更新更易用 同時提供官方 Mac App
  • OpenAI 正式推出 GPT-4o 模型 可理解用家表情提供更親切對答

  • Published by
    藍骨