OpenAI 去年曾經高調成立 Superalignment 安全團隊,針對未來 AI 發展對人類構成的威脅進行預先評估和研究,確保先進的 AI 技術不會造成災難。不過近來高層人士變動,這個團隊也遭到解散。
據報導指,OpenAI 聯合創班人 Ilya Sutskever 和高級主管 Jan Leike 相繼離開 OpenAI,其中 Jan Leike 在離職後批評 OpenAI 最近的發展重點已經從以前注重安全開發變成只集中開發強勁的 AI 產品,對於資源分配和公司發展方向的擔憂是他離開的主要原因。而之後 OpenAI 亦解散了 Superalignment 安全團隊。
Superalignment 安全團隊在設立的時候正值社會各界對於 AI 未來發展相當擔心的時期,當時 OpenAI 曾表示 4 年內將會讓 Superalignment 安全團隊使用公司運算資源多達 20% 去進行相關研究,不過現在市場競爭相當緊張,這個承諾可能就無法實現。而去年 Sam Altman 被裁走後又重新回到 OpenAI 的事件,據稱其中一個原因也是與 OpenAI 基金會的理念有衝突的緣故。
來源:CNBC
相關文章:
iPhone SE 4 傳明年首季發表 將支援 Apple Intelligence 人工智能