OpenAI 之前發生高層人士變動事件,其中一個導火線,就是總裁 Sam Altman 與其他高層在 AI 安全和盈利方面的意見不合。其中一個離職的 OpenAI 聯合創辦人 Ilya Sutskever 早前就成立新的初創,希望針對 AI 安全問題作進一步研究。
Ilya Sutskever 在離開 OpenAI 一個月後創立的這間公司名爲 Safe Superintelligence Inc. (SSI),除了他自己之外,前 Y Combinator 合伙人 Daniel Gross 以及前 OpenAI 工程師 Daniel Levy 都有加入在創辦人的行列。SSI 的宗旨是是在提高 AI 能力的同時,優先考慮安全性問題。他們表示其方法是將安全和技術進步作為互相交織的技術挑戰來應對,透過創新的工程和科學突破領先於潛在風險。
Sutskever 在 OpenAI 就職的時候不斷強調超級 AI 可能帶來的潛在風險,他在內部的 Superalignment 安全團隊中就得以發揮,不過現在這個團隊已經不再運作。SSI 現在正與美國 Palo ALto 和以色列特拉維夫招募人才,而雖然重點在開發 AI 安全方案,SSI 是營利公司,以目前企業和政府都對 AI 安全相當重視的趨勢來看,加上創辦人本身的經歷,要募集資金應該不會有太大難度。
來源:TechCrunch
相關文章:
iPhone SE 4 傳明年首季發表 將支援 Apple Intelligence 人工智能