日前科技公司 OpenAI、Microsoft 和 Google 跟人工智能安全公司 Anthropic 宣佈成立 Frontier Model Forum,一個新的人工智能行業組織,以確保前沿人工智能模型安全和負責任地發展作為目標。該組織認為前沿人工智能系統指「大規模機器學習,超過目前最先進的現有模型的能力,並可以執行各項任務」。
在 Google 發出的新聞稿中,提到 Frontier Model Forum 將會利用各成員公司的技術和營運專長,惠及整個人工智能生態系統,透過推進技術評估和基準,並開發公共解決方案庫,以支持行業的最佳實踐和標準。Frontier Model Forum 認為創造人工智能技術的公司有責任確保其安全,並且始終處於受人類控制之下,有倡議將技術部門聯合起來,推進人工智能負責任地發展並應對挑戰,使其造福所有人類。
不過華盛頓大學人工智能專家 Emily Bender 則指 Frontier Model Forum 的成立,實際上是多間科技企業為了達到業界自我監管,避免受到政府機關的監管。她對於人工智能公司自我監管抱有非常懷疑的態度,認為監管應該由代表市民的政府去執行,這樣就能為企業可以做的事情作出限制和把關。
資料及圖片來源:appleinsider
WhatsApp 直接加入 Copilot 教學 輕鬆與 Microsoft AI 助理對話 【教學】iOS 18.1 AI 一鍵清相片路人雜物 旅遊景點不再人頭湧湧 【教學】Midjourney 網頁版免費試玩 無須再連 Discord + 生成圖片全部有紀錄