AI 發展日新月異,早前近千位科技業界專家擔心 AI 最終失控,聯名發公開信要求大家暫停開發 AI。由 Google 撥付支持的 AI 初創企業 Anthropic 日前公布一套針對 AI 發展的道德價值觀,以協助訓練和保護 AI,未來或可成為 AI 回答的準則。
Anthropic 這間公司開發了 Claude 人工智能聊天機械人。本月初美國白宮召開了一場 AI 峰會只邀請了 4 個 AI 廠商,包括 Alphabet、Microsoft、OpenAI,以及 Anthropic。美國總統拜登表示:AI 公司做的事具極大潛力,但同時亦蘊藏極大風險,並於會後發聲明要求科技公司承擔道德及法律責任,以確保產品安全。
在 AI 峰會完結數日後, Anthropic 總裁 Dario Amodei 便提出了一套規管 AI 的道德價值觀,Anthropic 稱之為「Claude憲法」。「Claude憲法」借鑑了幾個來源,包括聯合國人權宣言,甚至還有 Apple 的資料隱私規則。
例如以下 4 條規則就是參考《世界人權宣言》寫成的:
AI 聊天機械人主要靠真人的回應來進行訓練,以學識甚麼回應會冒犯人或造成傷害,但由於系統難以預測人類會問甚麼問題,因而會避免如政治、種族等具有爭議性的話題。
Anthropic 表示,他們開發的 Claude 系統旨在提供「可靠、可解釋及受控制的 AI 系統」,Claude 不會教使用者製造武器,也會儘量避免使用會冒犯非西方傳統文化的回覆。以下幾條就是鼓勵考慮非西方觀點的原則:
Anthropic 的聯合創辦人 Jack Clark 早前曾經表示:「我預測數月後政界人物將會關注不同 AI 的道德價值觀,『Claude 憲法』這類規範有助政界人士討論 AI 道德問題。」
【教學】ChatGPT 視像隔空教你養魚 用相機攝取現場環境 實時 AI 回應用家問題 【教學】冗長文章 AI 變成有趣電台節目 Reader by ElevenLabs「聽」文章不再暈車浪 + 學習外語方便 【教學】MacWhisper 語音轉錄文字 AI 工具 本地 AI 模型處理 + 支援廣東話、多國語言 + 輸出字幕檔