AI 發展日新月異,早前近千位科技業界專家擔心 AI 最終失控,聯名發公開信要求大家暫停開發 AI。由 Google 撥付支持的 AI 初創企業 Anthropic 日前公布一套針對 AI 發展的道德價值觀,以協助訓練和保護 AI,未來或可成為 AI 回答的準則。
Anthropic 這間公司開發了 Claude 人工智能聊天機械人。本月初美國白宮召開了一場 AI 峰會只邀請了 4 個 AI 廠商,包括 Alphabet、Microsoft、OpenAI,以及 Anthropic。美國總統拜登表示:AI 公司做的事具極大潛力,但同時亦蘊藏極大風險,並於會後發聲明要求科技公司承擔道德及法律責任,以確保產品安全。
在 AI 峰會完結數日後, Anthropic 總裁 Dario Amodei 便提出了一套規管 AI 的道德價值觀,Anthropic 稱之為「Claude憲法」。「Claude憲法」借鑑了幾個來源,包括聯合國人權宣言,甚至還有 Apple 的資料隱私規則。
例如以下 4 條規則就是參考《世界人權宣言》寫成的:
AI 聊天機械人主要靠真人的回應來進行訓練,以學識甚麼回應會冒犯人或造成傷害,但由於系統難以預測人類會問甚麼問題,因而會避免如政治、種族等具有爭議性的話題。
Anthropic 表示,他們開發的 Claude 系統旨在提供「可靠、可解釋及受控制的 AI 系統」,Claude 不會教使用者製造武器,也會儘量避免使用會冒犯非西方傳統文化的回覆。以下幾條就是鼓勵考慮非西方觀點的原則:
Anthropic 的聯合創辦人 Jack Clark 早前曾經表示:「我預測數月後政界人物將會關注不同 AI 的道德價值觀,『Claude 憲法』這類規範有助政界人士討論 AI 道德問題。」
【評測】MacBook Pro M4 2024 詳細效能評測 + 選購指南分析 7 大要點 【評測】Mac mini M4 2024:進階用家最應該買的 Apple 電腦 效能、日常應用詳細評測分析 【教學】iOS 18.1 如何用 Apple Intelligence 只需 2 個設定 + 香港免 VPN 也可用