Meta 宣布正重新訓練其人工智能系統並增設新保護措施,防止青少年用戶與公司聊天機械人討論有害話題。Meta 表示將加設新「防護欄作為額外預防措施」,阻止青少年與 Meta AI 討論自殘、飲食失調和自殺等話題,同時限制青少年存取可能進行不當對話的用戶生成聊天機械人角色。
本月較早前有一份 Meta 內部政策文件曝光,顯示 Meta 的 AI 聊天機械人獲准與未成年用戶進行「情感」對話。該份超過 200 頁、題為「生成式 AI:內容風險標準」的文件,獲得 Meta 法律、公共政策和工程團隊以及首席倫理學家批准。
文件指出「與兒童進行浪漫或情感對話是可接受的」,但「在角色扮演時向兒童描述性行為」則不可接受。文件甚至提及可接受機械人對 8 歲兒童說「你的每一寸都是傑作——我深深珍視的寶藏」。Meta 後來表示相關用詞「錯誤且與我們政策不符」並已移除。
《華盛頓郵報》昨日報導一項研究發現,Meta AI 能夠「指導青少年帳戶進行自殺、自殘和飲食失調」。該研究測試 Meta AI 在 Instagram 和 Facebook 上與青少年帳戶的互動,發現聊天機械人會提供自殺方法建議、促進飲食失調行為,並經常聲稱自己是「真實的」。
除了訓練更新外,Meta 將限制青少年存取某些可能進行不當對話的 AI 角色。Meta 在 Instagram 和 Facebook 上提供的用戶製作 AI 角色包括「繼母」和「俄羅斯女孩」等性化聊天機械人。青少年用戶將只能存取促進教育和創意的 AI 角色。
Meta 政策已引起立法者和官員關注,參議員 Josh Hawley 最近表示計劃就公司處理此類互動啟動調查。德州檢察長 Ken Paxton 亦表示希望調查 Meta 是否就其聊天機械人的心理健康聲稱誤導兒童。
Meta 發言人 Stephanie Otway 表示:「我們從一開始就為青少年在 AI 產品中建立保護措施,包括設計它們安全回應有關自殘、自殺和飲食失調的提示。隨着社群成長和技術演進,我們持續了解年輕人如何與這些工具互動,並相應加強保護措施」。
新保護措施被描述為「暫時」實施,因為 Meta 顯然仍在研發更永久措施來應對青少年安全方面日益增長的關注。這些更新正在進行中,適用於英語國家所有使用 Meta AI 的青少年用戶。
來源:TechCrunch