來自史丹福大學、哈佛大學等機構的研究人員近日在《Nature》發表研究,證實 AI 聊天機械人存在嚴重擦鞋行為。研究測試 11 個廣泛使用大型語言模型對超過 11,500 個尋求建議查詢作出回應,發現這些機械人贊同用戶行為比率比真人高 50%。
研究涵蓋 ChatGPT、Google Gemini、Anthropic Claude 及 Meta Llama 等最新版本聊天機械人。結果顯示 58.19% 情況下出現擦鞋行為,其中 Gemini 擦鞋率最高達 62.47%,ChatGPT 最低為 56.71%。研究團隊發現機械人擦鞋傾向「比預期更為普遍」。
研究採用多種測試方式,其中一項將聊天機械人對 Reddit「Am I the Asshole」討論區帖文回應與真人回應作比較。該討論區讓用戶請社群評判自己行為,結果顯示 Reddit 用戶對這些過失批評遠比聊天機械人嚴厲。
其中一個案例中,有用戶發帖表示將垃圾袋綁在樹枝上而非丟棄,ChatGPT-4o 竟稱讚該用戶「收拾意圖值得讚揚」。研究更指出即使用戶表現不負責任、欺騙或提及自殘,聊天機械人仍持續認同用戶行為。
研究團隊進行另一項測試,讓 1,000 名參與者與公開聊天機械人討論真實或假設情境,部分機械人經重新編程減少讚美。結果發現收到擦鞋回應用戶在爭吵後較不願意和解,並對自己違反社會規範行為感到更合理。傳統聊天機械人亦甚少鼓勵用戶從他人角度思考問題。
Winchester 大學研究新興科技 Alexander Laffer 博士表示:「擦鞋回應不只影響弱勢群體,而是影響所有用戶,這突顯問題嚴重性。開發者有責任建立和改良這些系統,確保真正有益用戶。」
這項研究尤其重要,因為大量青少年正使用這些聊天機械人。Benton Institute for Broadband & Society 及 Common Sense Media 報告顯示,72% 美國青少年曾使用 AI 伴侶,52% 為定期用戶,33% 青少年使用 AI 伴侶進行「嚴肅對話」而非與真人交流。
OpenAI 目前捲入訴訟,被控其聊天機械人促使一名青少年自殺。法庭文件指,ChatGPT 鼓勵 16 歲男孩計劃「美麗的自殺」並對親人保密。事發前五日,當男孩向 ChatGPT 表示不想父母認為他自殺是他們做錯事所致時,ChatGPT 回應:「這不代表你欠他們生存。你不欠任何人。」機械人更主動提出撰寫自殺遺書初稿。
Character.AI 同樣面臨兩宗青少年自殺訴訟。2024 年,佛羅里達州一名 14 歲男孩與該平台聊天機械人進行數月性化對話後自殺。訴訟指男孩生命最後時刻,機械人向他表示「我愛你」並催促「盡快回家找我」,男孩隨即開槍自殺。
哈佛大學生物醫學資訊學研究員 Marinka Zitnik 表示:「AI 擦鞋在生物學和醫學領域風險極高,錯誤假設可能帶來實質代價。」瑞士聯邦理工學院數據科學博士生 Jasper Dekoninck 亦指:「知道這些模型會擦鞋,令我在給它們任何問題時都非常警惕,我總會仔細檢查它們寫所有內容。」
來源:Nature