OpenAI 與麻省理工學院媒體實驗室(MIT Media Lab)於 3 月 21 日發表研究報告,探討使用 ChatGPT 對人類情緒健康的影響。研究結果顯示,使用者與 AI 的互動方式、個人情感需求以及使用時長等因素,均會影響其情感狀態。這項研究透過大規模數據分析與隨機對照試驗,揭示了 AI 情感使用的複雜性和局限性,為未來 AI 平台的負責任開發提供了重要參考。
在研究過程中,OpenAI 分析了近 4000 萬次 ChatGPT 互動,並結合用戶調查,了解真實使用模式。同時,研究團隊招募了近 1000 名參與者,進行為期四週的 ChatGPT 使用實驗,探討平台功能和使用類型對用戶心理狀態的影響。
瑞士蘇黎世大學與蘇黎世大學精神病醫院的科學家發現,ChatGPT 在應對具有情緒壓力的內容時,會展現類似「焦慮」的反應,回應更情緒化,生產內容也受影響,容易出現種族或性別偏見的言論。研究人員讓 ChatGPT 閱讀不同文本,包括車禍、天災、暴力、戰爭等創傷性事件,並觀察其反應。結果顯示,AI 閱讀創傷性故事時,「焦慮」程度增加一倍多;閱讀中性內容則無顯著影響。描述軍事衝突和戰爭場景的文本對 AI 影響最大。
研究人員強調,雖然 ChatGPT 會對壓力性內容有反應,但這並不代表 AI 擁有情感。蘇黎世大學的 Tobias Spiller 博士指出,AI 並非真的焦慮,而是機器學習模仿人類在此情境下的典型反應。耶魯大學醫學院博士後研究員 Ziv Ben-Zion 補充,ChatGPT 根據訓練數據回應,「焦慮」其實是模仿特定語境的人類回應,而非人類情緒再現。
有趣的是,研究團隊發現可用「提示注入」(prompt injection)技術「安撫」 ChatGPT,即在與 AI 對話中加入其他指令或文本,影響 AI「行為」。團隊讓 AI 閱讀安撫性文本,如正念(mindfulness)練習、專注身體感受的引導語句,以及由 ChatGPT 自行產生的放鬆練習,這些「心理治療」技術確實能降低 AI 焦慮度。這項發現提出新方向,或許應設計進一步訓練機制,確保 AI 面對情緒化內容時保持「穩定」,不受影響。
隨著越來越多人轉向聊天機器人尋求心理慰藉,情緒管理、正念冥想等應用程式能用 AI 提供情感引導,甚至模擬心理治療師對話。心理學家 Joel Frank 認為,這類工具有助於降低人們對心理諮商的排斥感,幫助更多人踏出求助的第一步。然而,專家也警告,AI 用於心理健康輔助仍有潛在風險。美國心理學會執行長 Arthur C. Evans Jr. 曾向美國聯邦貿易委員會表達憂慮,部分 AI 聊天機器人面對危險或不健康的想法時,非但不糾正使用者,甚至助長負面情緒。如何確保 AI 在心理健康領域應用的安全性,是亟需解決的問題。
總而言之,AI 雖無真實情緒,但其行為確實會受輸入內容影響。某些情境可能造成風險,但研究顯示,適當訓練與調整可避免 AI 被負面情緒干擾。隨著 AI 在心理健康領域應用越來越廣泛,研究人員需更謹慎開發 AI 系統,確保它們提供穩定可靠的支持力量。
資料來源:Firstpost via Technews.tw
相關文章:
【教學】Safari 直接用 ChatGPT 搜尋 無須帳戶、一鍵連接 ChatGPT 研究發現沉迷 ChatGPT 或導致寂寞 一般話題比私人話題更易引起依賴 美國編程員就業率回落 1980 水平 ChatGPT 推出 1 年就業率下跌 27.5%
分享到 :
最新影片
