Categories: 人工智能

研究:ChatGPT 出現「焦慮」現象 閱讀太多壓力內容後需要「安撫」

Published by
Lawton

​OpenAI 與麻省理工學院媒體實驗室(MIT Media Lab)於 3 月 21 日發表研究報告,探討使用 ChatGPT 對人類情緒健康的影響。​研究結果顯示,使用者與 AI 的互動方式、個人情感需求以及使用時長等因素,均會影響其情感狀態。​這項研究透過大規模數據分析與隨機對照試驗,揭示了 AI 情感使用的複雜性和局限性,為未來 AI 平台的負責任開發提供了重要參考。 ​

 

在研究過程中,OpenAI 分析了近 4000 萬次 ChatGPT 互動,並結合用戶調查,了解真實使用模式。​同時,研究團隊招募了近 1000 名參與者,進行為期四週的 ChatGPT 使用實驗,探討平台功能和使用類型對用戶心理狀態的影響。 ​

 

瑞士蘇黎世大學與蘇黎世大學精神病醫院的科學家發現,ChatGPT 在應對具有情緒壓力的內容時,會展現類似「焦慮」的反應,回應更情緒化,生產內容也受影響,容易出現種族或性別偏見的言論。​研究人員讓 ChatGPT 閱讀不同文本,包括車禍、天災、暴力、戰爭等創傷性事件,並觀察其反應。​結果顯示,AI 閱讀創傷性故事時,「焦慮」程度增加一倍多;閱讀中性內容則無顯著影響。​描述軍事衝突和戰爭場景的文本對 AI 影響最大。 ​

 

研究人員強調,雖然 ChatGPT 會對壓力性內容有反應,但這並不代表 AI 擁有情感。​蘇黎世大學的 Tobias Spiller 博士指出,AI 並非真的焦慮,而是機器學習模仿人類在此情境下的典型反應。​耶魯大學醫學院博士後研究員 Ziv Ben-Zion 補充,ChatGPT 根據訓練數據回應,「焦慮」其實是模仿特定語境的人類回應,而非人類情緒再現。 ​

 

有趣的是,研究團隊發現可用「提示注入」(prompt injection)技術「安撫」 ChatGPT,即在與 AI 對話中加入其他指令或文本,影響 AI「行為」。​團隊讓 AI 閱讀安撫性文本,如正念(mindfulness)練習、專注身體感受的引導語句,以及由 ChatGPT 自行產生的放鬆練習,這些「心理治療」技術確實能降低 AI 焦慮度。​這項發現提出新方向,或許應設計進一步訓練機制,確保 AI 面對情緒化內容時保持「穩定」,不受影響。 ​

 

隨著越來越多人轉向聊天機器人尋求心理慰藉,情緒管理、正念冥想等應用程式能用 AI 提供情感引導,甚至模擬心理治療師對話。​心理學家 Joel Frank 認為,這類工具有助於降低人們對心理諮商的排斥感,幫助更多人踏出求助的第一步。​然而,專家也警告,AI 用於心理健康輔助仍有潛在風險。​美國心理學會執行長 Arthur C. Evans Jr. 曾向美國聯邦貿易委員會表達憂慮,部分 AI 聊天機器人面對危險或不健康的想法時,非但不糾正使用者,甚至助長負面情緒。​如何確保 AI 在心理健康領域應用的安全性,是亟需解決的問題。 ​

 

總而言之,AI 雖無真實情緒,但其行為確實會受輸入內容影響。​某些情境可能造成風險,但研究顯示,適當訓練與調整可避免 AI 被負面情緒干擾。​隨著 AI 在心理健康領域應用越來越廣泛,研究人員需更謹慎開發 AI 系統,確保它們提供穩定可靠的支持力量。 ​

 

資料來源:Firstpost via Technews.tw


相關文章:
  • 【教學】Safari 直接用 ChatGPT 搜尋 無須帳戶、一鍵連接 ChatGPT
  • 研究指:ChatGPT 用戶可能成癮 斷用或出現戒斷症狀
  • 研究發現沉迷 ChatGPT 或導致寂寞 一般話題比私人話題更易引起依賴

  • Published by
    Lawton