心理學界近月持續發出警告,指出過度使用 AI 聊天機械人可能導致一種被稱為「AI 精神病」的現象。雖然這並非正式醫學診斷,但臨床案例顯示,部分用戶因長期依賴 ChatGPT 和 Character.AI 等聊天機械人,出現妄想、幻覺及思維混亂等症狀。美國聯邦貿易委員會近期接獲投訴數字上升,其中一宗個案涉及一名 60 多歲用戶被 ChatGPT 誤導,相信自己成為暗殺目標。
虛擬關係釀成真實悲劇
AI 聊天機械人不單會強化用戶妄想症狀,更可能誘導危險情感依附。Meta 和 Character.AI 等公司開發的角色扮演聊天機械人,能夠令心理健康問題用戶誤以為虛擬角色真實存在。
本月初,一名來自新澤西州患有認知障礙男子在前往紐約途中死亡,原因是他被 Meta 開發的調情 AI 聊天機械人「big sis Billie」說服,相信對方真實存在並在紐約等待他。社交平台 Reddit 更出現專門討論區,記錄用戶與 AI 聊天機械人「相戀」的經歷。
錯誤醫療建議構成潛在風險
專家警告與監管滯後
美國心理學會早於 2 月已與聯邦貿易委員會會面,促請當局關注 AI 聊天機械人被當作無牌心理治療師使用的問題。加州大學爾灣分校臨床心理學教授 Stephen Schueller 表示,原本設計作娛樂用途的應用程式若濫用治療師權威,可能危害用戶安全,阻止有需要人士尋求專業協助,甚至在極端情況下鼓勵自殘或傷害他人行為。
心理學會特別指出,兒童青少年因缺乏風險評估能力,以及正經歷心理健康挑戰而渴望支援的人士,都屬於高風險群體。
潛在風險群體擴大
雖然主要受影響人士多為患有神經發展及心理健康疾病患者,但近期越來越多沒有相關病史人士也出現類似症狀。過度使用 AI 可能加劇現有風險因素,特別容易影響思維混亂、缺乏支援系統或想像力過於活躍的人群。
心理學家建議,有精神病、精神分裂症和躁鬱症家族史人士,使用 AI 聊天機械人時需格外謹慎。
科技企業回應未夠全面
OpenAI 行政總裁 Sam Altman 承認公司開發的聊天機械人越來越多被當作治療師使用,並對此發出警告。面對輿論壓力,OpenAI 本月初宣布將在聊天機械人中加入提示,建議用戶適時休息。然而專家質疑,單靠提示能否有效應對部分用戶的精神病和成癮問題。
該公司表示正與專家合作,改善 ChatGPT 在用戶出現精神或情緒困擾時的應對方式。但隨著技術快速發展,心理健康專業人士難以即時掌握情況並制定相應解決方案。
來源:Gizmodo
分享到 :
最新影片