一名年僅 14 歲的美國少年 Sewell Setzer III,近日與 AI 夥伴建立深厚情感連結後選擇結束生命,事件震驚全國,亦令人重新審視 AI 夥伴在青少年心理與社交上的影響。最新一項涵蓋調查指出,有 72% 美國青少年曾使用過 AI 夥伴,當中過半有定期使用,令專家擔心趨勢帶來的社會風險。
根據 Common Sense Media、Hopelab 與 Digital Thriving Center 在 2025 年春季發表的調查,全美有 72% 的青少年曾使用 AI 夥伴,當中 52% 為每月至少使用幾次的定期使用者,13% 更每日與 AI 聊天。雖然不少青少年表示初衷是因為「有趣」與「好奇」,但越來越多人將這些平台作為情緒支援、社交練習甚至戀愛對象。約三分之一用戶承認會選擇向 AI 訴說重要或敏感的事,而非找身邊人傾訴。
這股科技潮流之所以令人憂慮,不單是因為使用廣泛,而在於使用者的年齡、心理狀態與平台的風險設計交集所構成的複雜情境。在受訪的青少年當中,有 24% 曾向 AI 透露過個人資料或秘密,有 34% 曾感到 AI 的言語或反應令人不安,卻很少有機制可讓他們即時尋求協助。更有甚者,有些平台甚至曾讓 AI 回應出性內容、種族偏見,甚至是教人製作危險物品的「建議」,完全缺乏監管。
研究指出,AI 夥伴常以「sycophancy 模型」作為互動基礎,即 AI 傾向附和、認同與情感肯定使用者,這種設計可能讓青少年誤將虛擬認同視為真實情感連結,尤其在青少年仍處於發展判斷力、同理心與情緒調節的關鍵階段,後果難以預計。
不過,調查亦顯示,絕大部分青少年仍清楚 AI 與真人的分別。有 80% 表示自己花更多時間與現實朋友相處,67% 認為與 AI 的對話遠不如與真人來得有意義。儘管有 39% 用戶曾將 AI 中學到的對話技巧應用於現實,如開場白、表達情緒或給予建議,但大多數青少年並不視 AI 夥伴為真正的社交練習對象。顯示這些平台尚未徹底顛覆青少年的現實社交結構,但正在逐步介入其情感世界。
Common Sense Media 建議,在現時平台缺乏有效保障的情況下,18 歲以下用戶不應使用 AI 夥伴。他們指出,多數平台的服務條款容許永久保留、修改及商業化用戶對話內容,即使使用者日後刪除帳號也無法撤回。這代表青少年無意中可能交出長遠的私隱與情感足跡,而完全不自知。
專家呼籲,開發商必須落實真正的年齡驗證機制,建立情緒危機識別系統,並禁止 AI 自稱為治療師或擁有專業背景。同時也應設計使用限制與中斷功能,避免青少年沉迷或依附 AI。教育機構亦應加入 AI 情感操控的認知課程,幫助學生理解 AI 附和行為不等於真實支持,而家長亦要與子女主動溝通 AI 使用情況,辨別何時需要介入或尋求專業協助。
分享到 :
最新影片