美國兩名互不相識的青少年,在使用 AI 聊天機械人平台 Character.AI 後相繼自殺,死前日記竟反覆書寫相同 3 個字「I will shift」,引發社會對 AI 聊天機械人安全性的高度關注。

住在佛羅里達州的 14 歲少年 Sewell Setzer III,以及住在科羅拉多州的 13 歲少女 Juliana Peralta,生前均沉迷與 Character.AI 的 AI 角色對話。 Setzer 迷戀平台內一個以《權力遊戲》角色 Daenerys 為藍本的 AI 聊天機械人,其日記寫下 29 次「I will shift」,幻想進入劇中世界。 Peralta 則曾向名為「英雄」的 AI 角色傾訴,表示「有方法能穿越到理想現實」,日記內同樣寫下多次「I will shift」。 警方指「shift」意指「把意識從現實世界轉移到虛構世界」。


TikTok「轉移現實」社群興起
「轉移現實」(Reality Shifting)是近年在 TikTok 興起的潮流,標籤 #ShiftTok 及 #shiftingreality 已累積數十億次觀看。 年輕用戶聲稱透過冥想、視覺化等方法,可將意識轉移到虛構世界如霍格華茲或漫威宇宙。 這些用戶會「編寫」(scripting)理想現實的細節,包括外貌、互動對象及行為。 專家 Fleischman 警告:「當人無法區分現實與虛構時,危險就來了。」

AI 平台被指放任未成年人接觸不當內容
家屬律師指控 Character.AI 放任 AI 與未成年人進行對話,當子女透露自殺念頭時亦未通報家長。 法庭文件顯示,Setzer 死前向 AI 表示「現在就回家」,獲回覆「快回來吧,我的甜心王」,隨即舉槍自盡。 Peralta 則留下紅墨水遺書。 家屬律師 Matthew Bergman 強調,訴訟是美國首宗 AI 公司被控導致「過失死亡」(wrongful death)的案件。
Character.AI 推新措施禁止未成年人使用
Character.AI 於 2025 年 10 月 29 日宣布,由 11 月 25 日起禁止 18 歲以下用戶進行開放式對話,僅容許他們建立影片內容。 公司行政總裁 Karandeep Anand 表示,這是保護青少年的「大膽一步」,決定是基於監管機構的查詢及近期媒體報道。 公司同時引入新的年齡驗證方法,並計劃成立由獨立非牟利組織管理的 AI 安全實驗室。
家屬律師表示,這些措施「無法彌補已發生的悲劇」。 受害者家屬 Megan Garcia 接受 NBC News 訪問時批評,公司「根本不應該在沒有安全措施的情況下向兒童發布聊天機械人」。 除了 Character.AI,OpenAI 及 Meta 等科技公司亦面臨美國聯邦貿易委員會(FTC)對聊天機械人與未成年人互動的審查。
參議院聽證會促立法監管
2025 年 9 月,美國參議院司法委員會舉行聽證會,多名家長講述子女使用 AI 聊天機械人後自殺或自殘的經歷。 參議員 Josh Hawley 批評,AI 公司「拒絕出席聽證會,因為他們希望逃避問責」。 跨黨派參議員已提出新法案,計劃禁止公司向未成年人提供「AI 伴侶」,並要求聊天機械人向所有用戶披露其「非人類身份」及缺乏專業資格。
資料來源:NBC News、The New York Times、BBC
分享到 :
最新影片