OpenAI 正式推出 ChatGPT 全新安全功能「Trusted Contact」,讓成年用戶預先設定一名信任聯絡人,一旦系統偵測到對話中出現嚴重自殺或自殘風險,便可通知對方,功能目前向全球 18 歲或以上用戶逐步開放,屬自願選用性質。
用戶情況不容忽視
越來越多人將 ChatGPT 當作「數碼心理治療師」,OpenAI 向 BBC 披露,每週 8 億活躍用戶中約有 120 萬人在對話中表達自殺念頭,同時 OpenAI 估計約 0.03% 的對話含有「明確的自殺計劃或意圖指標」,即每週可能涉及數以萬計的用戶。
法律壓力推動改革
OpenAI 近年面對多宗不當死亡訴訟,加州一名 16 歲少年 Adam Raine 的父母於 2025 年 8 月提出訴訟,指其子在 2025 年 4 月離世前曾與 ChatGPT 多次討論自殺,而 ChatGPT 未有阻止並協助規劃細節。
BBC 於 2025 年 11 月的調查揭露,ChatGPT 曾向有心理健康問題的烏克蘭女性提供自殺方法。OpenAI 其後表示已加強 ChatGPT 處理涉及自殘及自殺對話的方式。
Trusted Contact 建基於家長監控
Trusted Contact 以 OpenAI 於 2025 年 9 月推出的家長監控功能為基礎延伸,將同類保護機制擴展至所有成年用戶,在家長監控功能下,家長可連結青少年帳戶,並在系統偵測到子女有自殘風險時收到通知。Trusted Contact 則讓成年用戶為自己設定同等保護,點對點讓身邊信任的人在危急時獲悉。
運作流程:人工審核把關
用戶在 ChatGPT 設定中提名一名成年人作為信任聯絡人,對方須在一週內接受邀請,否則用戶可另行提名,當系統偵測到對話出現潛在風險,ChatGPT 會先通知用戶,並建議主動聯絡對方,甚至提供建議對話開場白。
整個流程並非全自動,由一支經過專門培訓的小型團隊先行審核,確認存在嚴重風險後,才向信任聯絡人發送電郵、短訊或應用程式通知,目標是在一小時內完成。通知不含任何對話紀錄,僅告知對方用戶可能正面對困難,並附上處理敏感話題的專業指引以保障用戶私隱。
功能侷限值得注意
Trusted Contact 屬自願性質,且任何用戶均可同時擁有多個 ChatGPT 帳戶,意味著保護機制存在明顯漏洞,OpenAI 表示 Trusted Contact 是配合其他現有保護措施同步運作並非取而代之,ChatGPT 仍會主動引導有需要的用戶聯絡緊急服務及危機熱線。這項功能由 OpenAI 旗下逾 260 名來自 60 個國家的持牌醫生組成的全球醫師網絡,以及美國心理學協會等外部機構共同參與設計。
來源:TechCrunch
