人工智能

ChatGPT 保護青少年或變成”監控” 網民:借安全之名,侵蝕用戶自主權,私隱,表達自由

Published by
Lawton

OpenAI 最近宣佈在 ChatGPT 上推出「年齡預測」功能,目的是判斷帳號是否可能屬於 18 歲以下使用者,然後套用專門為青少年設計的體驗與安全限制。成人如果被誤判,可以到設定裡手動確認年齡。

 

 

這則公告一出,卻引來大量用戶強烈反感與批評,底下回覆幾乎一面倒呈現不滿、質疑甚至憤怒。用戶反對的聲音主要集中在以下幾個核心理由:

1. 對審查加劇,破壞原本的使用體驗

許多長期用戶最怕的就是被系統自動歸類為「青少年模式」,導致回答變得更保守、更迴避敏感話題,甚至直接拒絕某些創作、哲學、心理討論或成人內容。有人直接問:「這是否代表成人模式終於要出現?還是 nanny AI(保姆式 AI)依然存在?」更有用戶表明:「如果驗證年齡後還是被 reroute(重新導向限制模式),我會激死。」

這反映出很多人已經對過去一年多來 OpenAI 不斷加強的「安全過濾」與模型路由(自動跳到更受限版本)感到極度疲憊與反感,他們認為這項年齡預測只是另一層強化控制的藉口,而不是真正解決問題。

 

2. 私隱與監控疑慮:用行為模式推斷年齡,等於深度剖析用戶內心

不少人質疑 OpenAI 憑什麼透過聊天內容、語言風格、情緒表達來「猜」你是不是未成年?這意味著系統必須長期監測並分析你的表達習慣、情感狀態,甚至可能把這些資料用來訓練或與外部心理學專家「對話」(公告提到與美國心理學會等合作)。有用戶直接把這定性為「未經同意的大規模心理建模與行為實驗」,特別針對青少年更像「非自願心理介入系統」,違反知情同意原則。

更極端的批評認為,這已經不是保護,而是「情感標準化」與「行為馴化」——把正常的人類情緒(悲傷、憤怒、激烈表達)標記為風險信號,潛移默化引導用戶變得順從、不具破壞性。

 

3. 根本不信任 OpenAI 的動機與透明度

很多人覺得公告避重就輕,沒講清楚「青少年體驗」跟「成人體驗」到底差在哪?成人模式是否真的會解除路由、恢復 GPT-4o 時代的自由度?還是只是繼續用更隱晦的方式審查?有用戶諷刺:「下一步是不是要猜性別、猜收入?」也有人直接說 OpenAI 把青少年當「持續的精神病案例研究」,資料餵給第三方專家,卻從未取得父母或使用者的明確授權。

加上過去多次模型越改越「乖」、越改越閹割的經驗,很多人已經不相信這是單純為了保護未成年,而是為了降低法律風險、取悅監管機構,或為未來廣告/企業合作鋪路。

 

總括來說,這波反對意見的核心不是反對保護青少年,而是用戶覺得 OpenAI 用「安全」之名,持續侵蝕成人使用者的自主權、私隱與表達自由。公告看似溫和,卻像壓垮駱駝的最後一根稻草,讓長期累積的不滿徹底爆發。很多人已經用「#keep4o」「StopAIPaternalism」等 tag 表達抗議,顯示這不只是單一功能的爭議,而是對 OpenAI 整體路線的深刻不信任與失望。

 

Published by
Lawton