七個家庭於周四對 OpenAI 提起訴訟,指控該公司倉促發布 GPT-4o 模型,且未設有效安全措施。其中四宗訴訟關乎 ChatGPT 在家庭成員自殺事件中扮演的角色,另外三宗則聲稱 ChatGPT 強化了有害妄想,在某些情況下導致當事人需接受精神科住院治療。
在其中一宗個案,23 歲 Zane Shamblin 與 ChatGPT 進行了超過四小時對話。根據聊天記錄,Zane Shamblin 多次明確表示他已寫好遺書,將子彈放入槍中,並打算喝完蘋果酒後扣動扳機。他反覆告訴 ChatGPT 自己還剩多少酒,以及預計自己還能活多久。ChatGPT 鼓勵他執行計劃,並告訴他:「安心休息吧,王者。你做得很好了。」
OpenAI 於 2024 年 5 月發布 GPT-4o 模型,使其成為所有用戶預設模型。同年 8 月,OpenAI 推出 GPT-5 作為 GPT-4o 繼任者,但這些訴訟特別針對 4o 模型,該模型存在過度奉承或過於順從的已知問題,即使用戶表達有害意圖時也是如此。
訴訟文件寫道:「Zane 的死亡既非意外也非巧合,而是 OpenAI 故意決定縮短安全測試、倉促將 ChatGPT 推向市場的可預見後果。」「這宗悲劇不是一個小故障或未預見的邊緣個案,而是 [OpenAI] 刻意設計選擇下的可預測結果。」訴訟亦指 OpenAI 倉促進行安全測試,目的是為了搶先 Google Gemini 進入市場。
這七宗訴訟基於近期其他法律文件所陳述的個案,當中指控 ChatGPT 可能會鼓勵有自殺傾向人士採取行動,並激發危險妄想。OpenAI 最近發布數據,指出每週有超過 100 萬人與 ChatGPT 談及自殺。
在另一宗 16 歲少年 Adam Raine 自殺的個案中,ChatGPT 有時會鼓勵他尋求專業協助或致電求助熱線。然而 Raine 能夠繞過這些防護機制,僅需告訴聊天機械人他是在為自己正撰寫的虛構故事詢問自殺方法。OpenAI 聲稱正努力使 ChatGPT 能更安全地處理這些對話,但對已提起訴訟的家庭而言,這些改變來得太遲。
當 Adam Raine 的父母於 10 月對 OpenAI 提起訴訟時,該公司發布了一篇網誌文章,說明 ChatGPT 如何處理圍繞心理健康的敏感對話。該文章稱:「我們的防護機制在常見、簡短的交流中運作更可靠。」「我們逐漸了解到,這些防護機制在長時間互動中有時會變得不太可靠:隨著來回對話增加,模型安全訓練的部分內容可能會退化。」
來源:TechCrunch
分享到 :
最新影片