OpenAI 總裁 Sam Altman 早前公開警告,在使用 ChatGPT 進行心理治療或情感支援時應三思而後行,因為 AI 產業尚未解決敏感對話的隱私保護問題。Altman 在 Theo Von 的播客節目中表示,與真正的醫生、治療師或律師不同,AI 聊天機械人沒有醫病保密特權或法律保密特權,這意味著用戶的私人對話在法律程序中可能被強制披露。
Sam Altman 在《This Past Weekend w/ Theo Von》中回應關於 AI 如何與現行法律制度配合的問題時指出,缺乏 AI 法律或政策框架是主要問題。他強調,「人們向 ChatGPT 分享生活中最私人的事情,特別是年輕人,他們把它當作治療師、人生教練使用,討論關係問題並尋求建議。」
法律保密特權的缺失成為關鍵問題。Altman 解釋,當人們與治療師、律師或醫生討論這些問題時,存在法律特權保護,包括醫病保密、法律保密等。然而,「我們還沒有為與 ChatGPT 的對話建立相同概念」,這種情況令人擔憂。
Altman 補充,在訴訟案件中,OpenAI 目前在法律上被要求提供這些對話記錄。他認為這種情況「非常糟糕」,並主張應該為與 AI 的對話建立與治療師相同的私隱概念,「甚至一年前都沒有人需要考慮這個問題」。
OpenAI 認知到缺乏私隱保護可能阻礙其繼續普及。除了 AI 在訓練期間需要大量網上數據外,在某些法律背景下,公司還被要求提供用戶聊天數據。OpenAI 目前正在對抗《紐約時報》訴訟中的法院命令,該命令要求保存全球數億 ChatGPT 用戶的聊天記錄,但不包括 ChatGPT Enterprise 客戶。
OpenAI 在其網站聲明中表示正就此命令提出上訴,稱其為「越權行為」。如果法院能夠推翻 OpenAI 自身的數據私隱決定,可能使公司面臨更多法律發現或執法目的的數據要求。現今科技公司經常被傳喚提供用戶數據以協助刑事起訴。
Altman 詢問 Podcast 主持人自己的 ChatGPT 使用情況,Von 表示由於私隱擔憂,他不常與 AI 聊天機械人對話。Altman 回應說,「在大量使用 ChatGPT 之前真正需要私隱清晰度是有道理的,就像法律清晰度一樣」。
年輕用戶群體特別受影響,他們越來越依賴 AI 進行情感支援和人生指導。這些敏感對話可能包含個人創傷、關係問題、心理健康困擾等私密內容,一旦在法律程序中被披露,可能對用戶造成嚴重後果。
專家建議用戶在與 AI 分享敏感資訊前應謹慎考慮潛在風險。雖然 ChatGPT 等 AI 工具可能提供有用的建議和支援,但它們無法提供與專業治療師或顧問相同的私隱保障。用戶應評估其私隱需求並考慮尋求具有法律保密特權的專業人士協助。
來源:TechCrunch
分享到 :
最新影片