德國科隆大學植物科學教授 Marcel Bucher 因為關閉 ChatGPT 資料授權選項,導致累積 2 年研究資料全數消失,當中包括經費申請書、論文草稿及教學講義等內容,且無法復原。Marcel Bucher 於 2026 年 1 月在《Nature》專欄披露這宗案件,引起學術界與科技圈熱烈討論。
Marcel Bucher 於 2025 年 8 月關閉帳號內「為所有人改善模型」(Improve the model)資料授權選項,原意是測試停止提供資料給 OpenAI 訓練模型後能否正常使用。選項關閉後,其專案資料夾立即從介面消失,所有對話紀錄永久刪除,且沒有復原選項。
Marcel Bucher 在《Nature》專欄描述,他每日使用 ChatGPT 處理電郵撰寫、課程大綱設計、經費申請整理、學術出版編輯、講座準備、考試設計及學生意見評估等工作。他形容這些對話紀錄是支撐未來實驗「知識鷹架」(intellectual scaffolding)。雖然部分對話有保留副本,但大量研究內容已永久遺失。
OpenAI 回應指出,聊天紀錄刪除後無法復原,並質疑 Marcel Bucher「沒有警告」說法,表示系統在用戶永久刪除對話前會提供確認提示。OpenAI 建議專業用途應自行備份資料。
根據 ChatGPT 刪除機制,用戶刪除對話後內容會從可見紀錄立即移除,並在 30 日內永久清除。除非資料已去識別化或因法律要求保留,否則無法透過任何介面或支援管道復原。
事件曝光後,LinkedIn 專業人士 Manal Iskander 撰文指出,這並非用戶錯誤,而是產品現實與人類預期處於兩個不同世界結果。她表示,ChatGPT 在設計上並非儲存系統,僅是具記憶功能介面,不保證資料持久性,也沒有備份機制。但在實際使用中,人們將它當作雲端儲存及專案中心,因為使用體驗悄然鼓勵這種行為。
Reuters 報道指出,截至 2025 年 2 月,ChatGPT 每週活躍用戶達 4 億,較 2024 年 8 月 2 億用戶增倍成長。如此龐大用戶基數下,系統設計缺陷可能危及大量知識產權。許多學術機構鼓勵採用 AI 工具,卻未制定明確資料保留政策,形成與電郵系統必須符合研究合規要求鮮明對比。
這宗案件反映生成式 AI 對學術生態深層影響。劍橋大學出版社於 2025 年 10 月發布《Publishing Futures》報告,調查全球超過 3,000 名研究人員,發現 53% 受訪者認為 AI 會對學術出版系統產生負面影響,僅 18% 認為會改善。
受訪者擔心 AI 會導致更多基於低品質資料集研究、更頻繁出現 AI 「幻覺」內容,以及更多知識產權歸屬爭議。調查顯示 81% 受訪者認為研究產出數量激增令同儕審查系統承受壓力,50% 認為低品質同儕審查與提交論文增加有關。
劍橋大學出版社董事總經理 Mandy Hill 在報告前言警告,重要研究可能被大量低品質或 AI 生成內容淹沒,出版生態系統財務模式正變得難以維持。她強調:「出版更少但更好的內容,對全球整個研究系統健康至關重要。」
更嚴峻的是,Pangram Labs 分析 ICLR 2026 會議提交 19,490 篇論文及 75,800 篇同儕審查,發現 21% 審查完全由 AI 生成,超過半數審查顯示使用 AI 工具。AI 生成審查可能遺漏細微貢獻、引用不存在論文,或提供錯誤事實,產生缺乏具體可行建議空泛意見,破壞同儕審查提供專業評估根本目的。
這是 ICLR 會議首次面對如此規模 AI 生成內容,會議組織者已開始要求揭露 AI 使用情況。這宗案件核心警訊是:ChatGPT 是輔助工具,不是資料保險箱。
資料來源:Slashdot、Times Higher Education、Nature