Virginia 州立圖書館研究員兼主管 Sarah Falls 估計,館方收到電郵查詢中約 15% 由 ChatGPT 等 AI 聊天機械人生成,當中經常包含根本不存在的引用資料。更令圖書館員困擾的是,當他們向公眾解釋某些書籍或文獻並不存在時,許多人寧願相信 AI 聊天機械人,也不願相信每天專門尋找可靠資訊的專業人員。
AI 幻覺問題影響學術界
AI 生成虛假引用問題已超越一般讀者層面,深入學術出版領域。Chicago Sun-Times 一名自由撰稿人曾使用 AI 生成夏季閱讀書單,推薦 15 本書籍,結果其中 10 本根本不存在。Robert F. Kennedy Jr. 今年 5 月發佈報告中,至少 7 個引用經查證後證實捏造。
荷蘭代爾夫特理工大學今年 6 月發表研究揭露嚴重學術造假案例。研究人員分析某學術期刊 53 篇文章,發現至少 48 篇由 AI 生成,並虛假署名予 Washington University、加州大學柏克萊分校、賓夕凡尼亞州立大學等知名學府研究人員,甚至有兩名被列為作者的學者在文章發表時已經離世。
技術限制造成可信度危機
ChatGPT 生成虛假引用原因在於技術限制。這些 AI 系統學習引用格式而非實際引用內容,無法即時連接資料庫驗證引用是否存在,只能基於統計機率生成看似合理文字,而非提供事實準確資訊。麻省大學學術圖書館員 Jaime Taylor 觀察到,圖書館系統供應商急於推行 AI 功能,但效果往往不理想。
國際紅十字會最近發佈公告提醒公眾,若無法找到某個檔案引用,並不代表該機構隱瞞資訊,可能是引用不完整、文件存放在其他機構,或越來越常見的情況——AI 生成幻覺內容。尼日利亞圖書館員研究顯示,專業圖書館員應對 AI 幻覺及錯誤資訊時面臨重大挑戰,包括缺乏專門 AI 培訓、沒有既定驗證指引、技術快速發展及機構支援有限等問題。
公眾過度信任 AI 權威性
部分用戶過度信任 AI 原因,在於聊天機械人以權威口吻說話,令人難以質疑。不少用戶認為在提示詞中加入「不要產生幻覺」或「寫出乾淨程式碼」等指令,就能確保 AI 只提供最高質素輸出。若這些方法真的有效,Google 和 OpenAI 等公司早已將這些指令預設加入每個提示詞中。
資料來源:Gizmodo


















