AI 生成的假資訊正形成惡性循環,威脅網絡資訊生態。教育 YouTube 頻道 Kurzgesagt 近日發布影片,揭露 AI 內容如何污染人類知識庫,並警告此問題可能導致互聯網無法逆轉的崩潰。
AI 假資訊的擴散規模
目前約一半互聯網流量來自機械人,當中大部分用於破壞性目的。截至 2025 年,已確認超過 1,200 個新聞網站和網頁發布 AI 生成的假資訊和虛假故事。這些網站通常使用通用名稱,例如 iBusiness Day、Ireland Top News 和 Daily Time Update,讓消費者誤以為是正規新聞機構。
Google Discover 也被發現推廣 AI 生成的假新聞網站。法國媒體 Next 發現超過 4,000 個此類網站,當中許多專門為賺取廣告收入而建立。
Kurzgesagt 的實測經驗
Kurzgesagt 團隊嘗試使用 AI 研究工具製作內容,發現約 80% 的資訊包含可靠來源連結,但餘下 20% 無法追溯資訊出處。團隊進一步調查「可靠」來源時,發現部分新聞文章由 AI 生成,使用「AI 論文檢測工具」後得出 72% 匹配率。這意味著新聞網站發布未經核實的 AI 資訊,而學習該新聞的 AI 再將其作為「有來源的資訊」提供。
團隊後來發現一條關於褐矮星的影片,當中包含他們標記為不可靠或虛構的資訊。當下一個 AI 進行相同研究時,便會找到這條有大量觀看次數的影片,導致假資訊被當作「事實」並進一步擴散。
學術界的 AI 污染
一項對數百萬篇科學論文的語言分析顯示,在 LLM 興起後,AI 慣用詞彙的出現頻率突然大幅增加。這顯示大量論文至少有 AI 協助撰寫,但通常沒有註明。
AI 的幻覺現象尤其令人憂慮。研究將 AI 幻覺分為內在和外在兩類:內在幻覺會產生與來源內容矛盾的輸出,外在幻覺則是輸出無法根據來源內容驗證準確性的內容。這些幻覺源於模型的概率性質、訓練資料集的分佈以及語言模型的弱點。
2025 年 7 月,研究人員發現有人開始在論文中偷偷加入隱藏訊息,以白色文字或肉眼無法看見的微小字體,提示 AI 給予正面評價並且不指出論文缺陷。
對創作者的威脅
Kurzgesagt 表示,若廉價的劣質內容佔據了大部分人類的注意力,像他們這類型的頻道將難以繼續經營。團隊製作每條影片,單是事實核查和來源收集便需時約 100 小時,過程包括 2 至 3 人深入核實資料,最後再由數名專家提供意見和批評。
團隊承諾繼續以人手製作內容,只會將 AI 用作輔助工具,就像 Adobe Illustrator 的對齊工具一樣。他們表示寧願停止創作,也不願製作 AI 生成的劣質內容,並呼籲觀眾支持由人手製作的內容。
資料來源:NewsGuard
分享到 :
最新影片