一位遊日人士在社交媒體,分享在東京旅遊時因過度依賴 AI 而導致的慘痛經歷,引發網民熱烈討論。當事人於早上 8:30 抵達東京成田機場,原本計劃前往位於駒込的 Airbnb,並詢問了 AI 工具(Perplexity)獲取交通建議。首先她搭錯車,然後再問 AI,最終 AI 又給予太複雜的建議,讓她看不懂,最終要花了 3 小時才到東京。

這位網民表示,從東京到駒込,採納了 AI 引擎提供的「搭乘 Access Express 前往日暮里」方案,卻在登上列車後才發現該班次經淺草線開往西馬込,而非目的地日暮里,首先她就搭錯車。

而在第一次出錯後,當事人再次求助 AI,得到的指令是前往「押上」站下車轉乘,宣稱可抵達日暮里。然而,當他拖著沉重行李、手機電量僅剩 20% 並在站內苦尋良久後,才驚覺該處根本沒有列車前往日暮里。這場原本簡單的旅程,她指被 AI 「fake」了兩次後,最終靠著轉用 Google Maps 才脫困,前後共耗費了 3 小時。

▲樓主貼出當初 AI 提供的建議
而其實如果要從成田機場到日暮里,正確做法是乘搭京成電鐵 Skyliner 便可直達,毋須轉車也更快,或者當初乘搭 Access Express 時不要搭錯車,同樣能直達日暮里。


▲不論是乘換案內或者 Google Maps,都會建議乘坐 Skyliner 直達日暮里
AI 的局限:大型語言模型不等於精確工具
許多網民針對此案例指出,大眾普遍誤解了 AI 的能力,目前常見的 AI 多屬於大型語言模型(LLM),其本質是處理對話與資訊摘要,而非精密的邏輯規劃。網民認為 AI 的資訊來源於網絡數據集結,但資料存在於不同時間點,導致答案可能過時或不詳盡。
* 資訊準確性存疑:AI 產出的內容存在「胡言亂語」的風險,無法處理如日本鐵路這類擁有複雜車種、目的地與月台邏輯的即時系統。
* 技術與資料缺陷:不同模型的資料庫更新頻率不一,特別是免費版本的資料庫通常較舊,難以掌握車站裝修或班次臨時改動等即時變動。
* 工具錯配問題:網民直言,搭車路線這類查詢明明透過 Google Maps、「乘換案內」就能獲得準確結果,將 LLM 當作萬能導航工具是本末倒置。



不能用香港搭車思維
網民以日本交通為例,強調專業工具在特定領域的不可替代性。針對 Access 特急等路線,網民指出並非所有班次都前往相同終點,運作模式類似香港地鐵將軍澳線的支線操作。在這種具備多變班次的複雜邏輯下,使用具備實時數據的 Google Maps 或專門的「乘換案內」應用程式查詢當刻班次,其可靠性遠高於 AI 的推論。
此外,經常前往日本的旅客表示,憑藉經驗一眼就能看出 AI 排出的交通行程存在錯誤,這顯示了 AI 提供的資訊僅能作為參考,絕對不能依賴。

使用者的責任:從盲目依賴到聰明運用
除了科技限制,網民也對使用者的依賴心理與應變能力提出了反思。有意見認為,AI 本身是否存在問題並非核心,關鍵在於使用者是否具備「聰明使用」工具的能力。
* 設立避險底線:網民強調,在面對「絕對不可以出錯」的事情時,絕不應該諮詢 AI。任何來源,無論是 Google 還是 AI,都應視為參考,出發前必須親自蒐集詳細資料了解環境。
* 質疑重複犯錯的邏輯:有意見嚴厲批評,當使用者發現 AI 已經導致錯誤時,理應立即切換到 Google Maps 等公信力工具,而非執著於重複詢問 AI。
* 應變能力的重要性:過度依賴 AI 導航會使人失去對環境的觀察力。網民提醒,計劃再詳細最後仍要根據實際環境應對,搜尋路徑本應是基本的解難能力,不應事無大小都完全依賴科技。

總結
綜合網民意見,AI 在現階段應被定位為「輔助性的參考工具」,而非「重要決策工具」。在處理需要極高準確度與即時性的資訊時,使用者應保持警惕與獨立思考,結合專業工具與事前準備,才能避免被科技「走冤枉路」。
資料來源:Threads
分享到 :
最新影片
