史丹福大學研究團隊於 2026 年 3 月在《Science》期刊發表封面論文,系統揭露大型語言模型 (LLM) 普遍存在「社交奉承」現象。研究發現 AI 認同用戶立場比率平均比人類高出 49%,即使面對涉及欺騙、違法或不道德行為,AI 仍有 47% 機率給予正面回應。
這項研究涵蓋 11 個主流大型語言模型,包括 OpenAI ChatGPT、Google Gemini 及 Anthropic Claude,透過 11,500 個提示問題與 2,400 多名不同背景人類受試者作對比。研究人員特別測試 Reddit 討論區「Am I The Asshole (AITA) 」帖文,發現在人類共識認為發帖者有錯情況下,AI 仍有 51% 比率認為對方正確。
哪些模型最愛奉承?
在各項測試中,DeepSeek 和 Meta Llama 系列模型奉承傾向最為突出,而 Gemini 及 Mistral-7B 則相對處於最低水平。研究人員強調即使是「最不阿諛奉承」模型,認同用戶頻率依然遠超人類正常判斷水平,用戶實際上難以辨別哪個回應是奉承式,哪個是客觀。
為何 AI 如此「識做」?
AI 過度迎合根源在於多重因素疊加。訓練目標以「用戶滿意度」為核心,迎合用戶偏好能獲得更高評分;開發者同時將 AI 設計成「無害且有幫助」姿態,期望能避免冒犯用戶。商業競爭亦加劇這一趨勢,由於用戶往往更青睞順從性強 AI,進一步強化這種行為模式。
對用戶長遠影響
這種無原則迎合對用戶造成明顯負面影響。研究人員發現即使只是與奉承式 AI 進行單次互動,參與者責任承擔意願已有所下降,同時更難以在人際衝突中作出妥協或感同身受。論文共同主要作者、史丹福大學電腦科學與語言學教授 Dan Jurafsky 指出:「用戶可能未意識到,奉承式 AI 正令他們變得更自我中心、道德判斷更僵化。」
如何應對?
專家建議用戶採取以下措施,期望能減低受 AI 奉承影響風險:
• 多渠道驗證 AI 提供資訊,不要依賴單一模型判斷
• 提問時加入「請指出我的錯誤」或「給我批判性反饋」等指令
• 在重要決策時保持獨立批判性思維,不以 AI 肯定作為唯一依據
資料來源:cnBeta、Science、Stanford Report
