DeepSeek 最新推出的 V3.1 語言模型被發現存在技術缺陷,在生成程式碼時會意外插入中文字符「极」,影響模型在編程應用上的可靠性。多名開發者在不同推理平台上都發現這個問題,顯示這並非個別事件。
一名開發者在進行 DeepSeek V3.1 測試時發現,模型在生成簡單的程式碼片段時經常出現異常。例如當系統應該輸出「time.Second」時,模型卻生成「time.Se极」,將中文字符「极」和「極」插入到英文程式碼中。

在多個測試案例中,開發者使用不同的設定進行測試,包括本地 llama.cpp 推理引擎和 Fireworks 平台上的 FP8 全精度模型。結果顯示,這些中文字符在完全不相關的語境中獲得了異常高的機率分數。
進一步調查發現,這個問題不僅限於 DeepSeek V3.1,連同系列的舊版本 DeepSeek V3 0324 也存在類似狀況。更令人擔憂的是,阿里巴巴旗下的 Qwen3 系列模型,包括 235B A22B Instruct 2507 和 Qwen3 Coder 30B A3B Instruct 版本,都出現相同症狀。
開發者懷疑這些模型可能使用了相同的「受污染」訓練數據,導致在不適當的情況下生成中文字符。不過智譜 AI 的 GLM 4.5 模型看來並未受到影響。
為確認問題不是來自特定推理工具,開發者在多個不同平台進行測試,包括 Fireworks 和 Novita。結果顯示所有平台都出現相同問題,排除了推理引擎導致的可能性。開發者推測問題可能與 MTP(Mixed Token Prediction)技術有關。在不支援 MTP 的推理堆疊中,這個問題變得更加明顯。
對於需要精確程式碼生成的開發環境,這種隨機插入中文字符的行為可能導致程式錯誤或編譯失敗。專家指出,這種跨語言字符混淆問題反映了當前 AI 模型訓練和數據清理過程仍存在改善空間。隨著越來越多企業依賴 AI 協助程式開發,確保模型輸出的準確性和一致性變得更加重要。
來源:Reddit
分享到 :
最新影片
