中國初創人工智能公司 DeepSeek 近日被傳出使用率暴跌,甚至有媒體形容「從神話變泡沫」,然而深入了解後,市場其實出現截然不同的觀點。事實上,DeepSeek 憑藉低成本與資源優化的技術創新,成功改寫了大型語言模型(LLM)競爭規則,成為目前少數能在低規格裝置上運行的高效能 AI 模型。這一優勢令不少業界人士認為,DeepSeek 並未真正「跌落神壇」。
使用率暴跌數據被質疑未反映實況
1)報道未有提及 API 調用情況,且 API 為最大用量來源
早前有報道指,DeepSeek 今年初憑 R1 模型一度佔據市場高峰,使用率達 50%,但截至 7 月已驟降至僅 3%。不少評論將此歸咎於新一代 R2 模型延遲推出,甚至質疑 DeepSeek 長遠發展。然而業界有聲音指出,這些統計數據只計算 DeepSeek 官方網站的流量,而並無計算 API 調用的情況, 並未全面反映其實際應用情況。更重要的是,API 調用被視為 DeepSeek 的最大用量來源,根據市場分析,API 吞吐量每日高達數百億 token,遠超網站流量,忽略這部分將嚴重低估其真實使用規模。
2)開源化後,企業或個人都可架設 DeepSeek 伺服器
因為 DeepSeek 採用完全開源策略,市場上早已出現大量「滿血版」 DeepSeek 變體,包括第三方自行架設的平台和內部企業私有化部署版本,這些版本通常功能更齊全,例如加入特別功能迎合用戶需要。用戶使用 DeepSeek 甚至已經不需要接入官方 API。不少公司和個人直接將 DeepSeek 模型運行在自己伺服器甚至家用電腦,這類用戶量無法通過網站流量統計,亦因此令「使用率暴跌」的說法備受質疑。此外,在 on-premises(內部部署)場景下,如公司內部使用自家電腦或個人裝置運行 LLM,DeepSeek 被公認為目前最強的 LLM 選擇,其高效能與低資源需求使這類用量同樣無法計入官方數據。
3)市場上不少企業推出「特製版」DeepSeek
開源策略令到市場上不少企業將 DeepSeek 製作成度身訂造的版本,包括香港生成式人工智能研發中心推出的 HKGAI,這些都是基於DeepSeek模型進行全參數微調的本地生成式 AI 模型。而使用這些模型也毋須調度官方 API,這些用量也無從估計,也沒有被納入成為「DeepSeek 使用率」。然而,這也引發質疑:這些變種究竟算不算 DeepSeek 的直接使用?如果視為其生態延伸,DeepSeek 的整體影響力其實遠超表面數據。
何謂本地部署 AI?企業和個人如何建立自主運行的 AI 系統?
「本地部署」AI(On-premises AI)是指將人工智慧模型(如大型語言模型 LLM)直接部署在本地硬體環境中運行,而不是依賴雲端服務提供者(如 AWS 或 Azure)。這包括使用公司內部的伺服器、資料中心,或個人電腦/裝置來執行 AI 任務。這種模式強調資料私隱、安全性和自訂控制,因為所有運算和資料處理都留在本地,不需上傳到外部伺服器,從而避免潛在的資料洩露風險或合規問題(如 GDPR)。例如,企業可能在自家伺服器上運行 LLM 來處理機密文件,而個人則在自家電腦上運行小型 AI 工具來生成內容。
相較於雲端 AI(Public AI),本地部署的優點包括更高的資料主權、更低的長期成本(無需持續付費訂閱)、以及在斷網環境下的可用性。但缺點是初始投資較高,需要自行維護硬體和軟體,且擴展性較受限於本地資源。
DeepSeek(由 DeepSeek-AI 開發的開源 LLM 系列,如 V3 和 R1/R2 版本)被廣泛視為內部部署場景下高效能的選擇,尤其在 2025 年,它以低資源需求和成本效益著稱,而非絕對性能最強(其在某些基準測試中落後於 GPT-4o 或 Llama 4,但勝在效率)。DeepSeek 的模型設計強調輕量化訓練和推斷,能在較低功率下運行高品質輸出,這大大降低了內部部署的門檻。
DeepSeek 對「本地部署」AI 的具體影響:
降低資源需求:DeepSeek 的模型使用更少的 GPU 資源和電力(比傳統 LLM 低 2-5 倍),讓個人用戶能在標準 RTX 系列卡上運行大型模型,而企業可減少伺服器投資(例如,從 8GB VRAM 即可起步)。這使本地部署更易親近,尤其對中小企業或資源有限的個人。
提升可及性和成本效益:作為開源模型,DeepSeek 免費下載並自訂,減少依賴雲端訂閱。企業可部署於 on-premises 以確保合規和私隱,個人則能輕鬆實驗 AI 應用。這也促進 AI 讓更多人參與創新,而不需巨額預算。
潛在限制與影響:雖然高效,DeepSeek 在極端複雜任務(如多語言推理)上可能不如頂級閉源模型強大,且需定期更新以跟上進展(如 2025 年可能有新版本)。整體上,它推動產業轉向更可持續的 AI 部署,減少官方雲端使用數據的統計偏差,但用戶仍需評估是否適合自身需求。
低資源運行為技術突破 開放社群快速擴散
我們早前實測就發現,即使在 Mac Studio M3 Ultra 這類非 AI 專用伺服器上,DeepSeek R1 70B 模型仍可流暢運行,進行長篇邏輯推理與文字生成。測試數據顯示,M3 Ultra 以 Q4 精度模式運行時,Token 生成速度達 11.62 token/s,而在 Q8 精度上亦有不錯的速度。前提是電腦有充足記憶體,以及安裝有一定程度的 GPU,本地運行 LLM 已不成問題。


觀看詳細評測影片:
在 DeepSeek 推出 V3 時我們亦曾推出過一篇技術文章《中國 AI 公司新發表 DeepSeek V3 :一文看清 2 大技術及 6 個原因讓 AI 巨頭們感意外》介紹低成本背後的 2 大關鍵技術,對於本地運行,以至在智能手機、平板上發展都有莫大幫助。
DeepSeek 低成本開發背後的 2 大關鍵技術:
混合專家架構(MoE)減省運算資源 DeepSeek-V3 採用「混合專家架構」,即只在需要時啟動部分運算單元,避免全模型同時運作,成功大幅降低硬件需求。整個訓練過程僅動用了 2048 部 NVIDIA H800 GPU,遠低於傳統大型語言模型的資源消耗。
節能技術與數據優化 DeepSeek 透過內部數據工具生成高品質訓練資料,配合「蒸餾技術」進一步壓縮模型運算需求。訓練時採用 FP8 低精度格式,令顯示卡記憶體需求降至傳統 FP16 的一半,同時保持運算效能,降低整體成本並提升效率。
想更清楚有關技術,可點擊以下圖片進入原文:
分享到 :
最新影片

