樂天集團 (Rakuten) 3 月 17 日公開旗下最新日語大型語言模型「Rakuten AI 3.0」,惟技術人員隨即發現 Hugging Face 上的設定檔案顯示其架構與中國 AI 公司 DeepSeek 的 DeepSeek-V3 模型高度吻合,兼且發布時被指悄然移除 DeepSeek-V3 原有開源授權聲明,觸發開源社群強烈批評,樂天面對查詢時拒絕披露基礎模型來源,僅稱「非公開」。
6,710 億參數與 DeepSeek-V3 如出一轍
Rakuten AI 3.0 具備約 6,710 億個參數並採用 MoE(混合專家)架構,每次推論僅激活其中約 370 億個參數,實際計算量相當於 370 億參數模型以兼具效能與效率,技術人員翻查模型設定檔案 config.json 後,發現當中明確出現「model_type: deepseek_v3」及「architectures: DeepseekV3ForCausalLM」字樣,而 DeepSeek-V3 原版正是一款同樣具備 6,710 億總參數並啟用 370 億參數的 MoE 開源模型,兩者核心規格完全一致,樂天則辯稱 Hugging Face 平台會自動計算模型參數並顯示 DeepSeek 字樣,「顯示並不等於使用」,惟他們拒絕進一步說明。

開源授權風波:發布初期移除聲明
事件另一爭議在於開源授權處理,DeepSeek-V3 以 MIT 授權發布要求衍生作品必須保留原有版權聲明。樂天發布 Rakuten AI 3.0 時卻未有在 Hugging Face 版本庫中附上 DeepSeek-V3 的原有聲明檔案。事件曝光後樂天隨即補加名為「NOTICE」的聲明文件,技術上恢復合規但開源社群批評此舉「缺乏透明度」,未有正面承認與 DeepSeek-V3 的關係。
政府資助項目引發公眾疑慮
Rakuten AI 3.0 在經濟產業省及新能源・產業技術綜合開發機構(NEDO)的「GENIAC」第 3 期計劃補助下開發,是樂天第 3 代大語言模型,參數規模從「Rakuten AI 7B」約 70 億以及「Rakuten AI 2.0」約 470 億增加至 6,710 億並錄得逾 14 倍升幅,樂天宣稱模型在日語 MT-Bench 測試中以 8.88 分勝過 GPT-4o 的 8.67 分,惟部分用戶測試後反映模型在某些敏感議題的回應立場有偏頗,這情況令外界疑慮持續。樂天強調 Rakuten AI 3.0 在隔離雲端環境中開發,不會向外部傳送任何資料,輸出內容亦以樂天自家日語資料進行額外訓練,暫時未有在旗下服務中部署。
來源:ITmedia
分享到 :
最新影片