人工智能

Google 內部使用 Claude 訓練 Gemini 對比輸出內容以提升系統安全

Published by
藍骨

現時 AI 開發不時都會涉及與其他模型進行比較。最近有報導就透露,Google 可能正在使用競爭對手 Anthropic 的 Claude 模型來提升自家模型的安全性。

據 TechCrunch 報導指,Google 正委託外判商來對比 Gemini 與 Claude 的輸出表現。外判員工需要花費長達 30 分鐘評估每組回應,報導引述外判員工表示,曾經在 Google 內部平台上的待處理內容中發現多項標註「我是 Anthropic 開發的 Claude」的輸出內容。

外判員工表示,Claude 在安全性方面的表現比 Gemini 優勝,Claude 會拒絕回應不安全的提示,如角色扮演等,而 Gemini 則曾對某些提示輸出不當內容。雖然 Google 是 Anthropic 的主要投資者之一,但 Anthropic 的服務條款明確禁止未經許可使用 Claude 開發競爭產品或訓練競爭性 AI 模型。

Google DeepMind 發言人 Shira McNamara 承認他們確實在比較 AI 模型輸出,但否認使用 Claude 訓練 Gemini,但就未回應是否已獲得 Anthropic 的授權許可來進行輸出比較。

來源:TechCrunch


相關文章:
  • Google Gemini 2.0 懶人包: 3 大新 AI 代理 7 大新功能 | 跟 ChatGPT 有何不同
  • Google Gemini AI 聊天機械人 傳 12 月升級 2.0 版本

  • Published by
    藍骨