Apple 近日積極推進生成式 AI 發展,外媒《The Information》披露 Apple 已取得 Google Gemini 模型完整存取權限。Apple 引入相關技術,期望為 Siri 及其他 AI 功能進行深度個人化,甚至創造可直接在 Apple 裝置上獨立運作的小型 AI 模型。
Google 已在自家資料中心向 Apple 開放 Gemini 完整權限,讓 Apple 能直接使用這套大型模型進行訓練與調整。這次開放對 Apple 而言,最關鍵用途是「模型蒸餾」技術。Apple 先讓 Gemini 執行一系列複雜任務並取得高品質回答,同時觀察模型推理摘要,再將這些結果用於訓練體積較小及成本較低的模型。這種做法讓小型模型無需具備龐大規模,也能學習到接近 Gemini 的運算邏輯。最終 Apple 有機會創造出節省資源又具備高效能的 AI 模型,並直接部署在 iPhone、iPad 或 Mac 等裝置上運行。
落實這項技術對 Apple 意義重大。基於 Apple 一直強調裝置端 AI 的重要性,背後除了考量效率問題,也與私隱保護息息相關。透過這些提煉出來的小型模型,Apple 能讓更多 AI 任務直接在本機完成,無需每次都將數據傳送至雲端伺服器處理。這做法除了有助提升回應速度,也更符合 Apple 長期主打的私隱策略。這意味著未來 Siri 功能即使沒有連接互聯網,也能在本機裝置上直接完成理解、摘要與互動式回應。彭博社記者 Mark Gurman 早前透露,Apple 每年斥資約 10 億美元(約 78 億港元)取得 Gemini 使用權,藉此引入高達 1.2 兆參數模型,規模遠超 Apple 僅有 30 億參數的裝置端自研模型。
報道亦提到 Apple 可以根據需求直接調整 Gemini,使其回應方式更貼近 Apple 期望的產品體驗。不過這項工程頗具挑戰,因為 Gemini 原先主要針對聊天機械人與程式開發等場景進行改良,這些訓練方向未必完全符合 Apple 對 Siri 的定位。Apple 期望締造的 Siri 並非單純用作回答問題的聊天機械人,而是更貼近個人助理角色。Siri 必須理解使用情境並整合系統功能,以更自然和安全的方式與使用者互動。因此 Apple 即使能使用 Gemini,仍需投入大量時間重新調校,才能讓它真正切合自家需求。
報道進一步指出 Apple 計畫在 iOS 27 中推出更聰明的新一代 Siri,整體方向將更接近聊天機械人型態,背後正正是仰賴 Gemini 技術支援。預期未來 Siri 將具備更多生成式 AI 能力,例如回答複雜問題、整理重點摘要、理解與分析使用者上傳檔案,甚至協助規劃與預訂旅行行程。Mark Gurman 亦指出全新設計的 Siri 預計於 2026 年 6 月 WWDC 大會上亮相,屆時介面將迎來大改版,標誌著 Siri 將逐步朝向全能 AI 助理發展。
值得留意 Apple 並非全面轉向依賴 Google 技術。Apple 內部 Foundation Models 團隊仍持續開發專屬 AI 模型,推進另一路線的技術佈局。目前 Apple 在 AI 策略上採取「雙軌並行」模式,一方面利用外部成熟模型縮短產品開發時程,另一方面持續培養自家模型能力,避免長期受制於外部技術供應商。生成式 AI 發展一日千里,若單靠內部研發或會拉長功能啟用時間,但完全依賴外部模型又可能失去產品主導權與差異化優勢。Apple 若能成功把大型語言模型能力轉化成穩定自然且符合私隱期望的日常體驗,iOS 27 之後 Siri 將可迎來外界期待已久的重大革新。
資料來源:MacRumors