根據彭博社的報導,蘋果(Apple)正在開發一款更聰明、更強大的 Siri 版本,它將採用由 Google 開發的 Gemini 人工智慧模型 。據傳,蘋果每年將支付 Google 約 10 億美元(約新台幣 320 億元),來使用這個擁有 1.2 兆參數的 AI 大型語言模型(LLM) 。
參數數量是衡量模型理解和回應能力的重要指標 。通常來說,參數越多,模型的功能就越強大,不過訓練方式和架構也會影響實際效果 。據了解,Google Gemini 模型的參數數量遠超過蘋果目前使用的 AI 模型 。
目前,蘋果基於雲端的 Apple Intelligence 版本使用了 1,500 億參數 ,但蘋果自家其他 AI 模型的具體參數量則尚未公開 。
蘋果計畫將 Gemini 用於摘要、複雜任務的規劃與執行等多步驟功能 。不過,Siri 的部分功能仍會採用蘋果自家開發的 AI 模型 。值得注意的是,Google 為蘋果開發的 Gemini 將在蘋果專門的私有雲伺服器上執行,Google 將無法存取任何蘋果使用者的資料 。
Gemini 採用了「專家混合架構(Mixture of Experts, MoE)」 。雖然總參數超過一兆,但每次查詢時只會啟動部分參數 。這種設計的好處是既能保有強大的運算能力,同時也能降低運算成本 。
蘋果先前曾經考慮採用自家的大型語言模型 ,也測試過 OpenAI 和 Anthropic 的解決方案 ,但最終因為 Anthropic 收費過高而選擇了 Google Gemini 。事實上,Google 與蘋果在搜尋引擎領域早有長期合作 ,每年支付蘋果約 200 億美元(約新台幣 6,400 億元) ,讓 Google 成為蘋果裝置上的預設搜尋引擎 。
儘管蘋果現在依賴 Google 的 AI 技術 ,但他們並沒有放棄自主研發 ,並計畫在自家大型語言模型成熟後就轉向使用自家方案 。據傳,蘋果正在開發一款擁有 1 兆參數的雲端模型 ,最快可能在 2026 年投入使用 。不過,蘋果在開發過程中不太可能主動公開與 Google 的合作細節 。
原本,Siri 計畫在 iOS 18 中更新 ,但因為架構上的問題,已經延後到 2026 年春季的 iOS 26.4 版本 。屆時,新版 Siri 將能夠應對更複雜的問題 ,並在各應用程式之間完成更繁瑣的任務 ,功能會接近 Claude 和 ChatGPT 。不過,蘋果目前並沒有規劃推出單獨的聊天機器人應用程式 。
- 延伸閱讀:蘋果 LLM Siri 傳 2026 年初登場!將加入「世界知識」搜尋,還能整合個人資訊
- 延伸閱讀:蘋果 AI 秘密武器曝光:代號「AKI」團隊現身,賈伯斯遺願 Siri 真的要翻身了?
- 延伸閱讀:新版 Siri 將長這樣?爆料指蘋果打造「擬人化 AI 機器人」挑戰智慧助理新形態
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!