蘋果與谷歌近期達成一項重要合作,雙方將共同為蘋果產品中的智能語音助手Siri提供人工智能技術支持。這一合作成果有望率先在即將發布的iOS系統測試版本中亮相,蘋果還計劃通過公開演示的方式向用戶展示相關功能升級。
據知情人士透露,新一代Siri將整合谷歌開發的Gemini模型及云技術。為獲得定制化服務,蘋果每年需向谷歌支付約10億美元費用,核心版本采用參數規模達1.2萬億的Gemini 2.5 Pro模型。該模型在信息處理能力上實現質的飛躍,可支持多模態交互、128K token超長文本解析,并能高效完成信息摘要、任務規劃及復雜指令執行等核心功能。相比當前Siri使用的1500億參數云端模型,新系統在上下文理解深度和響應速度上均有顯著提升。
在技術選型階段,蘋果曾對谷歌Gemini、OpenAI ChatGPT和Anthropic Claude三大主流模型進行綜合評估。最終選擇谷歌方案主要基于三方面考量:其一,Gemini 2.5 Pro在大型語言模型性能評測中位居前列;其二,雙方長期建立的合作關系降低了合作風險;其三,混合專家架構設計使模型在保持高性能的同時,能有效控制計算成本與設備能耗,特別適合iPhone、Mac等移動終端的部署需求。
針對用戶普遍關注的數據安全問題,合作方案特別設計數據隔離機制。谷歌為蘋果開發的AI模型將完全運行在蘋果私有云計算服務器上,整個處理過程不涉及用戶數據外傳。這種架構設計既保證了模型性能的充分發揮,又從根本上消除了用戶隱私泄露的風險。根據產品路線圖,升級版Siri預計于2026年春季隨iOS 26.4系統正式推送,后續還將在同年6月WWDC大會預覽的iOS 27、macOS 27等系統中深化功能整合。











