蘋果與谷歌近期達成了一項引人注目的合作協議,雙方將共同為蘋果產品中的智能語音助手Siri提供人工智能支持。這項合作預計將為Siri帶來顯著的性能提升,使其在信息處理、任務規劃和復雜指令執行等方面實現質的飛躍。
根據最新報道,新一代Siri將基于谷歌的Gemini模型和云技術構建。蘋果計劃每年向谷歌支付約10億美元,以獲取定制化的Gemini模型使用權。核心版本將采用參數規模達1.2萬億的Gemini 2.5 Pro,相比當前Siri使用的1500億參數云端模型,其處理能力和上下文理解深度將實現數量級的提升。
升級后的Siri將支持多模態交互和128K token的超長文本處理,能夠更高效地完成信息摘要、任務規劃等核心功能。這項技術革新預計將于2026年春季隨iOS 26.4系統正式推送,隨后還將在同年6月WWDC大會預覽的iOS 27、macOS 27等系統中進一步整合。
在模型選擇過程中,蘋果對谷歌Gemini、OpenAI ChatGPT和Anthropic Claude三大主流模型進行了全面測試。最終選擇谷歌的原因包括:更具競爭力的財務成本、雙方長期建立的合作關系,以及Gemini 2.5 Pro在大型語言模型排行榜中的領先表現。該模型采用的混合專家架構設計尤為關鍵,雖然總參數超過萬億,但每次查詢僅激活部分參數,既保證了高性能又降低了計算成本和能耗,非常適合在iPhone、Mac等多設備場景中運行。
為保障用戶數據安全,谷歌為蘋果開發的AI模型將專門運行在蘋果的私有云計算服務器上。這種架構設計確保谷歌無法獲取蘋果用戶的任何數據,有效消除了公眾對數據泄露的擔憂。這一安全措施被認為是推動雙方合作達成的重要因素之一。
有消息稱,這項合作成果最快將于下月在iOS 26.4測試版中首次亮相。蘋果還計劃通過某種形式向公眾演示相關功能,讓用戶提前體驗新一代Siri的強大能力。隨著發布日期的臨近,業界對這次跨界合作將如何重塑智能語音助手市場格局保持高度關注。










