蘋果公司正計劃對旗下語音助手Siri進行重大升級,這一消息由科技媒體MacRumors在最新報道中披露。據悉,即將推出的iOS 26.4系統將整合基于大語言模型(LLM)的全新核心架構,徹底改變Siri現有的工作模式。這一變革標志著蘋果在人工智能領域邁出了關鍵一步,有望重塑用戶與智能設備的交互體驗。
傳統Siri依賴關鍵詞匹配的指令式架構將被徹底摒棄。新版系統采用的大語言模型架構,使Siri首次具備真正的邏輯推理能力。雖然初期版本不會支持像ChatGPT那樣的無限制長對話,但其對模糊指令的理解和執行能力將實現質的飛躍。例如,用戶無需使用精確的關鍵詞,只需表達大致意圖,Siri就能準確理解并完成任務。
在功能層面,升級后的Siri將帶來多項突破性改進。個人情境功能允許系統深度索引用戶的郵件、短信和文件內容,用戶可直接下達"查找上周Eric發來的滑冰建議"或"顯示我的護照號碼"等復雜指令。跨應用集成能力也得到顯著增強,用戶可以命令Siri"編輯這張照片并發送給Eric",系統將自動完成多步驟操作。屏幕感知功能則使Siri能夠理解當前屏幕顯示的內容,提供更貼合場景的智能建議。
技術實現路徑上,蘋果采取了務實的合作策略。新版Siri的后端模型由蘋果與谷歌Gemini團隊聯合開發,這種"自研+合作"的混合模式標志著蘋果AI戰略的重要轉變。蘋果軟件工程主管Craig Federighi表示,這種端到端的重構使Siri的升級幅度遠超最初iOS 18發布時的承諾。在隱私保護方面,蘋果堅持"隱私優先"原則,通過私有云計算處理云端請求,同時確保敏感操作仍在設備端完成。
根據規劃,iOS 26.4的測試工作將于2月底至3月初啟動,正式版本預計在4月向公眾推送。雖然此次更新不會使Siri成為完全體的聊天機器人,不支持長時記憶和多輪深度對話,但它被視為蘋果構建"完全體AI"系統的重要跳板。業界普遍認為,這次升級將顯著提升Siri的實用性,為未來更智能的交互體驗奠定基礎。











