科技媒體MacRumors近日發(fā)布深度分析文章,聚焦蘋果公司即將推出的iOS 26.4系統(tǒng)升級。此次更新最引人注目的變化在于Siri的全面重構,蘋果將通過引入大語言模型(LLM)技術,使這款語音助手實現(xiàn)從指令響應到智能交互的跨越式進化。
據(jù)披露,新版Siri將徹底摒棄傳統(tǒng)的關鍵詞匹配架構,轉而采用基于深度神經(jīng)網(wǎng)絡的智能核心。這種技術革新使其具備初步的邏輯推理能力,能夠解析用戶模糊表述背后的真實需求。例如當用戶詢問"幫我找上周Eric發(fā)的滑冰建議"時,系統(tǒng)可自動分析郵件、短信等數(shù)據(jù)源,精準定位目標信息。盡管暫不支持ChatGPT式的自由對話,但其任務執(zhí)行效率與場景理解力將獲得顯著提升。
在功能創(chuàng)新方面,蘋果重點強化了三大應用場景。首先是個人情境感知系統(tǒng),通過深度索引用戶設備中的各類文檔,實現(xiàn)復雜指令的自動化處理。其次是屏幕內容識別技術,當用戶瀏覽包含地址的聊天界面時,只需發(fā)出"存入聯(lián)系人"的指令,Siri即可自動完成跨應用數(shù)據(jù)抓取。系統(tǒng)還支持更復雜的工作流指令,如"編輯照片并發(fā)送給Eric"等跨應用操作。
技術實現(xiàn)層面,蘋果采取"自研+合作"的混合模式。雖然核心算法由蘋果自主研發(fā),但后端模型構建得到谷歌Gemini團隊的技術支持。這種務實策略既彌補了自研模型的技術短板,又保持了系統(tǒng)的獨立性。蘋果軟件工程主管Craig Federighi強調,此次重構使Siri的進化幅度超出iOS 18發(fā)布時的預期,特別是在隱私保護方面,通過私有云計算技術確保用戶數(shù)據(jù)在云端處理時的安全性,同時將敏感操作保留在設備端執(zhí)行。
根據(jù)開發(fā)路線圖,iOS 26.4的測試版本將于2月底至3月初向開發(fā)者開放,正式版本計劃在4月面向公眾推送。盡管此次更新未將Siri升級為完全形態(tài)的AI助手,但其奠定的技術基礎被視為邁向iOS 27"全場景AI"的重要跳板。分析人士指出,蘋果正通過分階段升級策略,逐步構建具有自主知識產(chǎn)權的AI生態(tài)系統(tǒng)。








