人工智能領域迎來一項顛覆性突破:一位麻省理工學院(MIT)博士帶領團隊成功將完整計算機系統嵌入Transformer架構,使大語言模型(LLM)首次具備原生計算能力。這項研究通過硬編碼方式將WebAssembly(WASM)虛擬機整合進模型權重,讓AI無需調用外部工具即可在數秒內完成百萬級計算步驟,在求解復雜數獨時實現100%準確率,徹底改寫了傳統模型在數值計算領域的尷尬記錄。
研究團隊采用的創新解碼路徑突破了傳統注意力機制的效率瓶頸。通過限制二維注意力頭的查詢范圍,他們開發出指數級加速的注意力機制,使模型在CPU環境下達到每秒生成3.3萬個token的驚人速度——這一指標是MacBook M2 Pro解碼速度的1200倍。盡管實際計算速度仍不及專用處理器,但該技術首次賦予LLM內在的確定性計算能力,使其能夠自主完成乘法運算、多步優化等傳統弱項任務。
雅典大學副教授Christos Tzamos領導的Percepta團隊通過將C語言代碼轉化為token序列,使模型能夠直接執行任意程序。在求解最小成本完美匹配問題時,系統通過自回歸方式生成包含虛擬機狀態、內存操作和控制流的動態軌跡。每個新token的生成僅需回溯少量先前步驟,這種設計使計算過程呈現圖靈機般的線性擴展特征,有效規避了傳統Transformer架構的指數級復雜度增長問題。
技術實現的關鍵在于對計算過程的軌跡編碼。研究團隊將虛擬機狀態分解為指令指針、棧操作和算術運算等組件,通過固定長度的注意力窗口重構當前狀態。這種設計使模型在處理長序列計算時,仍能保持恒定的計算復雜度。實驗數據顯示,系統在3分鐘內即可完成傳統方法需要數小時的復雜數獨求解,且在百萬級計算步驟中保持零誤差率。
這項突破為AI應用開辟了全新可能性。數值計算、物理模擬和金融建模等領域將直接受益,密碼學運算等對確定性要求嚴苛的場景也獲得突破契機。有開發者將其類比為TI公司的DSP芯片架構:神經網絡負責邏輯推理,嵌入式計算引擎處理高速運算,這種分工協作模式可能催生新一代混合智能系統。盡管當前研究仍處于實驗室階段,但其展現的技術路徑已為解決"9.11與9.9大小比較"等基礎性難題提供了根本性方案。











