北京航空航天大學科研團隊在《自然-通訊》期刊發表突破性成果,其研發的神經形態視覺系統在運動處理效率上實現重大突破。實驗數據顯示,該系統處理速度較傳統光流技術提升四倍,有望為自動駕駛、工業機器人和醫療機器人等領域帶來顛覆性變革。這項創新源于對人類視覺系統的深度模仿,通過仿生架構設計突破了傳統計算模式的局限。
研究團隊從生物視覺機制中獲取靈感,聚焦于大腦外側膝狀體的信息處理模式。這種位于視網膜與視覺皮層之間的神經結構,能夠智能篩選時空變化信號,使人類視覺系統優先感知動態對象。科研人員將這種選擇性注意機制轉化為芯片設計原理,開發出具備實時運動識別能力的神經形態模塊。與傳統依賴連續靜態幀分析的方法不同,新系統直接追蹤光強變化區域,僅對動態部分投入計算資源。
在技術實現層面,該系統突破了傳統芯片存儲與運算分離的架構瓶頸。神經形態硬件通過仿生設計將存儲單元與計算單元深度融合,顯著降低數據傳輸能耗的同時提升運算效率。這種架構創新使得系統在模擬駕駛測試中,將運動識別延遲縮短75%,在復雜場景下的追蹤精度提升一倍。對于時速120公里的自動駕駛車輛而言,處理延遲從0.5秒降至0.125秒,相當于空窗期行駛距離從16.7米縮減至4.2米。
盡管新系統在多重運動交錯場景中仍存在優化空間,且最終圖像解析仍需借助傳統光流算法,但其整體性能已形成代際優勢。測試數據顯示,在動態目標追蹤任務中,新系統的處理速度達到每秒120幀,較傳統方法的30幀/秒實現質的飛躍。這種效率提升使得機器人系統能夠更精準地捕捉手勢變化、面部微表情等細微動態,為家庭服務機器人的人機交互開辟新可能。
行業專家指出,該技術的突破性在于構建了生物啟發式視覺處理范式。傳統機器人視覺系統通過像素亮度變化推算運動軌跡,而新系統直接模擬視網膜神經節細胞的光響應特性,實現了從信號接收端到處理端的全程優化。這種架構革新不僅提升處理速度,更使系統具備類似生物視覺的抗干擾能力,在光照突變、目標遮擋等復雜環境中保持穩定性能。
當前研究團隊正著力解決硬件規模化部署難題,重點攻關神經形態芯片與現有AI系統的兼容問題。實驗表明,當處理單元數量從1024個擴展至4096個時,系統功耗僅增加18%而運算速度提升3.2倍。這種可擴展性為未來構建百萬級神經元計算網絡奠定基礎,有望推動機器人視覺系統向類人水平演進。
該成果已引發跨學科關注,神經科學、計算機視覺和機器人工程領域專家展開聯合研討。研究團隊公開的實驗數據集包含2000小時的動態場景記錄,涵蓋自動駕駛、工業抓取、醫療操作等典型應用場景,為后續技術迭代提供重要基準。完整研究論文可通過學術期刊平臺獲取,相關技術文檔同步在開源社區發布。











