在杭州舉辦的一場科技盛會上,宸境科技以一場別開生面的新品發布會吸引了行業目光。不同于以往機器人發布會上常見的炫技表演,宸境科技此次聚焦具身智能的“基礎設施”建設,推出了一套經過工業級驗證的標準化感知方案,并正式發布了“LooperRobotics”品牌體系及其全棧技術矩陣,包括Insight自主空間智能相機、TinyNav神經導航算法庫以及RoboSpatial空間感知軟件平臺。
具身智能的發展已步入深水區,感知能力的強弱直接決定了機器人的應用上限。宸境科技此次發布的Insight自主空間智能相機,以其獨特的設計理念和卓越的性能,打破了傳統攝像頭設計的束縛。不同于常見的橫向排列攝像頭,Insight相機采用了三個縱向排列的攝像頭,將視場角擴大至驚人的188°,即使在人群密集的環境中,也能通過捕捉天花板和地板的紋理信息,為機器人提供穩定的定位參考。
除了超廣角視野,Insight相機還具備出色的抗震性能,能夠承受高達24g的劇烈震動。這一特性使得足式機器人在進行高動態運動時,如跑酷、跳躍等,也能保持穩定的感知能力,避免了因震動導致的傳感器失靈問題。宸境科技的這一創新,無疑為機器人走向更復雜、更極端的應用場景提供了有力支持。
在數據處理方面,Insight相機同樣展現出了前瞻性的設計思路。研發團隊將強大的AI算力芯片集成到了相機內部,實現了算力的“內移”。這一設計不僅解決了傳統機器視覺在面對白墻、透明玻璃等無紋理環境時的“白墻恐懼癥”,還通過端側計算,實現了“感知-行動”的閉環在毫秒級內完成,大大提高了機器人的反應速度和動作敏捷性。
如果說Insight相機解決了機器人“看得見”的問題,那么TinyNav神經導航算法庫則是為了解決“認得路”的難題。TinyNav項目發起人楊振飛介紹,該算法庫借鑒了生物大腦中的“網格細胞”和“位置細胞”機制,通過模擬人類的認知方式,使機器人能夠依靠環境特征而非單純的幾何測量來認路。這一創新不僅提高了導航系統的泛化性,還通過限制核心代碼行數,降低了開發難度和成本。
為了讓這套系統更加易用,宸境科技還開發了RoboSpatial空間編輯平臺。該平臺通過可視化的界面設計,使得開發者能夠像搭積木一樣輕松規劃機器人的作業路徑和區域。這一創新大大降低了具身智能技術的落地門檻,使得非專業人士也能快速上手,為機器人技術的普及和應用提供了有力支持。
在此次發布會上,宸境科技首席機器人科學家左星星的亮相也引起了廣泛關注。作為機器人感知領域的專家,左星星在多模態感知、場景理解等方面有著深厚的研究背景。他的加入,無疑將為宸境科技在機器人、空間智能與具身智能領域的發展注入新的活力。
宸境科技聯合創始人兼CEO胡聞在發布會上提出了“空間智能即服務”的全新理念。他認為,具身智能正在成為全球范圍內的共識,其市場規模有望比肩汽車與手機。在這個龐大的產業鏈中,宸境科技將扮演具身智能“基建狂魔”的角色,致力于成為機器人時代的一級供應商,為千行百業提供統一、標準、高可用的感知底座。











