三星MX事業部執行副總裁Jay Kim在接受外媒CNBC專訪時,首次披露了其智能眼鏡項目的核心設計理念與技術架構。這款設備采用獨特的攝像頭布局方案,將鏡頭置于與用戶視線平齊的位置,通過捕捉第一視角畫面實現環境感知功能。系統高度依賴智能手機進行數據處理,所有復雜計算任務均由手機端完成,眼鏡本體僅承擔基礎信息采集功能。
該技術方案支持三大核心功能:實時場景識別、物體特征分析以及AI智能建議。由于攝像頭與用戶視線保持同步,系統能夠精準獲取用戶正在觀察的物體信息,并通過無線傳輸將數據發送至手機進行深度分析。這種設計既保證了設備輕量化,又通過手機算力彌補了眼鏡本體的性能限制,形成獨特的軟硬件協同模式。
關于交互方式,Jay Kim雖未明確確認是否配備顯示屏,但透露用戶可能需要通過智能手機或智能手表獲取反饋信息。這種設計暗示產品可能采用語音指令、觸覺反饋或手機端界面作為主要交互渠道,避免在眼鏡上集成復雜顯示組件帶來的重量問題。
在技術合作層面,三星與高通、谷歌建立了三方聯盟。高通負責提供專用芯片解決方案,谷歌則開放其系統平臺資源,三方共同開發適配混合現實場景的芯片架構與硬件標準。特別值得注意的是,此次合作將深度整合Android XR平臺,為開發者提供統一的開發環境。
據供應鏈消息顯示,三星智能眼鏡項目包含兩條產品線:無屏基礎款計劃于年內上市,而配備顯示屏的增強版預計推遲至2027年發布。這種產品策略既滿足初期市場探索需求,又為技術迭代預留充足時間。公司內部人士透露,可發布版本已完成核心功能驗證,目前正進行最后的環境適應性測試。






