在人工智能技術快速迭代的浪潮中,3D生成領域正迎來突破性進展。全球領先的3D生成平臺Hyper3D近日推出革命性功能Rodin Gen-2 Edit,首次將自然語言驅動的局部編輯能力引入3D模型創作流程,標志著3D生成技術從"結果展示"邁向"可迭代工作流"的新階段。
這項創新功能支持兩種核心操作路徑:用戶既可以在平臺內完成文圖生3D后直接修改結果,也能導入任意第三方模型進行二次創作。操作邏輯高度簡化,僅需框選目標區域并輸入文字指令,系統即可自動完成局部調整。以機甲模型改造為例,通過框選雙臂區域并輸入"雙手改為大炮"的指令,系統能精準生成紅色裝甲的大炮機器人,修改區域與原始模型銜接自然,結構邏輯完整無損。
技術實現層面,該功能突破了傳統3D編輯的局限性。不同于圖像領域通過ControlNet等技術實現的漸進式控制,3D編輯面臨更復雜的數據結構和幾何約束。Hyper3D團隊通過原生3D大模型框架CLAY的底層創新,解決了薄面處理、拓撲混亂等產業級難題,使編輯操作既能保持模型整體協調性,又能實現局部精準修改。這種"選中即改"的交互方式,徹底改變了傳統3D創作中"不滿意就重做"的低效模式。
在專業工作流整合方面,Rodin Gen-2 Edit展現出強大的生態兼容性。平臺已打通Blender、Maya、Unity等主流數字內容創作工具鏈,與國內頭部UGC游戲平臺的合作驗證了其在移動端大規模用戶場景下的穩定性。特別值得關注的是,與3D打印企業拓竹的合作使生成模型可直接進入物理制造流程,形成了從數字創作到實體生產的完整閉環。
技術演進路徑顯示,3D生成領域正復刻圖像領域的成熟軌跡。2024年3月Hyper3D率先推出3D ControlNet技術,實現生成階段的精準控制;此次編輯功能的上線,則完成了"生成-控制-編輯"的技術閉環。這種演進模式與圖像領域從Stable Diffusion到Nano Banana的發展路徑高度相似,但3D領域由于數據復雜度和工具鏈長度,整體進度落后約18-24個月。
底層技術突破源于團隊的前瞻性布局。當行業普遍采用2D升維3D的捷徑時,Hyper3D堅持原生3D技術路線,在算法架構層面進行顛覆性創新。其發布的CLAY框架獲SIGGRAPH最佳論文提名,基于此開發的Hyper3D.AI Rodin模型將3D生成效果從"不可用"提升至"可用線"。遞歸分件技術BANG的推出,更使復雜模型的語義級拆解成為可能,為局部編輯奠定技術基礎。
資本市場的反應印證了技術價值。2025年該團隊連續完成兩輪融資,投資方包括頂級美元基金和戰略產業方。值得注意的是,其CAST技術已展現更宏大的技術愿景——該獲SIGGRAPH 2025最佳論文的技術方案,能夠實現從單張圖像生成包含物體關系和物理約束的完整3D場景,為構建"世界模型"提供關鍵基礎設施。
當前功能雖處于產品化初期,但已展現出改變行業格局的潛力。測試數據顯示,專業用戶通過圖像/文本生成、精準控模、局部修改、資產再創作的完整工作流,創作效率提升達70%。特別是Smart Low-poly智能低模優化技術,在保持模型細節的同時將面數降低60%,顯著提升生產級資產的處理效率。
這項突破性功能現已在Hyper3D平臺開放免費體驗。隨著3D生成技術從"能否實現"轉向"如何好用"的關鍵階段,Rodin Gen-2 Edit的推出不僅為創作者提供了高效工具,更重新定義了AI驅動的3D內容生產范式。其技術路徑選擇和生態布局策略,或將影響全球3D生成領域的競爭格局。











