4 月 9 日消息,4 月 7 日,京東探索研究院宣布正式開源自研的 JoyAI-Image-Edit 圖像模型。
據介紹,這是業內首個把“空間智能”刻進骨子里的開源模型,讓 AI 終于能真正“看懂”空間、“編輯”空間,從原來的平面修圖,升級成了三維空間重塑,而且模型的推理代碼全部開放,開發者能直接拿來做應用。
JoyAI-Image-Edit 深度貼合真實世界空間規律,從空間位置關系、多視角一致性、相機感知到場景推理等維度全面建模,實現了相機坐標視角變換、物體空間位移旋轉、幾何結構精準控制等多項空間編輯技術突破。經京東實驗驗證,在物體移動精度、空間一致性等空間編輯核心指標上,JoyAI-Image-Edit 達到世界一流水準。
JoyAI-Image-Edit 攻克了此前開源模型難以逾越的空間理解難題,具備三大辨識度極高的空間編輯能力,整理如下:
視角變換 —— 用戶可通過自然語言指定相機的偏航角、俯仰角及縮放程度,模型在保持場景幾何一致性的前提下生成新視角圖像;
空間漫游 —— 支持連續的視角移動,生成在空間中邏輯連貫的多視角圖像序列,類似于在三維場景中“走動”;
物體空間關系操控 —— 在保持場景整體結構穩定的前提下,對特定物體進行位移、縮放等空間變換,同時確保遮擋與光影關系自然合理。
在實現空間級突破的同時,JoyAI-Image-Edit 全面兼容 15 類通用編輯能力,深度覆蓋內容創作的高頻需求。無論是物體的替換、刪除、添加,還是整體風格遷移、細節精修等操作,模型均實現了高性能覆蓋。
JoyAI-Image-Edit 模型可廣泛應用于電商內容生產、創意設計制作、智能圖像處理、3D 模型重建、具身智能視覺感知等多元領域,大幅提升 AI 圖像技術在復雜空間場景中的適配性與實用性。尤其是在具身智能領域,該模型的推出也為相關技術研發提供了關鍵的底層能力。










