AI建模這兩年發展迅猛,相比以往復雜的建模流程,現在不少的AI模型已經可以實現根據簡單輸入生成結構清晰、精度較高的3D模型了。不僅技術迭代快,且越來越多的工具選擇了開源路線。從一鍵生成基礎部件到構建復雜高清模型,開源AI建模工具正以肉眼可見的速度卷出新高度。
今天,小編就準備帶大家盤點幾款近期發布的,“高開瘋走”的3D模型生成AI,看看他們是如何用技術重塑現代3D內容創作流程的。
PartPacker
1
上月11日,由NVIDIA、北京大學和斯坦福大學組成的研究團隊,推出了一種新的3D模型生成技術-[PartPacker]。
PartPacker的目的,是解決當前絕大多數3D模型生成技術僅能輸出單一網格結構,從而限制了對模型內部組件進行編輯和操作的問題。
其特別之處在于,它不是簡單地生成一個完整的3D形狀,而是可以生成具有實際意義的“部件”,這樣生成的模型不光是“看起來像”,而是結構清晰,可以讓用戶單獨對某一部分進行修改。
PartPacker引入了一種“雙體積打包策略”(dual volume packing strategy),將所有部件組織在兩個互補的體積中:一個用于描述部件本身的形狀,另一個則用于表達部件的組裝方式或放置位置。
通過這種方式,將每個部件生成為一個完整的獨立個體,同時兼顧整體布局,從而構建出完整的3D對象。
通過雙體積打包,可以將對象分割成有意義的部件。
PartPacker的網絡架構包括基于輸入圖像進行潛在代碼(latent code)去噪處理的VAE(變分自動編碼器,Variational Autoencoder)模型和Rectified Flow模型(一種圖像生成模型),這一過程同時生成兩個潛在代碼。
與其他同類工具對比:
目前已經在GitHub上發布了源代碼,采用“NVIDIA源代碼許可”協議,僅限于非商業用途。
了解詳情:https://research.nvidia.com/labs/dir/partpacker/
代碼地址:https://github.com/NVlabs/PartPacker
Sparc3D
2
6月13日,由南洋理工、MathMagic和倫敦帝國理工學院組成的研究團隊,發布了3D模型生成AI-Sparc3D(Sparse Representation and Construction for High-Resolution 3D Shapes Modeling)。
Sparc3D結合了「Sparcubes」和「Sparconv-VAE」兩項技術,目的是解決傳統模型生成方法的痛點-由變分自編碼器(VAE, Variational AutoEncoder)進行網格壓縮后,再通過潛在擴散采樣(Latent Diffusion Sampling)所導致的細節損失問題。
Sparcubes(稀疏可變形行進立方體表示),一種將網格原始數據轉換為1024P3至1536P3高分辨率表面的方法。
Sparconv-VAE(稀疏卷積網絡變分自動編碼器),完全基于稀疏卷積神經網絡構建的一致變分自動編碼器。通過潛在擴散(Latent Diffusion),實現高效且低損的高分辨率3D模型重建。
目前,用戶可在「Hitem3D」網站上每日免費生成模型5次,代碼計劃在GitHub上公開。
了解詳情:https://lizhihao6.github.io/Sparc3D/
Hitem3D:https://hitem3d.ai/
PartCrafter
3
北京大學、字節跳動和卡內基梅隆大學組成的研究團隊,6月13日發布了能夠按部件生成3D網格的AI模型-PartCrafter。
PartCrafter能夠從單張RGB圖像中生成多個具有語義意義的3D網格部件,并組合成完整的3D模型,生成出來的3D部件結構可以單獨修改和編輯。
PartCrafte的核心技術包括以下兩點:
1.組合式潛在空間(Compositional Latent Space):每個3D部件在空間中被表示為獨立的“潛在令牌”(Latent Token),各個部件都可以單獨處理、替換或修改,從而實現高度靈活的編輯能力。
2.分層注意力機制(Hierarchical Attention Mechanism):建立在3D網格擴散變換器(DiT)的基礎之上,能夠高效傳遞和整合結構化信息,確保各部件之間的空間關系協調一致,提升整體建模質量。
通過整合多個3D數據庫,共收集了約13萬個物體。特別關注了具有多部件的物體(約10萬個),并根據紋理質量、部件數量以及IoU(重疊率)等指標進行篩選和整理。
最終構建的數據集包括:約5萬個高質量、帶有部件標注的完整物體;以及這些物體拆分后的約30萬個獨立部件。
生成結果:
了解詳情:https://wgsxm.github.io/projects/partcrafter/
代碼地址:https://github.com/wgsxm/PartCrafter
Hunyuan 3D 2.1
4
6月14日,騰訊在GitHub上開源了3D模型生成AI-Hunyuan 3D 2.1,同時在HuggingFace開放了演示空間。
騰訊在今年4月份發布的Hunyuan 3D 2.5,是一款擁有百億參數、支持8-20秒快速生成、主要提供API訪問的商業產品。
而這一次發布的Hunyuan 3D 2.1,雖然生成速度上較前者略遜一籌,但卻是一個專為開發者社區打造,完全開源的基礎模型。提供完整的模型權重和訓練代碼,可用于生產環境并支持物理渲染(PBR)材質生成。
可生成如皮革、青銅等,具備高質量的光影交互表現等逼真的材質效果,支持生成包括Albedo、Metallic(金屬度)、Roughness(粗糙度)等PBR貼圖,能夠利用物理渲染技術,實現金屬反射、次表面散射(SSS)等真實光照模擬。
同時不依賴昂貴的專業硬件,普通用戶或小型團隊也能輕松部署。
HuggingFace空間:https://huggingface.co/spaces/tencent/Hunyuan3D-2.1
代碼地址:https://github.com/Tencent-Hunyuan/Hunyuan3D-2.1
今天的文章就到這里,感興趣的小伙伴們可以根據上面提供的網址去試試水,咱們下期再見啦~
THE
CG
世界
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.