近年來AI發展之迅猛,大家有目共睹。技術更迭恨不得以天為單位,不夸張地說,AI的興起,給各行各業都帶來了億點點沖擊和震撼。
隨著如 MidJourney、Stable Diffusion等生成式AI的爆發,傳統CG生產流程正在一步步被顛覆:批量生成概念圖、自動拓撲模型、預測動畫關鍵幀,甚至能實現風格遷移渲染…
看似是幫助業內人大幅壓縮了制作周期,然而這種技術躍進的背后,還隱藏著創意貶值、流程黑箱化、藝術同質化等等深度問題,一度引發了行業內對“AI替代論”的焦慮與誤解。
而事實上,AI目前僅能解決“效率問題”,卻無法解決“效果問題”;換句話說,在現時間點來看,AI在CG流程中的角色仍是“輔助工具”而非“替代者”。為什么這么說?接下來咱們就從CG實際工作流程來聊一聊, AI為何仍難替代CG藝術家?
01
概念設計
在動畫/電影制作流程中,概念設計屬于前期開發階段的核心環節,通過視覺化的方式為整部作品奠定美學和敘事基調。好的概念設計,可以幫助作品確立視覺風格和世界觀,對后續制作流程起到關鍵指導作用。
隨著 MidJourney、Stable Diffusion等工具的應用,通過文本輸入,數秒內就可以生成數十種設計方案;可以混合不同相關元素,通過數據驅動的風格模仿,快速復現大師級視覺效果,無疑在某種程度上降低了項目啟動階段的難度。
但就如同世上大多數事物,AI概念設計同樣存在兩面性。它是效率革命的催化劑,卻也可能成為創意同質化的推手。AI模型依賴現有數據集,算法傾向于輸出“平均審美”,導致輸出趨同,難以突破主流審美框架。
AI的審美真的那么“跟風”么?小編用了兩款文生圖AI,輸入相同提示詞“蒸汽朋克風格未來城市”,生成結果如下(上、下為不同AI生成圖):
四張圖雖然略有不同,但也能一眼看出“師出同門”。城市建筑嚴格遵循模板( 高聳尖頂、外露管道、金屬鉚釘立面…);風格固化,基本都是使用銹跡斑斑的金屬管、煙霧、冷色調天光加上局部點光源這類大數據提供的氛圍元素。
哪怕對提示詞稍作修改,只要留著Key word 【蒸汽朋克】,那基本就逃不開AI數據集隊“復古工業”的刻板定義,喜提同款藍灰色調金屬基地+暖黃燈光點綴。AI顯然無法理解蒸汽朋克的精神內核,空洞精致的世界觀,缺乏階級分化符合和文化表示,也看不到機械與人共生的生態互動。
許多AI生成的概念設計,看起來就像是一個沒有靈魂的木頭美人,我們欣賞她的美,又忍不住惋惜她的“美中不足”。而概念設計師們,往往是那個給“木美人”注入靈魂的點睛之人。
以在電影史上具有里程碑意義的《阿凡達》概念設計為例,不僅重新定義了科幻視覺美學,更是通過技術與藝術的深度融合,推動了整個行業的變革。
阿凡達概念設計
設計團隊開啟跨學科協作模式,和生物學家、天體物理學家合作,為潘多拉星球設計了一套完整的、生物邏輯自洽的生態系統:NASA天體生物學家指導大氣光散射效果;植物學家設計“螺旋棕櫚”的斐波那契葉序排列…
納美人在設計上保留了人類面部基本比例建立情感共鳴,又通過貓科動物的瞳孔、區別于人類的四肢以及藍色皮膚來強化異星感。生物邏輯嚴謹,纖長的四肢適配潘多拉星的低重力環境,生物發光紋理是神經觸須的信號放大器,能與伊卡蘭飛龍建立精神鏈接的物理接口。
而絕大多數生成式AI,在塑造外星生物時,僅能組合 “外星環境+人物”提示詞,將其視為視覺標簽,輸出 結果往往缺乏生物特征與環境的互動設計。
下圖小編使用AI生成的外星人,就是很符合大眾對外星人“既定”印象的小灰人形象,生物分布僅滿足構圖層次感,銀灰色緊身服發光線條也并未與環境關聯,更像是裝飾性存在。
比起AI基于數據驅動“縫合”的精致科學幻想畫,《阿凡達》概念設計中的潘多拉星球更像是在用視覺書寫外星文明史詩。就像 概念設計師內維爾·佩奇說的那樣:真正的外星人不是長得奇怪,而是讓觀眾相信他們曾在某個銀河系角落,為生存哭過、笑過、戰斗過。
阿凡達概念設計
傳統的概念設計流程,就是在有限的試錯中精準進化,在多版草圖中不斷篩選迭代,每版修改都需要藝術家同步驗證解剖學合理性以及設計背后的敘事功能,每個淘汰方案都是在為最終設計提供反向排除的依據,資 深設計師甚至能提前預判后續環節需求,盡早規避后期渲染時容易產生的問題。
《阿凡達》所塑造的外星文明之所以震撼,正是因為每個細節都如鐘表齒輪般契合。這種協同形態之美,只能誕生于傳統概念設計的“有限試錯”,這也是人工篩選的價值體現,既能用理性剔除冗余,又能用感性注入靈魂。
而 現有的生成式AI,無法理解人體工學與異星生理的協同演化邏輯,也缺乏跨學科系統整合能力和動態演化思維, 生成就如同擲骰子、開盲盒,即使偶爾有驚艷碎片,也很難拼湊出一整個全景圖,更遑論我們在選擇使用AI生成概念圖時,還必須考慮到AI訓練的“原罪”-版權爭議。
與其擔心會被AI替代,對于藝術家來說更好的選擇是從“執筆人”轉型為“煉金術士”,在算法的浪潮中打撈出珍貴的創意胚胎。未來的核心競爭力,或許就在于如何利用人類的非理性,馴服算法的絕對理性。
02
建模
建模,是數字內容創作的核心基礎,在影視、游戲、工業設計等領域中扮演著不可替代的角色。
AI建模掀起了幾何生成的效率革命,相比傳統建模動輒數小時,輸入文本描述后,AI只需幾分鐘就可以生成包含基礎拓撲結構的基礎模型;且具有批量生成的能力,在制作游戲場景中的植被、建筑群時,使用GAN模型可單日產出800+獨特模型,遠超手工建模極限。
但做項目光有效率還遠遠不夠,我們最終的追求是又快又精。傳統建模則與純粹視覺驅動的AI生成有著本質差異,是數學與藝術的結合,在根據2D原畫重建3D模型時,藝術家需要解構透視畸變、依賴肌肉走向知識進行生物建模,而非單純外形模仿。
那現階段AI生成的模型成色如何?是否可以在項目中使用?從小編實驗的結果來看,答案是看使用途徑:簡單項目或自娛自樂應該不成問題,但如果是做動畫/電影等對精細度要求高的項目…可能、大概、也許、maybe真的不太行。
為了不難為AI,小編找了一個復雜度中等偏低的水豚角色-基礎形態規整,色彩分布清晰,整體比例協調。
找了三款在線AI,一款本地部署AI試水,單從還原度來看應該能吊打不少“同行”。四款AI都能夠理解輸入參考圖的主體結構,成功延續了創意核心,還原了角色的生物特征。
比例協調,圓潤的體態符合卡通化生物設計邏輯,色彩分區也基本與參考圖像一致;模型整體沒有肢體斷裂、四肢分布均衡無畸變,中心分布合理,目測應該具備可動畫化潛力。
在線AI-1
在線AI-2
在線AI-3
離線部署AI
但如果細扒的話,缺陷也可以拎出來不少:
左上:生成模型面部細節過于簡化;材質表現顏色、貼圖等細節不夠準確,缺乏層次感;存在冗余拓撲,關鍵區域缺乏細分支撐;模型的基礎形體和創意框架達標,但存在材質簡化、生物特征丟失和主題表達模糊等問題。
右上:從顏色和材質光澤來看還原的比較好,但也會生成一些錯亂的紋理,細節完成度要比第一個好;四肢與軀干銜接不夠自然, 存在過度擬人化破壞生物特征、材質語言混亂、工程化細節缺失等問題。
左下:模型類似低模手辦,頭頂邊緣生硬,缺乏細膩過渡結構,視覺可信度低;基礎框架還原上合格,但存在“高概念,低執行”的核心問題,AI捕捉到了參考圖的輪廓與色彩區分,卻未能深入解析生物特征與材質邏輯。
右下:存在大量細節丟失,對微觀特征和敘事邏輯的解析能力不足,無法避免生成模型僅還原宏觀形態的問題,存在不少細節錯誤,毛發、星空漸變等微觀特征丟失,導致藝術張力下降。
在3D建模流程中,拓撲和展UV是兩個關鍵環節,分別負責模型的結構優化和紋理映射的準備工作,直接影響最終模型的可用性、渲染效果和資源效率。
拓撲
拓撲的關鍵原則是四邊形主導、沿模型運動方向布置循環邊和區域布線密度匹配。好的拓撲能夠滿足動畫與變形的需求,還能通過精簡的布線減少不必要的面數,提升實時渲染性能。
AI建模在拓撲生成領域發展迅速,尤其是在自動化、效率提升和復雜數據處理方面優勢明顯;AI可生成不同風格的拓撲,從游戲低模到工業設計,能夠適配不同領域需求。
但很多時候,AI無法理解模型的功能需求,可能生成不符合物理規律的布線或出現細節優先級混亂,在高細節區域分配較少面數,卻在次要區域過度細分。其次,由于AI工具提供的參數調節有限,使用者很難干預AI的布線邏輯,其生成的UV切割線常位于角色面部中央等鮮艷位置;若訓練數據集偏向某類模型,AI在處理異形生物或抽象結構時就可能失效。
咱們也不拿復雜的模型做實驗了,直接上剛剛生成的水豚模型。為了最大限度發揮AI的能力,下面大家看到的是使用AI自帶重拓撲功能優化后的結果。可以看到即便是重拓撲后,有的模型也存在大量多余支撐線,且拓撲密度分配也很不合理,AI的機械式均勻細分,導致低細節區域面數冗余,而面部等高細節區域又缺乏針對性優化。
四邊面數9.981、頂點數10,305,表明模型細節過度細分,適合影視渲染,但若用于實時應用就需要優化面數。
底部藍棕漸變的過渡區域頂點分布缺乏邏輯性,關節和面部等動畫關鍵區域沒有針對性加強拓撲密度;另外高面數會增加綁定和動畫變形時的計算負擔,可能產生不必要的褶皺或撕裂。
再來看看第二款AI重拓撲后,面數和頂點數依然遠超常規需求,實時渲染或游戲場景中性能消耗不可接受;全三角邊解構,在動畫變形時易產生棱角感,且不利于雕刻或細分表面修改;拓撲存在規范性缺失,包含大量不規則拓撲,可能會導致UV展開和貼圖映射困難。
接下來看看第三款,拓撲循環不完整,四肢與軀干連接處缺乏環型邊支撐,動畫時易出現關節變形異常;頭部彎曲的毛發部可能缺少結構線加固,易導致細分后變形失真,尾部拓撲簡化過度;框線密度在腹部平滑區域與面部高曲率區域分配不均,影響模型細分后的表面平滑度。
四款AI中唯一的離線部署AI沒有一鍵重拓撲功能,我們直接來看看原始生成模型。問題基本和前面大致相同,雖然 11,220個三角面對于生物模型而言屬于中等規模,但在動畫適配性和拓撲規范性上仍存在改進空間:所有面均為三角形,雖能滿足基礎渲染需求,但會阻礙動畫綁定和變形效果;且均勻分布的面數未針對生物運動特性優化,需要頻繁彎曲的區域可能缺乏足夠的支撐邊。
從上面四個結果看來,AI生成非寫實結構角色模型時,可能更傾向于按寫實標準生成面數“驚人”的冗余拓撲,難以平衡簡化布線與形變需求;哪怕實現了基礎形態規整化與面數控制,也還無法自主實現基于生物力學的布線策略,如果沒有人為的后續調整,現階段單靠AI生成的模型,應該很難滿足影視/游戲生產標準。
展UV
展UV是視覺表現的核心,直接影響紋理繪制、渲染效果和實時應用的性能。 拓撲決定UV的難度,展UV驗證拓撲的合理性,兩者共同構成模型從“幾何體”到“成品資產”的橋梁。
理論上AI可以快速分析3D模型的幾何結構,并自動生成UV布局,支持同時處理多個模型,尤其適合處理大規模重復性資產;能夠通過算法確保UV島分布均勻,減少紋理拉伸和重疊,智能識別模型關鍵區域,自動生成更合理的接縫。
那小編用來做測試的這幾款AI表現如何呢?
物體模式下
左上:UV分塊存在明顯碎片化問題,組很色與藍色材質區分缺乏拓撲連貫性,可能影響后續紋理繪制。頭部、身體、四肢分塊符合常規分區策略,但多邊形UV島的比例一致性有待驗證;當前UV縫的位置可能破壞面部等重要區域的紋理完整性。
右上:頭頂的分離式UV分塊存在接縫規劃風險,主要視覺焦點區域出現硬邊切割;可能是由于AI對模型拓撲結構的誤判,導致存在過度分割傾向;碎片化UV布局導致紋理空間利用不足,相鄰UV島間距不符合烘焙法線貼圖的安全標準;關鍵區域未體現UV密度優先,可能會影響后期紋理細節表現力。
左下:在生物頭部最高點設置接縫的方式,會導致毛發紋理在視覺焦點區域出現不連續斷裂;過度UV碎片和遠超角色類模型常規標準的UV島數,影響法線貼圖烘焙穩定性;關鍵區域與次要區域UV島尺寸等同。
右下:紋理的動態流動感與模型結構存在映射矛盾,可能導致材質賦予時出現流向錯誤;模型黃色輪廓線顯示UV切割位于視覺焦點區,違反生物模型接縫隱蔽原則,后期渲染可能產生環型色差接縫;紋理空間利用率低。
編輯模式下
目前看來,AI展UV雖然在效率上占優勢,但模型表現依賴數據訓練的質量和多樣性,缺乏藝術性與工程合理性,可能會生成難以理解的切割邏輯。
其實,傳統建模就如同現代版雕塑藝術,其價值不僅僅在于產出模型本身,更多的是體現在創作過程中所凝結的人類智慧,包括藝術家對解剖學的深刻理解、對空間構成的直覺把控和對敘事表達的具象轉化。
不同于人類藝術家對未知可能性的不斷探索,目前AI建模的本質仍然是“對已有風格的排列重組”,最終模型的藝術靈魂還是要基于人類設計師的初衷和創意理念。
03
材質與貼圖
材質和貼圖是模型從幾何體到最終視覺呈現的核心要素,材質是“規則制定者”,決定表面的光學屬性和技術實現方式;貼圖則是 “細節提供者”,為材質注入具體視覺信息,兩者共同構成了3D模型的視覺語言。
AI能夠根據輸入的參數/圖像生成大量材質貼圖,還能通過控制參數生成海量變體,滿足開放世界、游戲場景等需要多樣化的場景需求;部分AI模型甚至能根據3D模型的幾何結構或光照環境自動調整貼圖細節,為數字內容創作帶來了新的可能性。
看過了概念設計和建模,那AI在生成材質貼圖這部分,是否會給我們帶來驚喜呢?小編在自己常用的幾個國內外AI生成網站,輸入相同關鍵詞關鍵詞【 Chinese blue and white porcelain seamless texture】,嘗試生成了青花瓷紋理貼圖。
可以看到,生成結果總體來說還是很不錯的,四款AI基本都實現了對傳統青花瓷元素的數字化重構。色彩控制方面也很優異,藍白主色調還原了青花瓷釉下彩的特征,同時成功捕捉了纏枝蓮紋、寶相花等經典青花瓷紋樣,畫面留白也符合東方審美意境。
對稱設計、元素排布密度控制科學,從花朵的放射性漸變、藤蔓的參數化卷曲,都不難看出AI對復雜幾何形態的解析能力。單從生成材質和貼圖來看,目測應該能夠直接整合進項目管線,對于精度要求較高的項目可以再進行針對性優化。
那么問題來了,部分AI生成的材質貼圖表現出色,甚至已經達到實際項目的應用標準,為什么大多數項目依舊依賴傳統手工制作貼圖呢?原因很簡單,AI生成材質/貼圖不僅優勢明顯,缺陷也很顯而易見:控制精度不足、物理準確性局限、細節缺失或重復以及藝術表達受限等等,哦,還有讓人頭疼的版權爭議。
04
綁定與動畫
在數字內容創作領域中,綁定是鏈接模型與動畫的核心技術環節,能夠賦予模型動態生命力、優化動畫效率與精度 。綁定直接影響角色運動的自然程度,優秀的綁定系統需要平衡技術限制與藝術需求。
部分AI綁定能自動化拓撲適配,擁有智能權重分配,在保證標準化質量的同時,帶來效率的突破性提升。BUT,目前我們接觸到的大部分AI,好像還不太行…存在生物深度理解困難,缺乏對整體節奏的把控,在分段處理各個關節時容易產生動作相位差,角色的動作很容易往詭異的方向發展。
剛好前面建模使用的3款在線AI都有自動綁定功能,小編沒忍住,小試了一把牛刀,結果我就不多說了,要不然大家還是自己看吧。反正小編看完覺得,至少在綁定這個環節,大家應該不用太擔心會立刻被AI替代。
行走
跑步
摔倒
這真的很難評,感覺也不需要小編多說什么,這感受非常直觀。但該說不說,跟前面最常見的走、跑、摔相比,居然是跳舞這個“小眾”動作反而讓人看得更順眼一些。
跳舞
這里小編還是要說句公道話的,綁定后生成動畫如此反人類,也有模型的原因。換個模型明顯自然度UP:
但也只是比上面的紅T小哥動作自然,依舊有點一言難盡。
究其原因,是AI綁定在追求參數最優化的過程中,與角色綁定所需的藝術破壞性、動態混沌性、文化抽象性產生了根本沖突。反觀綁定師的生物直覺和藝術反邏輯,實質是對復雜系統的創造性"破壞",這也正是當前AI難以逾越的鴻溝。
說到這里,有的人肯定會說,那不用cg流程了,直接生成視頻不就行了。AI生成視頻,想必大家也很熟悉了。遠的不說,最近加州大學伯克利分校、斯坦福大學以及英偉達等機構聯合制作的《貓和老鼠》AI短片,就再次讓我們領教了AI的實力。
所有視頻都是由模型直接生成的,整個過程沒有任何人工干預,包括二次編輯、剪輯拼接和后期處理;也就是說從生成到呈現,視頻完全保留了AI創作的原始狀態。起猛了,想不到有一天是AI帶我一秒回童年。
提到AI生成視頻的優勢,哪怕小編不說,小伙伴們心里應該已經開始自動飛“彈幕”了:高效率低成本,尤其適合批量制作;低門檻,無需剪輯技能,通過輸入文本、選擇模版即可生成視頻;風格多樣化,可定制性高;覆蓋各領域短視頻需求,適配不同平臺……
那么話又說回來了,現階段用AI生成的視頻,真的那么絲滑流暢,可以做到“開袋即食”么?小編用現在呼聲比較高、風評比較好的幾款AI試了下,使用了上面相同的提示詞:貓和老鼠動畫場景:在一次水下探險中,Jerry 找到了藏寶圖,并在躲避 Tom 追捕的同時尋找寶藏,途中穿過珊瑚礁和海藻森林。Jerry 在一艘沉船中發現了寶藏,欣喜若狂地慶祝著,而 Tom 的追捕卻讓他陷入了饑餓鯊魚的困境。
至于生成結果……有時候語言是那么蒼白無力,諸位自己看吧:
好一點的全靠同行襯托,但看起來也是買家秀和賣家秀的區別。
作為行業內人,請小伙伴們來說一說,直接生成視頻感受如何?是不是局限還挺明顯的,生成質量受限不說,還缺乏深度創意,復雜場景還可能產生畫面邏輯錯誤……
當前AI 的“創作”還是概率模型驅動的最優解計算,還要顧忌創意同質化、版權爭議等諸多問題。特別是考慮到AI的使用費用問題,以現階段來說如果生成結果不盡人意,后續還需要藝術家再投入精力進行手動優化,性價比委實不高…
哪怕拋開AI的技術局限性不談,藝術創作的本質是人類認知系統的外化延伸,是任何算法都無法模擬的生物電化學反應。藝術家們不可替代的本質,正在于他們持續用創作不斷定義著“何以為人”的終極命題。
end
學UE5,居然能把小米SU7開回家?
15秒造人,動捕、直播都能hold住?
What?我的離譜作業居然可以做成全球爆款?!
大師級別的雕刻!他筆下的角色太頂了!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.