本文刊發(fā)于《現(xiàn)代電影技術(shù)》2024年第5期
專家點(diǎn)評
在當(dāng)下的電影美術(shù)創(chuàng)作中,諸多新技術(shù)的介入改變了傳統(tǒng)美術(shù)創(chuàng)作及制作的觀念與方法,對美術(shù)設(shè)計(jì)的表現(xiàn)手段及效果實(shí)現(xiàn)了進(jìn)一步的遞進(jìn)與延伸,也為創(chuàng)作者擺脫現(xiàn)實(shí)束縛,激發(fā)了無限潛能。《AIGC 技術(shù)在動(dòng)畫電影美術(shù)設(shè)計(jì)中的跨界應(yīng)用》一文,從梳理AIGC技術(shù)在不同領(lǐng)域及圖像生成技術(shù)方面的發(fā)展現(xiàn)狀及生成原理入手,探討了其在動(dòng)畫電影美術(shù)設(shè)計(jì)方面的應(yīng)用,并結(jié)合發(fā)展現(xiàn)狀提出應(yīng)用的潛存問題,對當(dāng)下AIGC技術(shù)的進(jìn)一步發(fā)展創(chuàng)新具有借鑒意義??v觀電影發(fā)展史,每一次的突破與進(jìn)步無不與新技術(shù)的拓展、應(yīng)用相伴相隨。作為電影的重要組成部分,電影美術(shù)同樣具有“藝術(shù)性”與“技術(shù)性”融匯的特征。毋庸置疑,技術(shù)革新與藝術(shù)發(fā)展相互交融、相輔相成,是時(shí)代發(fā)展不可逆轉(zhuǎn)的潮流。電影美術(shù)設(shè)計(jì)在堅(jiān)守自身創(chuàng)作“藝術(shù)性”的同時(shí),要適應(yīng)電影產(chǎn)業(yè)技術(shù)變革的潮流,加快對AIGC技術(shù)的掌握和運(yùn)用,深度探討技術(shù)的種種可能,使其在電影美術(shù)前期概念設(shè)計(jì)、場景設(shè)計(jì)、服裝設(shè)計(jì)以及中后期視效制作中充分發(fā)揮作用,為電影美術(shù)視覺創(chuàng)作賦能,讓未來的電影視覺美學(xué)達(dá)到更為完善、理想的狀態(tài)。
——霍廷霄
中國電影家協(xié)會(huì)副主席
中國電影美術(shù)學(xué)會(huì)會(huì)長
北京電影學(xué)院美術(shù)學(xué)院教授
博士生導(dǎo)師
作 者 簡 介
趙 晴
中國傳媒大學(xué)數(shù)據(jù)科學(xué)與智能媒體學(xué)院助理實(shí)驗(yàn)師,主要研究方向:AIGC、融媒體技術(shù)。
中國傳媒大學(xué)數(shù)據(jù)科學(xué)與智能媒體學(xué)院大學(xué)本科在讀,主要研究方向:AIGC、圖像處理。
李奕澤
袁 璐
中國傳媒大學(xué)數(shù)據(jù)科學(xué)與智能媒體學(xué)院師資博士后,主要研究方向:AIGC、虛假信息檢測。
中國傳媒大學(xué)媒介音視頻教育部重點(diǎn)實(shí)驗(yàn)室副研究員,主要研究方向:智能媒體分析、音頻信號處理。
蔡娟娟
葉 龍
中國傳媒大學(xué)數(shù)據(jù)科學(xué)與智能媒體學(xué)院院長,中國傳媒大學(xué)媒介音視頻教育部重點(diǎn)實(shí)驗(yàn)室研究員,主要研究方向:智能音視頻處理技術(shù)、虛擬現(xiàn)實(shí)技術(shù)。
摘要
隨著人工智能技術(shù)的快速發(fā)展,AIGC作為生產(chǎn)力的新興引擎逐漸走進(jìn)大眾視野,其在創(chuàng)意產(chǎn)業(yè)中的應(yīng)用已成為備受關(guān)注的研究領(lǐng)域。美術(shù)設(shè)計(jì)是動(dòng)畫電影制作中至關(guān)重要的一環(huán),它不僅為角色賦予獨(dú)特的外觀和個(gè)性,還承載著故事情節(jié)和文化背景的表達(dá)。本文首先介紹AIGC 在各領(lǐng)域的應(yīng)用現(xiàn)狀和圖像生成模型技術(shù)原理,之后探討 AIGC 在動(dòng)畫電影美術(shù)設(shè)計(jì)中的潛在應(yīng)用,分析AI 輔助電影美術(shù)設(shè)計(jì)存在的問題,最后總結(jié)AIGC 在動(dòng)畫電影美術(shù)設(shè)計(jì)中的應(yīng)用前景,并展望未來研究方向。通過本文研究,可以更好地了解AIGC在動(dòng)畫電影美術(shù)設(shè)計(jì)領(lǐng)域的潛力,為電影產(chǎn)業(yè)的發(fā)展提供新的思路和方法。
關(guān)鍵詞
AIGC; 動(dòng)畫電影; 美術(shù)設(shè)計(jì); 圖像生成
1引言
人工智能生成內(nèi)容(Artificial Intelligence Generated Content,AIGC)正日益成為內(nèi)容創(chuàng)作領(lǐng)域的重要力量。該技術(shù)通過人工智能(AI)來輔助人類創(chuàng)作或在某些情境下能夠獨(dú)立生成內(nèi)容。根據(jù)用戶提供的關(guān)鍵詞或具體需求,AIGC能夠在文本、圖像、音頻等多個(gè)領(lǐng)域生成相應(yīng)的作品[1]。該技術(shù)已在電影行業(yè)初顯成效,在劇本撰寫、視覺藝術(shù)設(shè)計(jì)、聲音設(shè)計(jì)等方面,都展現(xiàn)出其推動(dòng)創(chuàng)新和提高效率的潛力[2],通過大量的數(shù)據(jù)訓(xùn)練和學(xué)習(xí),輔助電影中的劇本創(chuàng)作、概念圖繪制、圖像合成、特效制作、場景重建等任務(wù),從而提高了電影制作的效率和質(zhì)量[3]。
在動(dòng)畫電影制作中,美術(shù)設(shè)計(jì)扮演著重要的角色,其創(chuàng)新性和藝術(shù)性對提升電影質(zhì)量和觀眾觀影體驗(yàn)至關(guān)重要。美術(shù)設(shè)計(jì)涉及場景設(shè)計(jì)、角色設(shè)計(jì)、色彩設(shè)計(jì)、特效制作和視覺效果等方面。AIGC技術(shù)在電影美術(shù)設(shè)計(jì)領(lǐng)域的運(yùn)用,打破了傳統(tǒng)影視制作的桎梏,極大提高了生產(chǎn)效率,增強(qiáng)了制作能力,為影視制作注入了更多創(chuàng)新可能性[4]。當(dāng)前,其在電影美術(shù)設(shè)計(jì)中的研究和實(shí)踐仍處于發(fā)展起步階段。本文將深入探究AIGC在動(dòng)畫電影美術(shù)設(shè)計(jì)領(lǐng)域的應(yīng)用可行性,以期為未來的研究與實(shí)踐提供新的視角和啟示。
2AIGC國內(nèi)外應(yīng)用現(xiàn)狀
從傳統(tǒng)的專業(yè)生產(chǎn)內(nèi)容(Professional Generated Content, PGC)、用戶生成內(nèi)容(User Generated Content, UGC)到如今的AIGC,從文本生成、圖像生成到視頻生成,AIGC正逐步應(yīng)用于各行各業(yè),成為支撐內(nèi)容創(chuàng)作豐富性和創(chuàng)新性的關(guān)鍵技術(shù)。
在文本生成領(lǐng)域,AIGC主要應(yīng)用于文本摘要、對話系統(tǒng)等,代表工具有ChatGPT[5]、訊飛星火大模型[6]、文心一言[7]等。ChatGPT是OpenAI公司開發(fā)的語言模型對話系統(tǒng),訊飛星火大模型與文心一言分別是國內(nèi)企業(yè)科大訊飛和百度開發(fā)的語言模型對話系統(tǒng),他們在文本摘要、文本生成等方面具有強(qiáng)大的功能。
在圖像生成領(lǐng)域,AIGC主要應(yīng)用于圖像合成、圖像修復(fù)等,如Stable Diffusion[8]、DALL·E[9]、Midjourney[10]等。Stable Diffusion由Stability AI于2022年發(fā)布,主要用于生成以文本描述為條件的詳細(xì)圖像,其還可用于圖像修補(bǔ)等方面。DALL·E 是由 OpenAI 開發(fā)的基于神經(jīng)網(wǎng)絡(luò)的圖像生成模型,旨在生成與給定文本描述對齊的圖像[11]。Midjourney是由同名獨(dú)立研究實(shí)驗(yàn)室創(chuàng)立,它可通過文本描述合成圖像,快速生成逼真的人物、場景和動(dòng)畫。
在視頻生成領(lǐng)域,代表應(yīng)用為OpenAI開發(fā)的文本生成視頻AI 模型Sora[12],經(jīng)過訓(xùn)練,該模型可根據(jù)文本指令生成真實(shí)或想象場景的視頻,并顯示出模擬物理世界的潛力[13]。
3圖像生成技術(shù)發(fā)展現(xiàn)狀及技術(shù)原理
圖像生成是指利用人工智能技術(shù),根據(jù)給定的數(shù)據(jù)進(jìn)行單模態(tài)或跨模態(tài)生成圖像的過程。根據(jù)任務(wù)目標(biāo)和輸入模態(tài)的不同,圖像生成主要包括圖像合成(Image Composition)、圖像生成圖像(Image?to?Image)以及文本生成圖像(Text?to?Image)等。根據(jù)生成圖像的理念,將文本生成圖像任務(wù)分為3大類:基于生成式對抗網(wǎng)絡(luò)(GAN)架構(gòu)生成圖像、基于自回歸模型(Autoregressive Model)架構(gòu)生成圖像、基于擴(kuò)散模型(Diffusion Model)架構(gòu)生成圖像[14]。
生成式對抗網(wǎng)絡(luò)(GAN)通過生成器和判別器進(jìn)行博弈訓(xùn)練以不斷提升生成能力和鑒別能力,使生成網(wǎng)絡(luò)的數(shù)據(jù)愈發(fā)趨近真實(shí)數(shù)據(jù),從而達(dá)到生成逼真圖像的目的[14]。但在發(fā)展過程中,GAN存在穩(wěn)定性較差、生成圖像缺乏多樣性、模式崩潰等問題。
自回歸模型是用于將文本數(shù)據(jù)轉(zhuǎn)化為圖像數(shù)據(jù)的模型[15],將圖像表示為像素序列,以先前生成的像素為條件,逐個(gè)像素地生成圖像,從而產(chǎn)生新的樣本[16]。利用Transformer架構(gòu)中的自注意力機(jī)制能夠優(yōu)化GAN的訓(xùn)練方式,提高模型的穩(wěn)定性和生成圖像的合理性。
擴(kuò)散模型[8]是通過一個(gè)從數(shù)據(jù)分布到高斯分布的擴(kuò)散過程和一個(gè)從高斯分布到數(shù)據(jù)分布的去噪過程來建模數(shù)據(jù),其在訓(xùn)練穩(wěn)定性和結(jié)果準(zhǔn)確性方面提升明顯。而對于電影行業(yè)應(yīng)用中的大量跨模態(tài)圖像生成需求,則需要結(jié)合對比語言-圖像預(yù)訓(xùn)練(Contrastive Language-Image Pre?Training, CLIP)進(jìn)行,CLIP基于文本-圖像對的訓(xùn)練方式能夠建立跨模態(tài)的連接,是OpenAI 設(shè)計(jì)和開發(fā)的一種基于神經(jīng)網(wǎng)絡(luò)的模型,旨在訓(xùn)練文本和視覺數(shù)據(jù)的表示。該模型同時(shí)訓(xùn)練文本和圖像,顯著提升了生成圖像的速度和質(zhì)量。
目前,市面上有大量基于擴(kuò)散模型和CLIP實(shí)現(xiàn)的文本到圖像 、圖像到圖像等圖像生成模型,利用簡單的交互和快速生成圖像的功能,顯著地降低了操作門檻,并且越來越多地應(yīng)用于商業(yè)服務(wù),目前主流的工具有Stable Diffusion、Midjourney和DALL·E等[17],各模型簡介如表1所示。
表1 模型簡介
4AIGC在動(dòng)畫電影美術(shù)設(shè)計(jì)中的應(yīng)用
利用AIGC生成美術(shù)設(shè)計(jì)圖片,主要流程為線稿設(shè)計(jì)和色彩設(shè)計(jì)。本文探索了如何通過使用Stable Diffusion、Midjourney、DALL·E等目前主流的圖像生成工具,自動(dòng)完成美術(shù)設(shè)計(jì)中的角色設(shè)計(jì)、場景設(shè)計(jì)、特效設(shè)計(jì)、色彩設(shè)計(jì)等任務(wù),對比各工具的優(yōu)劣,探索AIGC在動(dòng)畫電影美術(shù)設(shè)計(jì)領(lǐng)域中應(yīng)用的可行性,幫助設(shè)計(jì)師從AIGC生成的設(shè)計(jì)中汲取設(shè)計(jì)靈感和思路,豐富角色設(shè)計(jì)元素和視覺表現(xiàn)力,促使作品煥發(fā)出藝術(shù)生命力[18]。對沒有基本繪圖或設(shè)計(jì)技能的用戶,AI可以提供方便的圖像生成服務(wù),能夠?qū)⑽淖洲D(zhuǎn)換為視覺圖片[19],AIGC將對動(dòng)畫美術(shù)設(shè)計(jì)的生產(chǎn)效率和創(chuàng)新發(fā)展產(chǎn)生重大影響。
4.1 AIGC在角色設(shè)計(jì)中的應(yīng)用
人工智能角色生成技術(shù)的應(yīng)用范圍十分廣泛,包括游戲開發(fā)、電影及動(dòng)畫制作等領(lǐng)域。動(dòng)畫電影的角色設(shè)計(jì)主要包含外貌特征、服裝、造型、姿勢等細(xì)節(jié),而傳統(tǒng)的角色設(shè)計(jì)方法具有一定的局限性。首先,傳統(tǒng)的動(dòng)畫角色設(shè)計(jì)會(huì)耗費(fèi)大量的時(shí)間和資源;其次,角色設(shè)計(jì)過程依賴于設(shè)計(jì)師的個(gè)人經(jīng)驗(yàn)和創(chuàng)造力,設(shè)計(jì)師需要不斷尋找靈感、提煉設(shè)計(jì)概念,并將其轉(zhuǎn)化為實(shí)際的角色;最后,設(shè)計(jì)結(jié)果通常受到設(shè)計(jì)師個(gè)人經(jīng)驗(yàn)和審美觀念的限制,其設(shè)計(jì)思路可能會(huì)受到思維定式和個(gè)人偏好的影響,導(dǎo)致設(shè)計(jì)作品缺乏多樣性和創(chuàng)新性。利用AI快速生成逼真的角色形象,可減少人工繪制的工作量,提高角色生成的效率和質(zhì)量。利用已有的圖像生成技術(shù),通過輸入提示詞,即可獲得角色設(shè)計(jì)圖片。本節(jié)主要使用Stable Diffusion、Midjoureny、DALL·E等圖像生成軟件實(shí)現(xiàn)角色草圖設(shè)計(jì)、色彩設(shè)計(jì)、服裝款式設(shè)計(jì)等角色設(shè)計(jì)環(huán)節(jié)。
(1)角色草圖設(shè)計(jì)
在設(shè)計(jì)動(dòng)畫角色時(shí)通常需要繪制角色草圖,經(jīng)過不斷修改后,對草圖進(jìn)行上色,如今這一過程可以通過AIGC自動(dòng)實(shí)現(xiàn)。這一過程中最重要的是確定提示詞,以Stable Diffusion為例,輸入以角色設(shè)計(jì)、三視角、藍(lán)圖、漢服、女孩等關(guān)鍵詞組成的提示詞,生成結(jié)果如圖1所示。
圖1 角色草圖生成結(jié)果
(2)色彩設(shè)計(jì)
色彩是影視中一種強(qiáng)大的表現(xiàn)手段,能夠傳達(dá)情感、烘托氛圍和塑造角色形象[4]。AIGC在電影色彩設(shè)計(jì)中的一個(gè)重要應(yīng)用為線稿填色。傳統(tǒng)方法中,線稿填色費(fèi)時(shí)費(fèi)力,通常由專業(yè)設(shè)計(jì)師手工完成。然而,借助AIGC技術(shù)可以實(shí)現(xiàn)自動(dòng)或輔助填色,極大提高填色效率并為色彩設(shè)計(jì)帶來新的可能性。目前筆者在使用不同工具進(jìn)行生成色彩設(shè)計(jì)測試時(shí)發(fā)現(xiàn),DALL·E無法完成色彩設(shè)計(jì)任務(wù),Midjourney在識別復(fù)雜線稿時(shí)識別不清晰,生成結(jié)果無法滿足預(yù)期(圖2)。
圖2 Stable Diffusion線稿填色生成結(jié)果(左)
與Midjourney線稿填色生成結(jié)果(右)
(3)服裝款式設(shè)計(jì)
在角色設(shè)計(jì)中,服裝設(shè)計(jì)是非常重要的一部分,在動(dòng)畫電影中,許多角色的服裝設(shè)計(jì)都是在已有款式的基礎(chǔ)上進(jìn)行改進(jìn)和創(chuàng)新設(shè)計(jì)而來。如在古裝電影中,角色的服裝通常根據(jù)朝代的設(shè)定,有著相似的基礎(chǔ)版型,這時(shí)可以利用Stable Diffusion的ControlNet生成版型類似的一系列服裝設(shè)計(jì)。ControlNet可以利用預(yù)處理器識別確定圖像的特征,通過特征控制生成的圖片,實(shí)現(xiàn)諸如姿勢、場景、外觀輪廓等。例如,我們想實(shí)現(xiàn)圖3(左)衣服款式的創(chuàng)新,可以將該圖片導(dǎo)入ControlNet中,開啟Depth預(yù)處理器,即可得到圖3(右)結(jié)果。
圖3 服裝原始款式(左)
與改造款式生成結(jié)果(右)
(4)臉部特征提取
此外,我們還可通過Stable Diffusion中的EasyPhoto訓(xùn)練角色的面部特征,實(shí)現(xiàn)換臉。首先選取需要訓(xùn)練的角色面部多視角圖片,并導(dǎo)入訓(xùn)練圖庫中,完成設(shè)置各項(xiàng)與訓(xùn)練有關(guān)的參數(shù)。當(dāng)默認(rèn)參數(shù)不變時(shí),在上方選擇一個(gè)用于訓(xùn)練的“基底模型”,常用Checkpoint作為訓(xùn)練LoRA(Low?Rank Adaption)的基底模型,通過訓(xùn)練獲得相應(yīng)人物模型,并進(jìn)行下一步推理(圖4)。
圖4 導(dǎo)入多角度表情圖片
(5)角色換臉
通過Stable Diffusion,我們可以將角色的各項(xiàng)數(shù)據(jù)輸入程序中預(yù)覽服裝換臉效果,同時(shí)可以利用ControlNet中的Openpose骨骼框架圖進(jìn)行姿態(tài)管理。Openpose是ControlNet的預(yù)處理器,用于提取人物骨架等。其通過檢測頭部、肩膀、手等人體關(guān)鍵點(diǎn)并復(fù)制人體姿勢,助力服裝、發(fā)型和背景的生成[20]。通過Openpose調(diào)整人體姿勢,搭配步驟(4)EasyPhoto的臉部特征結(jié)果即可得到角色換臉效果(圖5)。
圖5 換臉結(jié)果
此外,我們還可直接通過輸入提示詞完成角色設(shè)計(jì),本文使用同一提示詞依次在Stable Diffusion、Midjourney、DALL·E中生成角色設(shè)計(jì),結(jié)果如圖6所示。
圖6 角色生成結(jié)果(從左至右依次為Stable Diffusion、Midjourney、DALL·E生成結(jié)果)
4.2 AIGC在場景設(shè)計(jì)中的應(yīng)用
通過AIGC技術(shù)能夠快速生成和定制化場景元素。舉例來說,假設(shè)動(dòng)畫電影的場景是一個(gè)峽谷,其中充滿了樹木、瀑布、藤蔓和奇異的植物。傳統(tǒng)方式是由畫家手工繪制每一棵樹、每一片葉子和每一根藤蔓,需要大量的時(shí)間和人力資源,并且限制了創(chuàng)作的多樣性。而AIGC技術(shù)可以通過學(xué)習(xí)真實(shí)世界中的場景數(shù)據(jù),自動(dòng)分析和重建場景的三維結(jié)構(gòu)。通過對大量真實(shí)世界場景的學(xué)習(xí)和分析,模擬自然場景的各種細(xì)節(jié)和特征,包括地形、植被、天空等。這使電影美術(shù)指導(dǎo)可以根據(jù)電影主題、氛圍和風(fēng)格要求快速地創(chuàng)建出符合期望的場景,無需花費(fèi)大量時(shí)間手工繪制每一個(gè)細(xì)節(jié)。
使用彩虹、超現(xiàn)實(shí)童話河、超現(xiàn)實(shí)主義風(fēng)格、逼真的柔和燈光等關(guān)鍵詞作為提示詞,依次在Stable Diffusion、Midjourney、DALL·E中生成場景設(shè)計(jì),生成結(jié)果如圖7所示,修改提示詞后,生成結(jié)果也會(huì)有所改變(圖8)。
圖7 場景生成結(jié)果(從左至右依次為Stable Diffusion、Midjourney、DALL·E生成結(jié)果)
圖8 場景生成結(jié)果(從左至右依次為Stable Diffusion、Midjourney、DALL·E生成結(jié)果)
除此之外,我們可以利用圖生圖的方法,根據(jù)給出的草圖結(jié)構(gòu)可控地生成場景圖片。但筆者在測試時(shí)發(fā)現(xiàn)DALL·E無法很好地生成線稿圖,Stable Diffusion與Midjourney草圖生成與填色結(jié)果如圖9、圖10所示。
圖9 Stable Diffusion生成草圖(左)
與填色結(jié)果(右)
圖10 Midjourney生成草圖(左)
與填色結(jié)果(右)
4.3 AIGC在視效設(shè)計(jì)中的應(yīng)用
AIGC技術(shù)在動(dòng)畫電影視效中具有廣泛的應(yīng)用潛力,可以幫助視效團(tuán)隊(duì)生成、優(yōu)化和創(chuàng)作各種視覺效果,從而為動(dòng)畫電影帶來更加豐富和震撼的視覺體驗(yàn),依次在Stable Diffusion、Midjourney、DALL·E輸入藍(lán)紫色魔幻特效、天空、云等提示詞,即可得到具有特殊效果的圖片(圖11),還可通過修改選用的模型,生成不同風(fēng)格的特效圖片(圖12)。
圖11 特效生成結(jié)果(從左至右依次為Stable Diffusion、Midjourney、DALL·E生成結(jié)果)
圖12 Stable Diffusion原特效生成結(jié)果(左)
與更新結(jié)果(右)
在特效生成方面,也可利用圖生圖方法,根據(jù)給出的草圖結(jié)構(gòu)完成填色,實(shí)現(xiàn)可控地生成特效圖片,Stable Diffusion與Midjourney草圖生成與填色結(jié)果如圖13、圖14所示。
圖13 Stable Diffusion生成草圖(左)
與填色結(jié)果(右)
圖14 Midjourney生成草圖(左)
與填色結(jié)果(右)
4.4 測試結(jié)論
通過各軟件的生成結(jié)果可以看出,Stable Diffusion和Midjourney在動(dòng)畫電影美術(shù)設(shè)計(jì)中具有一定的應(yīng)用優(yōu)勢。首先,Stable Diffusion的功能較為豐富,更適用于動(dòng)畫電影美術(shù)設(shè)計(jì)這一應(yīng)用場景,目前市面上針對Stable Diffusion開發(fā)了相應(yīng)模型、插件,以便應(yīng)用于不同風(fēng)格、不同效果的美術(shù)設(shè)計(jì)生成。其次,在色彩設(shè)計(jì)方面,Stable Diffusion能夠更加精準(zhǔn)識別線稿輪廓,生成更加符合要求的結(jié)果。由于免費(fèi)開源、可自行部署安裝、可自定義訓(xùn)練等優(yōu)勢,該工具在藝術(shù)創(chuàng)作、游戲設(shè)計(jì)等領(lǐng)域具有廣泛的應(yīng)用前景[21]。但在生成效果方面,Stable Diffusion需要根據(jù)不同的生成效果選用模型,而Midjourney一次可以生成四個(gè)結(jié)果,且生成質(zhì)量較高,生成結(jié)果較為寫實(shí)。
5AIGC應(yīng)用于動(dòng)畫電影美術(shù)設(shè)計(jì)中存在的問題
在電影行業(yè),AIGC具有非常強(qiáng)大的功能和廣闊的探索、應(yīng)用空間。2024年2月26日,首部中國原創(chuàng)文生視頻AI系列動(dòng)畫《千秋詩頌》于CCTV?1綜合頻道播出,借助人工智能技術(shù),還原中國古詩詞中的人物與場景[22]。2024年3月6日,全球首部AI長篇電影Our T2 Remake在洛杉磯舉行首映式,電影在創(chuàng)作過程中用到ChatGPT、Stable Diffusion、Midjourney V5.2、DALL·E、Pika等多款A(yù)IGC工具。2024年3月30日,中國傳媒大學(xué)師生團(tuán)隊(duì)創(chuàng)作的國內(nèi)首部AIGC水墨動(dòng)畫《龍門》亮相2024中國網(wǎng)絡(luò)媒體論壇,以擁有自主產(chǎn)權(quán)的AI模型“墨池”為核心,生成具有水墨風(fēng)格的動(dòng)畫短片。2024年4月12日,由四川電影電視學(xué)院人工智能實(shí)驗(yàn)室卡茲克工作室制作的AI短片作品《玉覆荊楚》在中國電影大數(shù)據(jù)暨電影頻道M榜榮譽(yù)之夜驚艷亮相,該短片利用AIGC技術(shù)完成從劇本生成、分鏡設(shè)計(jì)到AI生成圖像、圖像生成視頻的任務(wù),通過Midjourery生成具有電影質(zhì)感的畫面。AIGC已實(shí)際賦能電影生產(chǎn),但目前利用AI進(jìn)行電影美術(shù)設(shè)計(jì)時(shí)仍存在一些問題。
(1)缺乏創(chuàng)造性和個(gè)性化
由于AI主要依靠所使用的模型實(shí)現(xiàn)圖像生成,生成結(jié)果的質(zhì)量和多樣性受到所使用數(shù)據(jù)集的限制[23],缺乏新穎性和創(chuàng)意性。如圖12生成的兩種不同結(jié)果,雖采用了Stable Diffusion不同的生成模型,但整體構(gòu)圖上仍具有較強(qiáng)的相似性。因此對于創(chuàng)造性和個(gè)性化要求高的圖片,仍需進(jìn)一步提升模型高質(zhì)量圖片生成能力。
(2)知識理解和表達(dá)能力不足
當(dāng)前AI模型在理解、表達(dá)美術(shù)設(shè)計(jì)的復(fù)雜性和細(xì)節(jié)方面存在局限性。例如,模型可能無法充分理解特定文化背景、場景定位或電影風(fēng)格等要求,導(dǎo)致生成的設(shè)計(jì)與實(shí)際需求不完全匹配。在生成特效圖片時(shí),筆者輸入了云這一提示詞,但Midjourney和DALL·E似乎都忽略了該關(guān)鍵詞,而Stable Diffusion也模糊了這一關(guān)鍵詞,并沒有在圖片中突出云這一元素。
(3)缺乏專業(yè)審查
在進(jìn)行電影美術(shù)設(shè)計(jì)時(shí),設(shè)計(jì)人員需要對劇本、角色和故事背景深入理解,以確保服裝等設(shè)計(jì)與情節(jié)相匹配,而由于算法的自動(dòng)化特性,生成的設(shè)計(jì)往往需要設(shè)計(jì)師的人工審查和手工調(diào)整,存在不完善或不夠?qū)嵱玫那闆r。Midjourney在通過草圖填色生成特效圖片時(shí),生成結(jié)果的科幻感不及Stable Diffusion生成的圖片,其生成結(jié)果并不能滿足預(yù)期,無法直接應(yīng)用于實(shí)際動(dòng)畫電影生產(chǎn)中。
(4)數(shù)據(jù)偏差和樣本不足
AI模型的訓(xùn)練數(shù)據(jù)可能存在偏差,導(dǎo)致生成的設(shè)計(jì)偏向某些特定類型或風(fēng)格,而忽視其他可能性。此外,由于樣本數(shù)量有限,模型可能無法覆蓋所有可能的設(shè)計(jì)風(fēng)格和要求,從而影響生成的設(shè)計(jì)質(zhì)量和多樣性。
(5)知識產(chǎn)權(quán)和原創(chuàng)性問題
AI技術(shù)的形成和完善依賴于大量的訓(xùn)練數(shù)據(jù),且用于訓(xùn)練的數(shù)據(jù)往往也包含了受版權(quán)保護(hù)的內(nèi)容[24]。數(shù)據(jù)庫中的部分圖像涉及原始作者的創(chuàng)作版權(quán),如果在沒有征得原作者許可的情況下進(jìn)行計(jì)算輸出,可能存在侵權(quán)問題[25]。為了加強(qiáng)AIGC與電影的融合應(yīng)用,提高AI生成電影的質(zhì)量,必須完善電影著作權(quán)相關(guān)的法律規(guī)定,用法治護(hù)航AIGC在影視行業(yè)的運(yùn)用與發(fā)展[26]。
6結(jié)論與展望
通過本文的實(shí)驗(yàn)發(fā)現(xiàn),AIGC應(yīng)用于動(dòng)畫電影美術(shù)設(shè)計(jì)具有一定的可行性,它可以幫助設(shè)計(jì)師獲取視覺藝術(shù)方面的創(chuàng)作靈感,提高生產(chǎn)效率,但由于AI存在一些局限性,目前仍無法完全依賴AI進(jìn)行美術(shù)創(chuàng)作。面向未來,如何針對不同電影風(fēng)格對模型進(jìn)行微調(diào)、生成的設(shè)計(jì)是否存在侵權(quán)行為、如何通過修改提示詞實(shí)現(xiàn)更好的生成效果是未來需要重點(diǎn)關(guān)注的問題,同時(shí)也是AIGC在電影行業(yè)更加廣泛應(yīng)用的基礎(chǔ),及提升電影美術(shù)設(shè)計(jì)準(zhǔn)確度與藝術(shù)性的重要前提??傊珹IGC技術(shù)給動(dòng)畫美術(shù)設(shè)計(jì)帶來了新的維度,利用人工智能圖像生成工具有助于簡化工作流程,激發(fā)創(chuàng)造力,并提升動(dòng)畫的整體質(zhì)量。隨著動(dòng)畫產(chǎn)業(yè)的不斷發(fā)展,像Stable Diffusion這樣的AI輔助工具具有進(jìn)一步發(fā)展和創(chuàng)新的巨大潛力。
參考文獻(xiàn)
(向下滑動(dòng)閱讀)
[1] Wu J Y, Gan W S, Chen Z F, et al. AI?Generated Content (AIGC): A Survey[EB/OL]. (2023?05?26)[2024 ? 03 ? 25]. https://arxiv.org/pdf/2304.06632.
[2] 趙鋆凡,蘇明揚(yáng),李秀. AIGC賦能高效電影制作——以3D人體動(dòng)畫生成工具為例[J]. 現(xiàn)代電影技術(shù),2023(7):4?9. DOI:10.3969/j.issn.1673-3215.2023.07.002.
[3] 洪宇,何淵吟. 基于AIGC賦能的影視技術(shù)與影視色彩設(shè)計(jì)研究[J]. 色彩,2023(9):44?46. DOI:10.3969/j.issn.1005-555X.2023.09.014.
[4] 巴曉. AIGC技術(shù)在影視制作中的應(yīng)用探索和趨勢前瞻[J]. 現(xiàn)代電影技術(shù),2023(12):37?43. DOI:10.3969/j.issn.1673-3215.2023.12.006.
[5] OpenAI. Introducing ChatGPT[EB/OL]. [2024?04?19].https://openai.com/blog/chatgpt.
[6] 科大訊飛. 訊飛星火認(rèn)知大模型[EB/OL]. [2024?04?19]. https://xinghuo.xfyun.cn/.
[7] 百度. 文心一言[EB/OL]. [2024?04?19]. https://yiyan.baidu.com/learn.
[8] Rombach R, Blattmann A, Lorenz D, et al. High?Resolution Image Synthesis With Latent Diffusion Models[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition,2022:10684?10695.
[9] Ramsh A, Pavlon V M, Goh G, et al. Zero?Shot Text?to?Image Generation[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition, 2021: 8821?8831.
[10] Midjourney. Midjourney[EB/OL]. [2024?04?19]. https://www.midjourney.com.
[11] Li X, Fan Y, Cheng S. AIGC In China: Current Developments And Future Outlook[EB/OL]. [2024?04?19]. http://arxiv.org/abs/2308.08451.
[12] OpenAI. Sora[EB/OL]. [2024?04?19]. https://openai.com/sora.
[13] Liu Y, Zhang K, Li Y, et al. Sora: A Review on Background, Technology, Limitations, and Opportunities of Large Vision Models[EB/OL]. [2024?04?19]. http://arxiv.org/abs/2402.17177.
[14] 張澤宇,王鐵君,郭曉然,等.AI繪畫研究綜述[J/OL].計(jì)算機(jī)科學(xué)與探索:1?22.http://kns.cnki.net/kcms/detail/11.5602.TP.20240328.1901.006.html.
[15] 曹寅,秦俊平,馬千里,等.文本生成圖像研究綜述[J].浙江大學(xué)學(xué)報(bào)(工學(xué)版),2024,58(02):219?238.
[16] Croitoru F A, HondruV, Ionescu R T, et al. Diffusion Models in Vision: A Survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2023,45(9): 10850?10869. DOI:10.1109/TPAMI.2023.3261988.
[17] Borji A.Generated Faces in the Wild: Quantitative Comparison of Stable Diffusion, Midjourney and DALL-E 2[EB/OL].(2023?06?05)[2024?04?19]. https://arxiv.org/pdf/2210.00586.
[18] 楊波.繪畫藝術(shù)在服裝設(shè)計(jì)中的視覺化展現(xiàn)[J].印染,2024,50(2):94?97.
[19] Xi C, Chuang J. A Study on Character Design Using [Midjourney] Application[J]. International Journal of Advanced Culture Technology, 2023, 11(2): 409?414. DOI:10.17703/IJACT.2023.11.2.409.
[20] 曾建勇, 沈曉萍. 基于Stable Diffusion的虛擬人形象預(yù)設(shè)計(jì)的應(yīng)用與研究[J]. 現(xiàn)代信息科技, 2024,8(3): 169?175. DOI:10.19850/j.cnki.2096-4706.2024.03.036.
[21] 陳英, 馬洪濤. AIGC在藝術(shù)設(shè)計(jì)專業(yè)領(lǐng)域的神助攻——以Stable Diffusion為例[J]. 服裝設(shè)計(jì)師, 2024(1): 73?84. DOI:10.20100/j.cnki.cn11-4548/ts.2024.01.008.
[22] 周春媚. 首部國產(chǎn)文生視頻動(dòng)畫開播 長AI電影時(shí)代加速到來[N]. 證券時(shí)報(bào),2024?02?27(A01).DOI:10.38329/n.cnki.nzjsb.2024.000728.
[23] 吳攸攸.AI在服裝圖案設(shè)計(jì)中的應(yīng)用研究[J].化纖與紡織技術(shù),2023,52(10):194?196.
[24] 王祚.AIGC的侵權(quán)問題探析及對策——以AI繪畫為例[J].當(dāng)代動(dòng)畫,2024(1):99?105.
[25] 張秀瓊.AI繪畫下的機(jī)遇與危機(jī)[J].上海輕工業(yè),2024(1):86?88.
[26] 姜天笑.電影行業(yè)中生成式人工智能潛在的問題與破解[J].中國電影市場, 2024(4):26?28.
主管單位:國家電影局
主辦單位:電影技術(shù)質(zhì)量檢測所
標(biāo)準(zhǔn)國際刊號:ISSN 1673-3215
國內(nèi)統(tǒng)一刊號:CN 11-5336/TB
投稿系統(tǒng):ampt.crifst.ac.cn
官方網(wǎng)站:www.crifst.ac.cn
期刊發(fā)行:010-63245081
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.