99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

《現(xiàn)代電影技術(shù)》|AIGC 技術(shù)在動(dòng)畫電影美術(shù)設(shè)計(jì)中的跨界應(yīng)用

0
分享至


本文刊發(fā)于《現(xiàn)代電影技術(shù)》2024年第5期

專家點(diǎn)評

在當(dāng)下的電影美術(shù)創(chuàng)作中,諸多新技術(shù)的介入改變了傳統(tǒng)美術(shù)創(chuàng)作及制作的觀念與方法,對美術(shù)設(shè)計(jì)的表現(xiàn)手段及效果實(shí)現(xiàn)了進(jìn)一步的遞進(jìn)與延伸,也為創(chuàng)作者擺脫現(xiàn)實(shí)束縛,激發(fā)了無限潛能。《AIGC 技術(shù)在動(dòng)畫電影美術(shù)設(shè)計(jì)中的跨界應(yīng)用》一文,從梳理AIGC技術(shù)在不同領(lǐng)域及圖像生成技術(shù)方面的發(fā)展現(xiàn)狀及生成原理入手,探討了其在動(dòng)畫電影美術(shù)設(shè)計(jì)方面的應(yīng)用,并結(jié)合發(fā)展現(xiàn)狀提出應(yīng)用的潛存問題,對當(dāng)下AIGC技術(shù)的進(jìn)一步發(fā)展創(chuàng)新具有借鑒意義??v觀電影發(fā)展史,每一次的突破與進(jìn)步無不與新技術(shù)的拓展、應(yīng)用相伴相隨。作為電影的重要組成部分,電影美術(shù)同樣具有“藝術(shù)性”與“技術(shù)性”融匯的特征。毋庸置疑,技術(shù)革新與藝術(shù)發(fā)展相互交融、相輔相成,是時(shí)代發(fā)展不可逆轉(zhuǎn)的潮流。電影美術(shù)設(shè)計(jì)在堅(jiān)守自身創(chuàng)作“藝術(shù)性”的同時(shí),要適應(yīng)電影產(chǎn)業(yè)技術(shù)變革的潮流,加快對AIGC技術(shù)的掌握和運(yùn)用,深度探討技術(shù)的種種可能,使其在電影美術(shù)前期概念設(shè)計(jì)、場景設(shè)計(jì)、服裝設(shè)計(jì)以及中后期視效制作中充分發(fā)揮作用,為電影美術(shù)視覺創(chuàng)作賦能,讓未來的電影視覺美學(xué)達(dá)到更為完善、理想的狀態(tài)。

——霍廷霄

中國電影家協(xié)會(huì)副主席

中國電影美術(shù)學(xué)會(huì)會(huì)長

北京電影學(xué)院美術(shù)學(xué)院教授

博士生導(dǎo)師

作 者 簡 介

趙 晴

中國傳媒大學(xué)數(shù)據(jù)科學(xué)與智能媒體學(xué)院助理實(shí)驗(yàn)師,主要研究方向:AIGC、融媒體技術(shù)。

中國傳媒大學(xué)數(shù)據(jù)科學(xué)與智能媒體學(xué)院大學(xué)本科在讀,主要研究方向:AIGC、圖像處理。

李奕澤

袁 璐

中國傳媒大學(xué)數(shù)據(jù)科學(xué)與智能媒體學(xué)院師資博士后,主要研究方向:AIGC、虛假信息檢測。

中國傳媒大學(xué)媒介音視頻教育部重點(diǎn)實(shí)驗(yàn)室副研究員,主要研究方向:智能媒體分析、音頻信號處理。

蔡娟娟

葉 龍

中國傳媒大學(xué)數(shù)據(jù)科學(xué)與智能媒體學(xué)院院長,中國傳媒大學(xué)媒介音視頻教育部重點(diǎn)實(shí)驗(yàn)室研究員,主要研究方向:智能音視頻處理技術(shù)、虛擬現(xiàn)實(shí)技術(shù)。

摘要

隨著人工智能技術(shù)的快速發(fā)展,AIGC作為生產(chǎn)力的新興引擎逐漸走進(jìn)大眾視野,其在創(chuàng)意產(chǎn)業(yè)中的應(yīng)用已成為備受關(guān)注的研究領(lǐng)域。美術(shù)設(shè)計(jì)是動(dòng)畫電影制作中至關(guān)重要的一環(huán),它不僅為角色賦予獨(dú)特的外觀和個(gè)性,還承載著故事情節(jié)和文化背景的表達(dá)。本文首先介紹AIGC 在各領(lǐng)域的應(yīng)用現(xiàn)狀和圖像生成模型技術(shù)原理,之后探討 AIGC 在動(dòng)畫電影美術(shù)設(shè)計(jì)中的潛在應(yīng)用,分析AI 輔助電影美術(shù)設(shè)計(jì)存在的問題,最后總結(jié)AIGC 在動(dòng)畫電影美術(shù)設(shè)計(jì)中的應(yīng)用前景,并展望未來研究方向。通過本文研究,可以更好地了解AIGC在動(dòng)畫電影美術(shù)設(shè)計(jì)領(lǐng)域的潛力,為電影產(chǎn)業(yè)的發(fā)展提供新的思路和方法。

關(guān)鍵詞

AIGC; 動(dòng)畫電影; 美術(shù)設(shè)計(jì); 圖像生成

1引言

人工智能生成內(nèi)容(Artificial Intelligence Generated Content,AIGC)正日益成為內(nèi)容創(chuàng)作領(lǐng)域的重要力量。該技術(shù)通過人工智能(AI)來輔助人類創(chuàng)作或在某些情境下能夠獨(dú)立生成內(nèi)容。根據(jù)用戶提供的關(guān)鍵詞或具體需求,AIGC能夠在文本、圖像、音頻等多個(gè)領(lǐng)域生成相應(yīng)的作品[1]。該技術(shù)已在電影行業(yè)初顯成效,在劇本撰寫、視覺藝術(shù)設(shè)計(jì)、聲音設(shè)計(jì)等方面,都展現(xiàn)出其推動(dòng)創(chuàng)新和提高效率的潛力[2],通過大量的數(shù)據(jù)訓(xùn)練和學(xué)習(xí),輔助電影中的劇本創(chuàng)作、概念圖繪制、圖像合成、特效制作、場景重建等任務(wù),從而提高了電影制作的效率和質(zhì)量[3]。

在動(dòng)畫電影制作中,美術(shù)設(shè)計(jì)扮演著重要的角色,其創(chuàng)新性和藝術(shù)性對提升電影質(zhì)量和觀眾觀影體驗(yàn)至關(guān)重要。美術(shù)設(shè)計(jì)涉及場景設(shè)計(jì)、角色設(shè)計(jì)、色彩設(shè)計(jì)、特效制作和視覺效果等方面。AIGC技術(shù)在電影美術(shù)設(shè)計(jì)領(lǐng)域的運(yùn)用,打破了傳統(tǒng)影視制作的桎梏,極大提高了生產(chǎn)效率,增強(qiáng)了制作能力,為影視制作注入了更多創(chuàng)新可能性[4]。當(dāng)前,其在電影美術(shù)設(shè)計(jì)中的研究和實(shí)踐仍處于發(fā)展起步階段。本文將深入探究AIGC在動(dòng)畫電影美術(shù)設(shè)計(jì)領(lǐng)域的應(yīng)用可行性,以期為未來的研究與實(shí)踐提供新的視角和啟示。

2AIGC國內(nèi)外應(yīng)用現(xiàn)狀

從傳統(tǒng)的專業(yè)生產(chǎn)內(nèi)容(Professional Generated Content, PGC)、用戶生成內(nèi)容(User Generated Content, UGC)到如今的AIGC,從文本生成、圖像生成到視頻生成,AIGC正逐步應(yīng)用于各行各業(yè),成為支撐內(nèi)容創(chuàng)作豐富性和創(chuàng)新性的關(guān)鍵技術(shù)。

在文本生成領(lǐng)域,AIGC主要應(yīng)用于文本摘要、對話系統(tǒng)等,代表工具有ChatGPT[5]、訊飛星火大模型[6]、文心一言[7]等。ChatGPT是OpenAI公司開發(fā)的語言模型對話系統(tǒng),訊飛星火大模型與文心一言分別是國內(nèi)企業(yè)科大訊飛和百度開發(fā)的語言模型對話系統(tǒng),他們在文本摘要、文本生成等方面具有強(qiáng)大的功能。

在圖像生成領(lǐng)域,AIGC主要應(yīng)用于圖像合成、圖像修復(fù)等,如Stable Diffusion[8]、DALL·E[9]、Midjourney[10]等。Stable Diffusion由Stability AI于2022年發(fā)布,主要用于生成以文本描述為條件的詳細(xì)圖像,其還可用于圖像修補(bǔ)等方面。DALL·E 是由 OpenAI 開發(fā)的基于神經(jīng)網(wǎng)絡(luò)的圖像生成模型,旨在生成與給定文本描述對齊的圖像[11]。Midjourney是由同名獨(dú)立研究實(shí)驗(yàn)室創(chuàng)立,它可通過文本描述合成圖像,快速生成逼真的人物、場景和動(dòng)畫。

在視頻生成領(lǐng)域,代表應(yīng)用為OpenAI開發(fā)的文本生成視頻AI 模型Sora[12],經(jīng)過訓(xùn)練,該模型可根據(jù)文本指令生成真實(shí)或想象場景的視頻,并顯示出模擬物理世界的潛力[13]。

3圖像生成技術(shù)發(fā)展現(xiàn)狀及技術(shù)原理

圖像生成是指利用人工智能技術(shù),根據(jù)給定的數(shù)據(jù)進(jìn)行單模態(tài)或跨模態(tài)生成圖像的過程。根據(jù)任務(wù)目標(biāo)和輸入模態(tài)的不同,圖像生成主要包括圖像合成(Image Composition)、圖像生成圖像(Image?to?Image)以及文本生成圖像(Text?to?Image)等。根據(jù)生成圖像的理念,將文本生成圖像任務(wù)分為3大類:基于生成式對抗網(wǎng)絡(luò)(GAN)架構(gòu)生成圖像、基于自回歸模型(Autoregressive Model)架構(gòu)生成圖像、基于擴(kuò)散模型(Diffusion Model)架構(gòu)生成圖像[14]。

生成式對抗網(wǎng)絡(luò)(GAN)通過生成器和判別器進(jìn)行博弈訓(xùn)練以不斷提升生成能力和鑒別能力,使生成網(wǎng)絡(luò)的數(shù)據(jù)愈發(fā)趨近真實(shí)數(shù)據(jù),從而達(dá)到生成逼真圖像的目的[14]。但在發(fā)展過程中,GAN存在穩(wěn)定性較差、生成圖像缺乏多樣性、模式崩潰等問題。

自回歸模型是用于將文本數(shù)據(jù)轉(zhuǎn)化為圖像數(shù)據(jù)的模型[15],將圖像表示為像素序列,以先前生成的像素為條件,逐個(gè)像素地生成圖像,從而產(chǎn)生新的樣本[16]。利用Transformer架構(gòu)中的自注意力機(jī)制能夠優(yōu)化GAN的訓(xùn)練方式,提高模型的穩(wěn)定性和生成圖像的合理性。

擴(kuò)散模型[8]是通過一個(gè)從數(shù)據(jù)分布到高斯分布的擴(kuò)散過程和一個(gè)從高斯分布到數(shù)據(jù)分布的去噪過程來建模數(shù)據(jù),其在訓(xùn)練穩(wěn)定性和結(jié)果準(zhǔn)確性方面提升明顯。而對于電影行業(yè)應(yīng)用中的大量跨模態(tài)圖像生成需求,則需要結(jié)合對比語言-圖像預(yù)訓(xùn)練(Contrastive Language-Image Pre?Training, CLIP)進(jìn)行,CLIP基于文本-圖像對的訓(xùn)練方式能夠建立跨模態(tài)的連接,是OpenAI 設(shè)計(jì)和開發(fā)的一種基于神經(jīng)網(wǎng)絡(luò)的模型,旨在訓(xùn)練文本和視覺數(shù)據(jù)的表示。該模型同時(shí)訓(xùn)練文本和圖像,顯著提升了生成圖像的速度和質(zhì)量。

目前,市面上有大量基于擴(kuò)散模型和CLIP實(shí)現(xiàn)的文本到圖像 、圖像到圖像等圖像生成模型,利用簡單的交互和快速生成圖像的功能,顯著地降低了操作門檻,并且越來越多地應(yīng)用于商業(yè)服務(wù),目前主流的工具有Stable Diffusion、Midjourney和DALL·E等[17],各模型簡介如表1所示。

表1  模型簡介


4AIGC在動(dòng)畫電影美術(shù)設(shè)計(jì)中的應(yīng)用

利用AIGC生成美術(shù)設(shè)計(jì)圖片,主要流程為線稿設(shè)計(jì)和色彩設(shè)計(jì)。本文探索了如何通過使用Stable Diffusion、Midjourney、DALL·E等目前主流的圖像生成工具,自動(dòng)完成美術(shù)設(shè)計(jì)中的角色設(shè)計(jì)、場景設(shè)計(jì)、特效設(shè)計(jì)、色彩設(shè)計(jì)等任務(wù),對比各工具的優(yōu)劣,探索AIGC在動(dòng)畫電影美術(shù)設(shè)計(jì)領(lǐng)域中應(yīng)用的可行性,幫助設(shè)計(jì)師從AIGC生成的設(shè)計(jì)中汲取設(shè)計(jì)靈感和思路,豐富角色設(shè)計(jì)元素和視覺表現(xiàn)力,促使作品煥發(fā)出藝術(shù)生命力[18]。對沒有基本繪圖或設(shè)計(jì)技能的用戶,AI可以提供方便的圖像生成服務(wù),能夠?qū)⑽淖洲D(zhuǎn)換為視覺圖片[19],AIGC將對動(dòng)畫美術(shù)設(shè)計(jì)的生產(chǎn)效率和創(chuàng)新發(fā)展產(chǎn)生重大影響。

4.1 AIGC在角色設(shè)計(jì)中的應(yīng)用

人工智能角色生成技術(shù)的應(yīng)用范圍十分廣泛,包括游戲開發(fā)、電影及動(dòng)畫制作等領(lǐng)域。動(dòng)畫電影的角色設(shè)計(jì)主要包含外貌特征、服裝、造型、姿勢等細(xì)節(jié),而傳統(tǒng)的角色設(shè)計(jì)方法具有一定的局限性。首先,傳統(tǒng)的動(dòng)畫角色設(shè)計(jì)會(huì)耗費(fèi)大量的時(shí)間和資源;其次,角色設(shè)計(jì)過程依賴于設(shè)計(jì)師的個(gè)人經(jīng)驗(yàn)和創(chuàng)造力,設(shè)計(jì)師需要不斷尋找靈感、提煉設(shè)計(jì)概念,并將其轉(zhuǎn)化為實(shí)際的角色;最后,設(shè)計(jì)結(jié)果通常受到設(shè)計(jì)師個(gè)人經(jīng)驗(yàn)和審美觀念的限制,其設(shè)計(jì)思路可能會(huì)受到思維定式和個(gè)人偏好的影響,導(dǎo)致設(shè)計(jì)作品缺乏多樣性和創(chuàng)新性。利用AI快速生成逼真的角色形象,可減少人工繪制的工作量,提高角色生成的效率和質(zhì)量。利用已有的圖像生成技術(shù),通過輸入提示詞,即可獲得角色設(shè)計(jì)圖片。本節(jié)主要使用Stable Diffusion、Midjoureny、DALL·E等圖像生成軟件實(shí)現(xiàn)角色草圖設(shè)計(jì)、色彩設(shè)計(jì)、服裝款式設(shè)計(jì)等角色設(shè)計(jì)環(huán)節(jié)。

(1)角色草圖設(shè)計(jì)

在設(shè)計(jì)動(dòng)畫角色時(shí)通常需要繪制角色草圖,經(jīng)過不斷修改后,對草圖進(jìn)行上色,如今這一過程可以通過AIGC自動(dòng)實(shí)現(xiàn)。這一過程中最重要的是確定提示詞,以Stable Diffusion為例,輸入以角色設(shè)計(jì)、三視角、藍(lán)圖、漢服、女孩等關(guān)鍵詞組成的提示詞,生成結(jié)果如圖1所示。


圖1 角色草圖生成結(jié)果

(2)色彩設(shè)計(jì)

色彩是影視中一種強(qiáng)大的表現(xiàn)手段,能夠傳達(dá)情感、烘托氛圍和塑造角色形象[4]。AIGC在電影色彩設(shè)計(jì)中的一個(gè)重要應(yīng)用為線稿填色。傳統(tǒng)方法中,線稿填色費(fèi)時(shí)費(fèi)力,通常由專業(yè)設(shè)計(jì)師手工完成。然而,借助AIGC技術(shù)可以實(shí)現(xiàn)自動(dòng)或輔助填色,極大提高填色效率并為色彩設(shè)計(jì)帶來新的可能性。目前筆者在使用不同工具進(jìn)行生成色彩設(shè)計(jì)測試時(shí)發(fā)現(xiàn),DALL·E無法完成色彩設(shè)計(jì)任務(wù),Midjourney在識別復(fù)雜線稿時(shí)識別不清晰,生成結(jié)果無法滿足預(yù)期(圖2)。


圖2 Stable Diffusion線稿填色生成結(jié)果(左)

與Midjourney線稿填色生成結(jié)果(右)

(3)服裝款式設(shè)計(jì)

在角色設(shè)計(jì)中,服裝設(shè)計(jì)是非常重要的一部分,在動(dòng)畫電影中,許多角色的服裝設(shè)計(jì)都是在已有款式的基礎(chǔ)上進(jìn)行改進(jìn)和創(chuàng)新設(shè)計(jì)而來。如在古裝電影中,角色的服裝通常根據(jù)朝代的設(shè)定,有著相似的基礎(chǔ)版型,這時(shí)可以利用Stable Diffusion的ControlNet生成版型類似的一系列服裝設(shè)計(jì)。ControlNet可以利用預(yù)處理器識別確定圖像的特征,通過特征控制生成的圖片,實(shí)現(xiàn)諸如姿勢、場景、外觀輪廓等。例如,我們想實(shí)現(xiàn)圖3(左)衣服款式的創(chuàng)新,可以將該圖片導(dǎo)入ControlNet中,開啟Depth預(yù)處理器,即可得到圖3(右)結(jié)果。


圖3 服裝原始款式(左)

與改造款式生成結(jié)果(右)

(4)臉部特征提取

此外,我們還可通過Stable Diffusion中的EasyPhoto訓(xùn)練角色的面部特征,實(shí)現(xiàn)換臉。首先選取需要訓(xùn)練的角色面部多視角圖片,并導(dǎo)入訓(xùn)練圖庫中,完成設(shè)置各項(xiàng)與訓(xùn)練有關(guān)的參數(shù)。當(dāng)默認(rèn)參數(shù)不變時(shí),在上方選擇一個(gè)用于訓(xùn)練的“基底模型”,常用Checkpoint作為訓(xùn)練LoRA(Low?Rank Adaption)的基底模型,通過訓(xùn)練獲得相應(yīng)人物模型,并進(jìn)行下一步推理(圖4)。


圖4 導(dǎo)入多角度表情圖片

(5)角色換臉

通過Stable Diffusion,我們可以將角色的各項(xiàng)數(shù)據(jù)輸入程序中預(yù)覽服裝換臉效果,同時(shí)可以利用ControlNet中的Openpose骨骼框架圖進(jìn)行姿態(tài)管理。Openpose是ControlNet的預(yù)處理器,用于提取人物骨架等。其通過檢測頭部、肩膀、手等人體關(guān)鍵點(diǎn)并復(fù)制人體姿勢,助力服裝、發(fā)型和背景的生成[20]。通過Openpose調(diào)整人體姿勢,搭配步驟(4)EasyPhoto的臉部特征結(jié)果即可得到角色換臉效果(圖5)。


圖5 換臉結(jié)果

此外,我們還可直接通過輸入提示詞完成角色設(shè)計(jì),本文使用同一提示詞依次在Stable Diffusion、Midjourney、DALL·E中生成角色設(shè)計(jì),結(jié)果如圖6所示。


圖6 角色生成結(jié)果(從左至右依次為Stable Diffusion、Midjourney、DALL·E生成結(jié)果)

4.2 AIGC在場景設(shè)計(jì)中的應(yīng)用

通過AIGC技術(shù)能夠快速生成和定制化場景元素。舉例來說,假設(shè)動(dòng)畫電影的場景是一個(gè)峽谷,其中充滿了樹木、瀑布、藤蔓和奇異的植物。傳統(tǒng)方式是由畫家手工繪制每一棵樹、每一片葉子和每一根藤蔓,需要大量的時(shí)間和人力資源,并且限制了創(chuàng)作的多樣性。而AIGC技術(shù)可以通過學(xué)習(xí)真實(shí)世界中的場景數(shù)據(jù),自動(dòng)分析和重建場景的三維結(jié)構(gòu)。通過對大量真實(shí)世界場景的學(xué)習(xí)和分析,模擬自然場景的各種細(xì)節(jié)和特征,包括地形、植被、天空等。這使電影美術(shù)指導(dǎo)可以根據(jù)電影主題、氛圍和風(fēng)格要求快速地創(chuàng)建出符合期望的場景,無需花費(fèi)大量時(shí)間手工繪制每一個(gè)細(xì)節(jié)。

使用彩虹、超現(xiàn)實(shí)童話河、超現(xiàn)實(shí)主義風(fēng)格、逼真的柔和燈光等關(guān)鍵詞作為提示詞,依次在Stable Diffusion、Midjourney、DALL·E中生成場景設(shè)計(jì),生成結(jié)果如圖7所示,修改提示詞后,生成結(jié)果也會(huì)有所改變(圖8)。


圖7 場景生成結(jié)果(從左至右依次為Stable Diffusion、Midjourney、DALL·E生成結(jié)果)


圖8 場景生成結(jié)果(從左至右依次為Stable Diffusion、Midjourney、DALL·E生成結(jié)果)

除此之外,我們可以利用圖生圖的方法,根據(jù)給出的草圖結(jié)構(gòu)可控地生成場景圖片。但筆者在測試時(shí)發(fā)現(xiàn)DALL·E無法很好地生成線稿圖,Stable Diffusion與Midjourney草圖生成與填色結(jié)果如圖9、圖10所示。


圖9 Stable Diffusion生成草圖(左)

與填色結(jié)果(右)


圖10 Midjourney生成草圖(左)

與填色結(jié)果(右)

4.3 AIGC在視效設(shè)計(jì)中的應(yīng)用

AIGC技術(shù)在動(dòng)畫電影視效中具有廣泛的應(yīng)用潛力,可以幫助視效團(tuán)隊(duì)生成、優(yōu)化和創(chuàng)作各種視覺效果,從而為動(dòng)畫電影帶來更加豐富和震撼的視覺體驗(yàn),依次在Stable Diffusion、Midjourney、DALL·E輸入藍(lán)紫色魔幻特效、天空、云等提示詞,即可得到具有特殊效果的圖片(圖11),還可通過修改選用的模型,生成不同風(fēng)格的特效圖片(圖12)。


圖11 特效生成結(jié)果(從左至右依次為Stable Diffusion、Midjourney、DALL·E生成結(jié)果)


圖12 Stable Diffusion原特效生成結(jié)果(左)

與更新結(jié)果(右)

在特效生成方面,也可利用圖生圖方法,根據(jù)給出的草圖結(jié)構(gòu)完成填色,實(shí)現(xiàn)可控地生成特效圖片,Stable Diffusion與Midjourney草圖生成與填色結(jié)果如圖13、圖14所示。


圖13 Stable Diffusion生成草圖(左)

與填色結(jié)果(右)


圖14 Midjourney生成草圖(左)

與填色結(jié)果(右)

4.4 測試結(jié)論

通過各軟件的生成結(jié)果可以看出,Stable Diffusion和Midjourney在動(dòng)畫電影美術(shù)設(shè)計(jì)中具有一定的應(yīng)用優(yōu)勢。首先,Stable Diffusion的功能較為豐富,更適用于動(dòng)畫電影美術(shù)設(shè)計(jì)這一應(yīng)用場景,目前市面上針對Stable Diffusion開發(fā)了相應(yīng)模型、插件,以便應(yīng)用于不同風(fēng)格、不同效果的美術(shù)設(shè)計(jì)生成。其次,在色彩設(shè)計(jì)方面,Stable Diffusion能夠更加精準(zhǔn)識別線稿輪廓,生成更加符合要求的結(jié)果。由于免費(fèi)開源、可自行部署安裝、可自定義訓(xùn)練等優(yōu)勢,該工具在藝術(shù)創(chuàng)作、游戲設(shè)計(jì)等領(lǐng)域具有廣泛的應(yīng)用前景[21]。但在生成效果方面,Stable Diffusion需要根據(jù)不同的生成效果選用模型,而Midjourney一次可以生成四個(gè)結(jié)果,且生成質(zhì)量較高,生成結(jié)果較為寫實(shí)。

5AIGC應(yīng)用于動(dòng)畫電影美術(shù)設(shè)計(jì)中存在的問題

在電影行業(yè),AIGC具有非常強(qiáng)大的功能和廣闊的探索、應(yīng)用空間。2024年2月26日,首部中國原創(chuàng)文生視頻AI系列動(dòng)畫《千秋詩頌》于CCTV?1綜合頻道播出,借助人工智能技術(shù),還原中國古詩詞中的人物與場景[22]。2024年3月6日,全球首部AI長篇電影Our T2 Remake在洛杉磯舉行首映式,電影在創(chuàng)作過程中用到ChatGPT、Stable Diffusion、Midjourney V5.2、DALL·E、Pika等多款A(yù)IGC工具。2024年3月30日,中國傳媒大學(xué)師生團(tuán)隊(duì)創(chuàng)作的國內(nèi)首部AIGC水墨動(dòng)畫《龍門》亮相2024中國網(wǎng)絡(luò)媒體論壇,以擁有自主產(chǎn)權(quán)的AI模型“墨池”為核心,生成具有水墨風(fēng)格的動(dòng)畫短片。2024年4月12日,由四川電影電視學(xué)院人工智能實(shí)驗(yàn)室卡茲克工作室制作的AI短片作品《玉覆荊楚》在中國電影大數(shù)據(jù)暨電影頻道M榜榮譽(yù)之夜驚艷亮相,該短片利用AIGC技術(shù)完成從劇本生成、分鏡設(shè)計(jì)到AI生成圖像、圖像生成視頻的任務(wù),通過Midjourery生成具有電影質(zhì)感的畫面。AIGC已實(shí)際賦能電影生產(chǎn),但目前利用AI進(jìn)行電影美術(shù)設(shè)計(jì)時(shí)仍存在一些問題。

(1)缺乏創(chuàng)造性和個(gè)性化

由于AI主要依靠所使用的模型實(shí)現(xiàn)圖像生成,生成結(jié)果的質(zhì)量和多樣性受到所使用數(shù)據(jù)集的限制[23],缺乏新穎性和創(chuàng)意性。如圖12生成的兩種不同結(jié)果,雖采用了Stable Diffusion不同的生成模型,但整體構(gòu)圖上仍具有較強(qiáng)的相似性。因此對于創(chuàng)造性和個(gè)性化要求高的圖片,仍需進(jìn)一步提升模型高質(zhì)量圖片生成能力。

(2)知識理解和表達(dá)能力不足

當(dāng)前AI模型在理解、表達(dá)美術(shù)設(shè)計(jì)的復(fù)雜性和細(xì)節(jié)方面存在局限性。例如,模型可能無法充分理解特定文化背景、場景定位或電影風(fēng)格等要求,導(dǎo)致生成的設(shè)計(jì)與實(shí)際需求不完全匹配。在生成特效圖片時(shí),筆者輸入了云這一提示詞,但Midjourney和DALL·E似乎都忽略了該關(guān)鍵詞,而Stable Diffusion也模糊了這一關(guān)鍵詞,并沒有在圖片中突出云這一元素。

(3)缺乏專業(yè)審查

在進(jìn)行電影美術(shù)設(shè)計(jì)時(shí),設(shè)計(jì)人員需要對劇本、角色和故事背景深入理解,以確保服裝等設(shè)計(jì)與情節(jié)相匹配,而由于算法的自動(dòng)化特性,生成的設(shè)計(jì)往往需要設(shè)計(jì)師的人工審查和手工調(diào)整,存在不完善或不夠?qū)嵱玫那闆r。Midjourney在通過草圖填色生成特效圖片時(shí),生成結(jié)果的科幻感不及Stable Diffusion生成的圖片,其生成結(jié)果并不能滿足預(yù)期,無法直接應(yīng)用于實(shí)際動(dòng)畫電影生產(chǎn)中。

(4)數(shù)據(jù)偏差和樣本不足

AI模型的訓(xùn)練數(shù)據(jù)可能存在偏差,導(dǎo)致生成的設(shè)計(jì)偏向某些特定類型或風(fēng)格,而忽視其他可能性。此外,由于樣本數(shù)量有限,模型可能無法覆蓋所有可能的設(shè)計(jì)風(fēng)格和要求,從而影響生成的設(shè)計(jì)質(zhì)量和多樣性。

(5)知識產(chǎn)權(quán)和原創(chuàng)性問題

AI技術(shù)的形成和完善依賴于大量的訓(xùn)練數(shù)據(jù),且用于訓(xùn)練的數(shù)據(jù)往往也包含了受版權(quán)保護(hù)的內(nèi)容[24]。數(shù)據(jù)庫中的部分圖像涉及原始作者的創(chuàng)作版權(quán),如果在沒有征得原作者許可的情況下進(jìn)行計(jì)算輸出,可能存在侵權(quán)問題[25]。為了加強(qiáng)AIGC與電影的融合應(yīng)用,提高AI生成電影的質(zhì)量,必須完善電影著作權(quán)相關(guān)的法律規(guī)定,用法治護(hù)航AIGC在影視行業(yè)的運(yùn)用與發(fā)展[26]。

6結(jié)論與展望

通過本文的實(shí)驗(yàn)發(fā)現(xiàn),AIGC應(yīng)用于動(dòng)畫電影美術(shù)設(shè)計(jì)具有一定的可行性,它可以幫助設(shè)計(jì)師獲取視覺藝術(shù)方面的創(chuàng)作靈感,提高生產(chǎn)效率,但由于AI存在一些局限性,目前仍無法完全依賴AI進(jìn)行美術(shù)創(chuàng)作。面向未來,如何針對不同電影風(fēng)格對模型進(jìn)行微調(diào)、生成的設(shè)計(jì)是否存在侵權(quán)行為、如何通過修改提示詞實(shí)現(xiàn)更好的生成效果是未來需要重點(diǎn)關(guān)注的問題,同時(shí)也是AIGC在電影行業(yè)更加廣泛應(yīng)用的基礎(chǔ),及提升電影美術(shù)設(shè)計(jì)準(zhǔn)確度與藝術(shù)性的重要前提??傊珹IGC技術(shù)給動(dòng)畫美術(shù)設(shè)計(jì)帶來了新的維度,利用人工智能圖像生成工具有助于簡化工作流程,激發(fā)創(chuàng)造力,并提升動(dòng)畫的整體質(zhì)量。隨著動(dòng)畫產(chǎn)業(yè)的不斷發(fā)展,像Stable Diffusion這樣的AI輔助工具具有進(jìn)一步發(fā)展和創(chuàng)新的巨大潛力。

參考文獻(xiàn)

(向下滑動(dòng)閱讀)

[1] Wu J Y, Gan W S, Chen Z F, et al. AI?Generated Content (AIGC): A Survey[EB/OL]. (2023?05?26)[2024 ? 03 ? 25]. https://arxiv.org/pdf/2304.06632.

[2] 趙鋆凡,蘇明揚(yáng),李秀. AIGC賦能高效電影制作——以3D人體動(dòng)畫生成工具為例[J]. 現(xiàn)代電影技術(shù),2023(7):4?9. DOI:10.3969/j.issn.1673-3215.2023.07.002.

[3] 洪宇,何淵吟. 基于AIGC賦能的影視技術(shù)與影視色彩設(shè)計(jì)研究[J]. 色彩,2023(9):44?46. DOI:10.3969/j.issn.1005-555X.2023.09.014.

[4] 巴曉. AIGC技術(shù)在影視制作中的應(yīng)用探索和趨勢前瞻[J]. 現(xiàn)代電影技術(shù),2023(12):37?43. DOI:10.3969/j.issn.1673-3215.2023.12.006.

[5] OpenAI. Introducing ChatGPT[EB/OL]. [2024?04?19].https://openai.com/blog/chatgpt.

[6] 科大訊飛. 訊飛星火認(rèn)知大模型[EB/OL]. [2024?04?19]. https://xinghuo.xfyun.cn/.

[7] 百度. 文心一言[EB/OL]. [2024?04?19]. https://yiyan.baidu.com/learn.

[8] Rombach R, Blattmann A, Lorenz D, et al. High?Resolution Image Synthesis With Latent Diffusion Models[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition,2022:10684?10695.

[9] Ramsh A, Pavlon V M, Goh G, et al. Zero?Shot Text?to?Image Generation[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition, 2021: 8821?8831.

[10] Midjourney. Midjourney[EB/OL]. [2024?04?19]. https://www.midjourney.com.

[11] Li X, Fan Y, Cheng S. AIGC In China: Current Developments And Future Outlook[EB/OL]. [2024?04?19]. http://arxiv.org/abs/2308.08451.

[12] OpenAI. Sora[EB/OL]. [2024?04?19]. https://openai.com/sora.

[13] Liu Y, Zhang K, Li Y, et al. Sora: A Review on Background, Technology, Limitations, and Opportunities of Large Vision Models[EB/OL]. [2024?04?19]. http://arxiv.org/abs/2402.17177.

[14] 張澤宇,王鐵君,郭曉然,等.AI繪畫研究綜述[J/OL].計(jì)算機(jī)科學(xué)與探索:1?22.http://kns.cnki.net/kcms/detail/11.5602.TP.20240328.1901.006.html.

[15] 曹寅,秦俊平,馬千里,等.文本生成圖像研究綜述[J].浙江大學(xué)學(xué)報(bào)(工學(xué)版),2024,58(02):219?238.

[16] Croitoru F A, HondruV, Ionescu R T, et al. Diffusion Models in Vision: A Survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2023,45(9): 10850?10869. DOI:10.1109/TPAMI.2023.3261988.

[17] Borji A.Generated Faces in the Wild: Quantitative Comparison of Stable Diffusion, Midjourney and DALL-E 2[EB/OL].(2023?06?05)[2024?04?19]. https://arxiv.org/pdf/2210.00586.

[18] 楊波.繪畫藝術(shù)在服裝設(shè)計(jì)中的視覺化展現(xiàn)[J].印染,2024,50(2):94?97.

[19] Xi C, Chuang J. A Study on Character Design Using [Midjourney] Application[J]. International Journal of Advanced Culture Technology, 2023, 11(2): 409?414. DOI:10.17703/IJACT.2023.11.2.409.

[20] 曾建勇, 沈曉萍. 基于Stable Diffusion的虛擬人形象預(yù)設(shè)計(jì)的應(yīng)用與研究[J]. 現(xiàn)代信息科技, 2024,8(3): 169?175. DOI:10.19850/j.cnki.2096-4706.2024.03.036.

[21] 陳英, 馬洪濤. AIGC在藝術(shù)設(shè)計(jì)專業(yè)領(lǐng)域的神助攻——以Stable Diffusion為例[J]. 服裝設(shè)計(jì)師, 2024(1): 73?84. DOI:10.20100/j.cnki.cn11-4548/ts.2024.01.008.

[22] 周春媚. 首部國產(chǎn)文生視頻動(dòng)畫開播 長AI電影時(shí)代加速到來[N]. 證券時(shí)報(bào),2024?02?27(A01).DOI:10.38329/n.cnki.nzjsb.2024.000728.

[23] 吳攸攸.AI在服裝圖案設(shè)計(jì)中的應(yīng)用研究[J].化纖與紡織技術(shù),2023,52(10):194?196.

[24] 王祚.AIGC的侵權(quán)問題探析及對策——以AI繪畫為例[J].當(dāng)代動(dòng)畫,2024(1):99?105.

[25] 張秀瓊.AI繪畫下的機(jī)遇與危機(jī)[J].上海輕工業(yè),2024(1):86?88.

[26] 姜天笑.電影行業(yè)中生成式人工智能潛在的問題與破解[J].中國電影市場, 2024(4):26?28.

主管單位:國家電影局

主辦單位:電影技術(shù)質(zhì)量檢測所

標(biāo)準(zhǔn)國際刊號:ISSN 1673-3215

國內(nèi)統(tǒng)一刊號:CN 11-5336/TB

投稿系統(tǒng):ampt.crifst.ac.cn

官方網(wǎng)站:www.crifst.ac.cn

期刊發(fā)行:010-63245081

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
一外地游客在長沙熱到呼吸性堿中毒,提醒:高溫或誘發(fā)呼吸性堿中毒

一外地游客在長沙熱到呼吸性堿中毒,提醒:高溫或誘發(fā)呼吸性堿中毒

極目新聞
2025-07-16 18:41:56
看到李夢的真實(shí)處境,才明白宮魯鳴為何不重用,不僅是化妝有分歧

看到李夢的真實(shí)處境,才明白宮魯鳴為何不重用,不僅是化妝有分歧

二月侃事
2025-06-18 14:56:16
2025年養(yǎng)老金調(diào)整,與工齡掛鉤,15年,33年,42年上漲差距多少?

2025年養(yǎng)老金調(diào)整,與工齡掛鉤,15年,33年,42年上漲差距多少?

興史興談
2025-07-16 08:01:29
破防了!中國越來越不需要韓國芯片,韓媒:無法接受被中國趕超

破防了!中國越來越不需要韓國芯片,韓媒:無法接受被中國趕超

毒sir財(cái)經(jīng)
2025-06-19 23:08:32
亞馬爾:巴薩是我的生命,梅西已經(jīng)走出了自己的路我也將走自己的

亞馬爾:巴薩是我的生命,梅西已經(jīng)走出了自己的路我也將走自己的

直播吧
2025-07-17 04:43:36
OpenAI 工程師最新演講:代碼只占程序員核心價(jià)值的 10%,未來屬于“結(jié)構(gòu)化溝通”

OpenAI 工程師最新演講:代碼只占程序員核心價(jià)值的 10%,未來屬于“結(jié)構(gòu)化溝通”

AI科技大本營
2025-07-15 16:37:57
高207米!騰訊廣州“火箭臺”大樓竣工

高207米!騰訊廣州“火箭臺”大樓竣工

GA環(huán)球建筑
2025-07-15 22:05:59
今晚19:30!CCTV5直播亞洲杯重要賽事:中國女籃沖擊4強(qiáng)

今晚19:30!CCTV5直播亞洲杯重要賽事:中國女籃沖擊4強(qiáng)

煙潯渺渺
2025-07-17 03:09:20
打到莫斯科?特朗普想法很大膽,中國或受牽連,接下來該普京出牌

打到莫斯科?特朗普想法很大膽,中國或受牽連,接下來該普京出牌

叮當(dāng)當(dāng)科技
2025-07-17 06:54:35
辱不了洋人,還辱不了你?

辱不了洋人,還辱不了你?

一代文嚎
2025-07-15 20:52:55
香港,又香了!信號無比強(qiáng)烈

香港,又香了!信號無比強(qiáng)烈

智谷趨勢
2025-07-16 09:33:11
毛岸英犧牲后,劉思齊改嫁河北青年楊茂之生四子,他究竟是什么人

毛岸英犧牲后,劉思齊改嫁河北青年楊茂之生四子,他究竟是什么人

萬物知識圈
2025-07-16 11:29:01
6個(gè)交易日,暴漲超250%!3次停牌核查,2人被罰!

6個(gè)交易日,暴漲超250%!3次停牌核查,2人被罰!

證券時(shí)報(bào)e公司
2025-07-16 23:06:37
退休教師順雞蛋當(dāng)場身亡,兒子索賠超市38萬,法院判決讓人佩服

退休教師順雞蛋當(dāng)場身亡,兒子索賠超市38萬,法院判決讓人佩服

南南史
2025-01-15 10:54:19
果然有猛料!打記者企業(yè)稱機(jī)密被侵犯,警方通告,打砸是冰山一角

果然有猛料!打記者企業(yè)稱機(jī)密被侵犯,警方通告,打砸是冰山一角

說說史事
2025-07-16 11:42:33
外媒:疑因允許在“里根”號航母上舉辦女裝變裝秀,美軍第七艦隊(duì)司令提名被撤

外媒:疑因允許在“里根”號航母上舉辦女裝變裝秀,美軍第七艦隊(duì)司令提名被撤

環(huán)球網(wǎng)資訊
2025-07-14 14:31:47
75年得知王恩茂境況,主席大怒:怎能當(dāng)?shù)匚睍洠恐甘痉峙滠婈?duì)

75年得知王恩茂境況,主席大怒:怎能當(dāng)?shù)匚睍洠恐甘痉峙滠婈?duì)

咸説歷史
2025-06-26 16:58:18
泰王新寵小妾巴帕頌坐他身邊,蘇提達(dá)滿臉不高興,泰王趕緊哄她

泰王新寵小妾巴帕頌坐他身邊,蘇提達(dá)滿臉不高興,泰王趕緊哄她

笑傲春秋
2025-07-16 11:30:22
2025年上海市頭部高中超級四校、八大金剛、新五虎

2025年上海市頭部高中超級四校、八大金剛、新五虎

特特農(nóng)村生活
2025-07-16 19:44:48
貴州29歲女子連生5娃,住大平層睡醒就吃還打牌,聲稱還能再生倆

貴州29歲女子連生5娃,住大平層睡醒就吃還打牌,聲稱還能再生倆

葡萄說娛
2025-07-16 15:28:21
2025-07-17 08:16:49
電影技術(shù)微刊 incentive-icons
電影技術(shù)微刊
電影技術(shù)微刊
579文章數(shù) 208關(guān)注度
往期回顧 全部

娛樂要聞

都美竹將參加綜藝,單身媽媽發(fā)文抵制

頭條要聞

媒體:黃楊鈿甜"耳環(huán)"事件 一場質(zhì)疑與謠言茍合的鬧劇

頭條要聞

媒體:黃楊鈿甜"耳環(huán)"事件 一場質(zhì)疑與謠言茍合的鬧劇

體育要聞

不給楊瀚森傳球,他有自己的理由

財(cái)經(jīng)要聞

探究萬億市場的休閑零食

科技要聞

美團(tuán)外賣大戰(zhàn)總指揮:不想卷 但不能不反擊

汽車要聞

理想i8內(nèi)飾官圖公布 李想回應(yīng)"被打臉"

態(tài)度原創(chuàng)

藝術(shù)
教育
健康
數(shù)碼
軍事航空

藝術(shù)要聞

故宮珍藏的墨跡《十七帖》,比拓本更精良,這才是地道的魏晉寫法

教育要聞

全等三角形動(dòng)點(diǎn)問題,方法大總結(jié)!

呼吸科專家破解呼吸道九大謠言!

數(shù)碼要聞

三星新一代平板電腦通過3C認(rèn)證,支持25W快充

軍事要聞

胡塞武裝稱襲擊以色列多處目標(biāo) 致其“航班中斷”

無障礙瀏覽 進(jìn)入關(guān)懷版 主站蜘蛛池模板: 绥中县| 繁昌县| 苍梧县| 碌曲县| 盱眙县| 甘南县| 高州市| 微山县| 木里| 杭锦旗| 江北区| 彭州市| 福建省| 长垣县| 当雄县| 海晏县| 景泰县| 枣强县| 准格尔旗| 长岛县| 宜章县| 桂阳县| 定南县| 崇左市| 呈贡县| 兴文县| 黑水县| 腾冲县| 安化县| 建昌县| 阜阳市| 确山县| 巴里| 武冈市| 延津县| 弋阳县| 疏附县| 永登县| 巴中市| 孟州市| 兴隆县|