本文刊發于《現代電影技術》2024年第5期
專家點評
在當下的電影美術創作中,諸多新技術的介入改變了傳統美術創作及制作的觀念與方法,對美術設計的表現手段及效果實現了進一步的遞進與延伸,也為創作者擺脫現實束縛,激發了無限潛能。《AIGC 技術在動畫電影美術設計中的跨界應用》一文,從梳理AIGC技術在不同領域及圖像生成技術方面的發展現狀及生成原理入手,探討了其在動畫電影美術設計方面的應用,并結合發展現狀提出應用的潛存問題,對當下AIGC技術的進一步發展創新具有借鑒意義。縱觀電影發展史,每一次的突破與進步無不與新技術的拓展、應用相伴相隨。作為電影的重要組成部分,電影美術同樣具有“藝術性”與“技術性”融匯的特征。毋庸置疑,技術革新與藝術發展相互交融、相輔相成,是時代發展不可逆轉的潮流。電影美術設計在堅守自身創作“藝術性”的同時,要適應電影產業技術變革的潮流,加快對AIGC技術的掌握和運用,深度探討技術的種種可能,使其在電影美術前期概念設計、場景設計、服裝設計以及中后期視效制作中充分發揮作用,為電影美術視覺創作賦能,讓未來的電影視覺美學達到更為完善、理想的狀態。
——霍廷霄
中國電影家協會副主席
中國電影美術學會會長
北京電影學院美術學院教授
博士生導師
作 者 簡 介
趙 晴
中國傳媒大學數據科學與智能媒體學院助理實驗師,主要研究方向:AIGC、融媒體技術。
中國傳媒大學數據科學與智能媒體學院大學本科在讀,主要研究方向:AIGC、圖像處理。
李奕澤
袁 璐
中國傳媒大學數據科學與智能媒體學院師資博士后,主要研究方向:AIGC、虛假信息檢測。
中國傳媒大學媒介音視頻教育部重點實驗室副研究員,主要研究方向:智能媒體分析、音頻信號處理。
蔡娟娟
葉 龍
中國傳媒大學數據科學與智能媒體學院院長,中國傳媒大學媒介音視頻教育部重點實驗室研究員,主要研究方向:智能音視頻處理技術、虛擬現實技術。
摘要
隨著人工智能技術的快速發展,AIGC作為生產力的新興引擎逐漸走進大眾視野,其在創意產業中的應用已成為備受關注的研究領域。美術設計是動畫電影制作中至關重要的一環,它不僅為角色賦予獨特的外觀和個性,還承載著故事情節和文化背景的表達。本文首先介紹AIGC 在各領域的應用現狀和圖像生成模型技術原理,之后探討 AIGC 在動畫電影美術設計中的潛在應用,分析AI 輔助電影美術設計存在的問題,最后總結AIGC 在動畫電影美術設計中的應用前景,并展望未來研究方向。通過本文研究,可以更好地了解AIGC在動畫電影美術設計領域的潛力,為電影產業的發展提供新的思路和方法。
關鍵詞
AIGC; 動畫電影; 美術設計; 圖像生成
1引言
人工智能生成內容(Artificial Intelligence Generated Content,AIGC)正日益成為內容創作領域的重要力量。該技術通過人工智能(AI)來輔助人類創作或在某些情境下能夠獨立生成內容。根據用戶提供的關鍵詞或具體需求,AIGC能夠在文本、圖像、音頻等多個領域生成相應的作品[1]。該技術已在電影行業初顯成效,在劇本撰寫、視覺藝術設計、聲音設計等方面,都展現出其推動創新和提高效率的潛力[2],通過大量的數據訓練和學習,輔助電影中的劇本創作、概念圖繪制、圖像合成、特效制作、場景重建等任務,從而提高了電影制作的效率和質量[3]。
在動畫電影制作中,美術設計扮演著重要的角色,其創新性和藝術性對提升電影質量和觀眾觀影體驗至關重要。美術設計涉及場景設計、角色設計、色彩設計、特效制作和視覺效果等方面。AIGC技術在電影美術設計領域的運用,打破了傳統影視制作的桎梏,極大提高了生產效率,增強了制作能力,為影視制作注入了更多創新可能性[4]。當前,其在電影美術設計中的研究和實踐仍處于發展起步階段。本文將深入探究AIGC在動畫電影美術設計領域的應用可行性,以期為未來的研究與實踐提供新的視角和啟示。
2AIGC國內外應用現狀
從傳統的專業生產內容(Professional Generated Content, PGC)、用戶生成內容(User Generated Content, UGC)到如今的AIGC,從文本生成、圖像生成到視頻生成,AIGC正逐步應用于各行各業,成為支撐內容創作豐富性和創新性的關鍵技術。
在文本生成領域,AIGC主要應用于文本摘要、對話系統等,代表工具有ChatGPT[5]、訊飛星火大模型[6]、文心一言[7]等。ChatGPT是OpenAI公司開發的語言模型對話系統,訊飛星火大模型與文心一言分別是國內企業科大訊飛和百度開發的語言模型對話系統,他們在文本摘要、文本生成等方面具有強大的功能。
在圖像生成領域,AIGC主要應用于圖像合成、圖像修復等,如Stable Diffusion[8]、DALL·E[9]、Midjourney[10]等。Stable Diffusion由Stability AI于2022年發布,主要用于生成以文本描述為條件的詳細圖像,其還可用于圖像修補等方面。DALL·E 是由 OpenAI 開發的基于神經網絡的圖像生成模型,旨在生成與給定文本描述對齊的圖像[11]。Midjourney是由同名獨立研究實驗室創立,它可通過文本描述合成圖像,快速生成逼真的人物、場景和動畫。
在視頻生成領域,代表應用為OpenAI開發的文本生成視頻AI 模型Sora[12],經過訓練,該模型可根據文本指令生成真實或想象場景的視頻,并顯示出模擬物理世界的潛力[13]。
3圖像生成技術發展現狀及技術原理
圖像生成是指利用人工智能技術,根據給定的數據進行單模態或跨模態生成圖像的過程。根據任務目標和輸入模態的不同,圖像生成主要包括圖像合成(Image Composition)、圖像生成圖像(Image?to?Image)以及文本生成圖像(Text?to?Image)等。根據生成圖像的理念,將文本生成圖像任務分為3大類:基于生成式對抗網絡(GAN)架構生成圖像、基于自回歸模型(Autoregressive Model)架構生成圖像、基于擴散模型(Diffusion Model)架構生成圖像[14]。
生成式對抗網絡(GAN)通過生成器和判別器進行博弈訓練以不斷提升生成能力和鑒別能力,使生成網絡的數據愈發趨近真實數據,從而達到生成逼真圖像的目的[14]。但在發展過程中,GAN存在穩定性較差、生成圖像缺乏多樣性、模式崩潰等問題。
自回歸模型是用于將文本數據轉化為圖像數據的模型[15],將圖像表示為像素序列,以先前生成的像素為條件,逐個像素地生成圖像,從而產生新的樣本[16]。利用Transformer架構中的自注意力機制能夠優化GAN的訓練方式,提高模型的穩定性和生成圖像的合理性。
擴散模型[8]是通過一個從數據分布到高斯分布的擴散過程和一個從高斯分布到數據分布的去噪過程來建模數據,其在訓練穩定性和結果準確性方面提升明顯。而對于電影行業應用中的大量跨模態圖像生成需求,則需要結合對比語言-圖像預訓練(Contrastive Language-Image Pre?Training, CLIP)進行,CLIP基于文本-圖像對的訓練方式能夠建立跨模態的連接,是OpenAI 設計和開發的一種基于神經網絡的模型,旨在訓練文本和視覺數據的表示。該模型同時訓練文本和圖像,顯著提升了生成圖像的速度和質量。
目前,市面上有大量基于擴散模型和CLIP實現的文本到圖像 、圖像到圖像等圖像生成模型,利用簡單的交互和快速生成圖像的功能,顯著地降低了操作門檻,并且越來越多地應用于商業服務,目前主流的工具有Stable Diffusion、Midjourney和DALL·E等[17],各模型簡介如表1所示。
表1 模型簡介
4AIGC在動畫電影美術設計中的應用
利用AIGC生成美術設計圖片,主要流程為線稿設計和色彩設計。本文探索了如何通過使用Stable Diffusion、Midjourney、DALL·E等目前主流的圖像生成工具,自動完成美術設計中的角色設計、場景設計、特效設計、色彩設計等任務,對比各工具的優劣,探索AIGC在動畫電影美術設計領域中應用的可行性,幫助設計師從AIGC生成的設計中汲取設計靈感和思路,豐富角色設計元素和視覺表現力,促使作品煥發出藝術生命力[18]。對沒有基本繪圖或設計技能的用戶,AI可以提供方便的圖像生成服務,能夠將文字轉換為視覺圖片[19],AIGC將對動畫美術設計的生產效率和創新發展產生重大影響。
4.1 AIGC在角色設計中的應用
人工智能角色生成技術的應用范圍十分廣泛,包括游戲開發、電影及動畫制作等領域。動畫電影的角色設計主要包含外貌特征、服裝、造型、姿勢等細節,而傳統的角色設計方法具有一定的局限性。首先,傳統的動畫角色設計會耗費大量的時間和資源;其次,角色設計過程依賴于設計師的個人經驗和創造力,設計師需要不斷尋找靈感、提煉設計概念,并將其轉化為實際的角色;最后,設計結果通常受到設計師個人經驗和審美觀念的限制,其設計思路可能會受到思維定式和個人偏好的影響,導致設計作品缺乏多樣性和創新性。利用AI快速生成逼真的角色形象,可減少人工繪制的工作量,提高角色生成的效率和質量。利用已有的圖像生成技術,通過輸入提示詞,即可獲得角色設計圖片。本節主要使用Stable Diffusion、Midjoureny、DALL·E等圖像生成軟件實現角色草圖設計、色彩設計、服裝款式設計等角色設計環節。
(1)角色草圖設計
在設計動畫角色時通常需要繪制角色草圖,經過不斷修改后,對草圖進行上色,如今這一過程可以通過AIGC自動實現。這一過程中最重要的是確定提示詞,以Stable Diffusion為例,輸入以角色設計、三視角、藍圖、漢服、女孩等關鍵詞組成的提示詞,生成結果如圖1所示。
圖1 角色草圖生成結果
(2)色彩設計
色彩是影視中一種強大的表現手段,能夠傳達情感、烘托氛圍和塑造角色形象[4]。AIGC在電影色彩設計中的一個重要應用為線稿填色。傳統方法中,線稿填色費時費力,通常由專業設計師手工完成。然而,借助AIGC技術可以實現自動或輔助填色,極大提高填色效率并為色彩設計帶來新的可能性。目前筆者在使用不同工具進行生成色彩設計測試時發現,DALL·E無法完成色彩設計任務,Midjourney在識別復雜線稿時識別不清晰,生成結果無法滿足預期(圖2)。
圖2 Stable Diffusion線稿填色生成結果(左)
與Midjourney線稿填色生成結果(右)
(3)服裝款式設計
在角色設計中,服裝設計是非常重要的一部分,在動畫電影中,許多角色的服裝設計都是在已有款式的基礎上進行改進和創新設計而來。如在古裝電影中,角色的服裝通常根據朝代的設定,有著相似的基礎版型,這時可以利用Stable Diffusion的ControlNet生成版型類似的一系列服裝設計。ControlNet可以利用預處理器識別確定圖像的特征,通過特征控制生成的圖片,實現諸如姿勢、場景、外觀輪廓等。例如,我們想實現圖3(左)衣服款式的創新,可以將該圖片導入ControlNet中,開啟Depth預處理器,即可得到圖3(右)結果。
圖3 服裝原始款式(左)
與改造款式生成結果(右)
(4)臉部特征提取
此外,我們還可通過Stable Diffusion中的EasyPhoto訓練角色的面部特征,實現換臉。首先選取需要訓練的角色面部多視角圖片,并導入訓練圖庫中,完成設置各項與訓練有關的參數。當默認參數不變時,在上方選擇一個用于訓練的“基底模型”,常用Checkpoint作為訓練LoRA(Low?Rank Adaption)的基底模型,通過訓練獲得相應人物模型,并進行下一步推理(圖4)。
圖4 導入多角度表情圖片
(5)角色換臉
通過Stable Diffusion,我們可以將角色的各項數據輸入程序中預覽服裝換臉效果,同時可以利用ControlNet中的Openpose骨骼框架圖進行姿態管理。Openpose是ControlNet的預處理器,用于提取人物骨架等。其通過檢測頭部、肩膀、手等人體關鍵點并復制人體姿勢,助力服裝、發型和背景的生成[20]。通過Openpose調整人體姿勢,搭配步驟(4)EasyPhoto的臉部特征結果即可得到角色換臉效果(圖5)。
圖5 換臉結果
此外,我們還可直接通過輸入提示詞完成角色設計,本文使用同一提示詞依次在Stable Diffusion、Midjourney、DALL·E中生成角色設計,結果如圖6所示。
圖6 角色生成結果(從左至右依次為Stable Diffusion、Midjourney、DALL·E生成結果)
4.2 AIGC在場景設計中的應用
通過AIGC技術能夠快速生成和定制化場景元素。舉例來說,假設動畫電影的場景是一個峽谷,其中充滿了樹木、瀑布、藤蔓和奇異的植物。傳統方式是由畫家手工繪制每一棵樹、每一片葉子和每一根藤蔓,需要大量的時間和人力資源,并且限制了創作的多樣性。而AIGC技術可以通過學習真實世界中的場景數據,自動分析和重建場景的三維結構。通過對大量真實世界場景的學習和分析,模擬自然場景的各種細節和特征,包括地形、植被、天空等。這使電影美術指導可以根據電影主題、氛圍和風格要求快速地創建出符合期望的場景,無需花費大量時間手工繪制每一個細節。
使用彩虹、超現實童話河、超現實主義風格、逼真的柔和燈光等關鍵詞作為提示詞,依次在Stable Diffusion、Midjourney、DALL·E中生成場景設計,生成結果如圖7所示,修改提示詞后,生成結果也會有所改變(圖8)。
圖7 場景生成結果(從左至右依次為Stable Diffusion、Midjourney、DALL·E生成結果)
圖8 場景生成結果(從左至右依次為Stable Diffusion、Midjourney、DALL·E生成結果)
除此之外,我們可以利用圖生圖的方法,根據給出的草圖結構可控地生成場景圖片。但筆者在測試時發現DALL·E無法很好地生成線稿圖,Stable Diffusion與Midjourney草圖生成與填色結果如圖9、圖10所示。
圖9 Stable Diffusion生成草圖(左)
與填色結果(右)
圖10 Midjourney生成草圖(左)
與填色結果(右)
4.3 AIGC在視效設計中的應用
AIGC技術在動畫電影視效中具有廣泛的應用潛力,可以幫助視效團隊生成、優化和創作各種視覺效果,從而為動畫電影帶來更加豐富和震撼的視覺體驗,依次在Stable Diffusion、Midjourney、DALL·E輸入藍紫色魔幻特效、天空、云等提示詞,即可得到具有特殊效果的圖片(圖11),還可通過修改選用的模型,生成不同風格的特效圖片(圖12)。
圖11 特效生成結果(從左至右依次為Stable Diffusion、Midjourney、DALL·E生成結果)
圖12 Stable Diffusion原特效生成結果(左)
與更新結果(右)
在特效生成方面,也可利用圖生圖方法,根據給出的草圖結構完成填色,實現可控地生成特效圖片,Stable Diffusion與Midjourney草圖生成與填色結果如圖13、圖14所示。
圖13 Stable Diffusion生成草圖(左)
與填色結果(右)
圖14 Midjourney生成草圖(左)
與填色結果(右)
4.4 測試結論
通過各軟件的生成結果可以看出,Stable Diffusion和Midjourney在動畫電影美術設計中具有一定的應用優勢。首先,Stable Diffusion的功能較為豐富,更適用于動畫電影美術設計這一應用場景,目前市面上針對Stable Diffusion開發了相應模型、插件,以便應用于不同風格、不同效果的美術設計生成。其次,在色彩設計方面,Stable Diffusion能夠更加精準識別線稿輪廓,生成更加符合要求的結果。由于免費開源、可自行部署安裝、可自定義訓練等優勢,該工具在藝術創作、游戲設計等領域具有廣泛的應用前景[21]。但在生成效果方面,Stable Diffusion需要根據不同的生成效果選用模型,而Midjourney一次可以生成四個結果,且生成質量較高,生成結果較為寫實。
5AIGC應用于動畫電影美術設計中存在的問題
在電影行業,AIGC具有非常強大的功能和廣闊的探索、應用空間。2024年2月26日,首部中國原創文生視頻AI系列動畫《千秋詩頌》于CCTV?1綜合頻道播出,借助人工智能技術,還原中國古詩詞中的人物與場景[22]。2024年3月6日,全球首部AI長篇電影Our T2 Remake在洛杉磯舉行首映式,電影在創作過程中用到ChatGPT、Stable Diffusion、Midjourney V5.2、DALL·E、Pika等多款AIGC工具。2024年3月30日,中國傳媒大學師生團隊創作的國內首部AIGC水墨動畫《龍門》亮相2024中國網絡媒體論壇,以擁有自主產權的AI模型“墨池”為核心,生成具有水墨風格的動畫短片。2024年4月12日,由四川電影電視學院人工智能實驗室卡茲克工作室制作的AI短片作品《玉覆荊楚》在中國電影大數據暨電影頻道M榜榮譽之夜驚艷亮相,該短片利用AIGC技術完成從劇本生成、分鏡設計到AI生成圖像、圖像生成視頻的任務,通過Midjourery生成具有電影質感的畫面。AIGC已實際賦能電影生產,但目前利用AI進行電影美術設計時仍存在一些問題。
(1)缺乏創造性和個性化
由于AI主要依靠所使用的模型實現圖像生成,生成結果的質量和多樣性受到所使用數據集的限制[23],缺乏新穎性和創意性。如圖12生成的兩種不同結果,雖采用了Stable Diffusion不同的生成模型,但整體構圖上仍具有較強的相似性。因此對于創造性和個性化要求高的圖片,仍需進一步提升模型高質量圖片生成能力。
(2)知識理解和表達能力不足
當前AI模型在理解、表達美術設計的復雜性和細節方面存在局限性。例如,模型可能無法充分理解特定文化背景、場景定位或電影風格等要求,導致生成的設計與實際需求不完全匹配。在生成特效圖片時,筆者輸入了云這一提示詞,但Midjourney和DALL·E似乎都忽略了該關鍵詞,而Stable Diffusion也模糊了這一關鍵詞,并沒有在圖片中突出云這一元素。
(3)缺乏專業審查
在進行電影美術設計時,設計人員需要對劇本、角色和故事背景深入理解,以確保服裝等設計與情節相匹配,而由于算法的自動化特性,生成的設計往往需要設計師的人工審查和手工調整,存在不完善或不夠實用的情況。Midjourney在通過草圖填色生成特效圖片時,生成結果的科幻感不及Stable Diffusion生成的圖片,其生成結果并不能滿足預期,無法直接應用于實際動畫電影生產中。
(4)數據偏差和樣本不足
AI模型的訓練數據可能存在偏差,導致生成的設計偏向某些特定類型或風格,而忽視其他可能性。此外,由于樣本數量有限,模型可能無法覆蓋所有可能的設計風格和要求,從而影響生成的設計質量和多樣性。
(5)知識產權和原創性問題
AI技術的形成和完善依賴于大量的訓練數據,且用于訓練的數據往往也包含了受版權保護的內容[24]。數據庫中的部分圖像涉及原始作者的創作版權,如果在沒有征得原作者許可的情況下進行計算輸出,可能存在侵權問題[25]。為了加強AIGC與電影的融合應用,提高AI生成電影的質量,必須完善電影著作權相關的法律規定,用法治護航AIGC在影視行業的運用與發展[26]。
6結論與展望
通過本文的實驗發現,AIGC應用于動畫電影美術設計具有一定的可行性,它可以幫助設計師獲取視覺藝術方面的創作靈感,提高生產效率,但由于AI存在一些局限性,目前仍無法完全依賴AI進行美術創作。面向未來,如何針對不同電影風格對模型進行微調、生成的設計是否存在侵權行為、如何通過修改提示詞實現更好的生成效果是未來需要重點關注的問題,同時也是AIGC在電影行業更加廣泛應用的基礎,及提升電影美術設計準確度與藝術性的重要前提。總之,AIGC技術給動畫美術設計帶來了新的維度,利用人工智能圖像生成工具有助于簡化工作流程,激發創造力,并提升動畫的整體質量。隨著動畫產業的不斷發展,像Stable Diffusion這樣的AI輔助工具具有進一步發展和創新的巨大潛力。
參考文獻
(向下滑動閱讀)
[1] Wu J Y, Gan W S, Chen Z F, et al. AI?Generated Content (AIGC): A Survey[EB/OL]. (2023?05?26)[2024 ? 03 ? 25]. https://arxiv.org/pdf/2304.06632.
[2] 趙鋆凡,蘇明揚,李秀. AIGC賦能高效電影制作——以3D人體動畫生成工具為例[J]. 現代電影技術,2023(7):4?9. DOI:10.3969/j.issn.1673-3215.2023.07.002.
[3] 洪宇,何淵吟. 基于AIGC賦能的影視技術與影視色彩設計研究[J]. 色彩,2023(9):44?46. DOI:10.3969/j.issn.1005-555X.2023.09.014.
[4] 巴曉. AIGC技術在影視制作中的應用探索和趨勢前瞻[J]. 現代電影技術,2023(12):37?43. DOI:10.3969/j.issn.1673-3215.2023.12.006.
[5] OpenAI. Introducing ChatGPT[EB/OL]. [2024?04?19].https://openai.com/blog/chatgpt.
[6] 科大訊飛. 訊飛星火認知大模型[EB/OL]. [2024?04?19]. https://xinghuo.xfyun.cn/.
[7] 百度. 文心一言[EB/OL]. [2024?04?19]. https://yiyan.baidu.com/learn.
[8] Rombach R, Blattmann A, Lorenz D, et al. High?Resolution Image Synthesis With Latent Diffusion Models[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition,2022:10684?10695.
[9] Ramsh A, Pavlon V M, Goh G, et al. Zero?Shot Text?to?Image Generation[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition, 2021: 8821?8831.
[10] Midjourney. Midjourney[EB/OL]. [2024?04?19]. https://www.midjourney.com.
[11] Li X, Fan Y, Cheng S. AIGC In China: Current Developments And Future Outlook[EB/OL]. [2024?04?19]. http://arxiv.org/abs/2308.08451.
[12] OpenAI. Sora[EB/OL]. [2024?04?19]. https://openai.com/sora.
[13] Liu Y, Zhang K, Li Y, et al. Sora: A Review on Background, Technology, Limitations, and Opportunities of Large Vision Models[EB/OL]. [2024?04?19]. http://arxiv.org/abs/2402.17177.
[14] 張澤宇,王鐵君,郭曉然,等.AI繪畫研究綜述[J/OL].計算機科學與探索:1?22.http://kns.cnki.net/kcms/detail/11.5602.TP.20240328.1901.006.html.
[15] 曹寅,秦俊平,馬千里,等.文本生成圖像研究綜述[J].浙江大學學報(工學版),2024,58(02):219?238.
[16] Croitoru F A, HondruV, Ionescu R T, et al. Diffusion Models in Vision: A Survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2023,45(9): 10850?10869. DOI:10.1109/TPAMI.2023.3261988.
[17] Borji A.Generated Faces in the Wild: Quantitative Comparison of Stable Diffusion, Midjourney and DALL-E 2[EB/OL].(2023?06?05)[2024?04?19]. https://arxiv.org/pdf/2210.00586.
[18] 楊波.繪畫藝術在服裝設計中的視覺化展現[J].印染,2024,50(2):94?97.
[19] Xi C, Chuang J. A Study on Character Design Using [Midjourney] Application[J]. International Journal of Advanced Culture Technology, 2023, 11(2): 409?414. DOI:10.17703/IJACT.2023.11.2.409.
[20] 曾建勇, 沈曉萍. 基于Stable Diffusion的虛擬人形象預設計的應用與研究[J]. 現代信息科技, 2024,8(3): 169?175. DOI:10.19850/j.cnki.2096-4706.2024.03.036.
[21] 陳英, 馬洪濤. AIGC在藝術設計專業領域的神助攻——以Stable Diffusion為例[J]. 服裝設計師, 2024(1): 73?84. DOI:10.20100/j.cnki.cn11-4548/ts.2024.01.008.
[22] 周春媚. 首部國產文生視頻動畫開播 長AI電影時代加速到來[N]. 證券時報,2024?02?27(A01).DOI:10.38329/n.cnki.nzjsb.2024.000728.
[23] 吳攸攸.AI在服裝圖案設計中的應用研究[J].化纖與紡織技術,2023,52(10):194?196.
[24] 王祚.AIGC的侵權問題探析及對策——以AI繪畫為例[J].當代動畫,2024(1):99?105.
[25] 張秀瓊.AI繪畫下的機遇與危機[J].上海輕工業,2024(1):86?88.
[26] 姜天笑.電影行業中生成式人工智能潛在的問題與破解[J].中國電影市場, 2024(4):26?28.
主管單位:國家電影局
主辦單位:電影技術質量檢測所
標準國際刊號:ISSN 1673-3215
國內統一刊號:CN 11-5336/TB
投稿系統:ampt.crifst.ac.cn
官方網站:www.crifst.ac.cn
期刊發行:010-63245081
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.