99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網易首頁 > 網易號 > 正文 申請入駐

《現代電影技術》|吳方強等:人工智能生成內容(AIGC)驅動的電影虛擬角色面部特效研究

0
分享至


本文刊發于《現代電影技術》2024年第11期

專家點評

在電影行業虛擬角色特效制作領域,表情制作的“逼真”與高效,一直是創作人員創新和專業技術領域突破的制高點之一。人工智能生成內容(AIGC)的顛覆式發展,給虛擬角色,尤其是非人虛擬角色的表情制作帶來了新的探索思路。當下主要有兩個技術路線:一是充分利用AI大模型的高效生成能力,同時加強對影像關鍵幀的描述性約束控制;二是在輸入參考的圖片和影像中,增強對虛擬角色表情和動作的遷移控制。總體上,隨著AIGC技術的發展進步,其驅動虛擬角色表情制作的水平,在實驗中已基本能夠滿足影視作品虛擬預演快速制作的技術要求,多用于電影特效鏡頭的輔助參考,但未來直接生成電影高質量內容的階段應該很快就會到來,值得行業人員積極研究。《人工智能生成內容(AIGC)驅動的電影虛擬角色面部特效研究》一文,對當下特效領域應用AIGC驅動虛擬角色面部特效的方法進行了整體分析,對當下主流國產AI大模型在影視級虛擬角色表情特效制作中的實驗效果進行了對比分析和整體判斷,提出了符合行業實際的制作思路和優化流程,指出了高分辨率和多角色表演的未來持續研究方向。

——劉軍

研究員

中國電影博物館副館長

中國電影電視技術學會先進影像專委會副主任

作 者 簡 介

吳方強

北京電影學院攝影系實驗師,主要研究方向:數字電影色彩、數字電影CGI技術。

北京電影學院攝影系講師,主要研究方向:數字電影攝影技術、虛擬攝制。

徐沁雪

周 冰

北京電影學院表演學院副教授,主要研究方向:戲劇、電影表演藝術研究。

摘要

為研究AIGC技術對特效領域中虛擬非人角色表情制作帶來的變革,本文結合當下主流國產AI大模型,對影視級虛擬角色表情特效制作開展實驗,并提出制作思路和優化的制作流程。實驗結果基本滿足影視作品虛擬預演(PreViz)快速制作的技術要求,可用于電影特效鏡頭的輔助制作。本文最后總結了該實驗方法的可拓展性及迭代方向。

關鍵詞

AIGC;動作捕捉;文生視頻;表情特效;國產大模型

1引言

隨著計算機視覺(CV)技術的快速發展,特效制作成為影視作品的重要組成部分,模擬、仿真重現、再創造一直是該領域的研究重點。多年來,電影虛擬角色特效領域已具備完整的生產制作流程,從身體動作到面部表情均有不同路徑的解決方案,這些方案基本圍繞三維動畫工具搭建,從三維模型到骨骼綁定,都與三維仿真技術高度關聯。隨著技術的發展,虛擬角色模型已有多種成熟解決方案,而虛擬角色表情一直是制作難度較高的環節。人工智能生成內容(Artificial Intelligence Generated Content, AIGC)技術的出現讓筆者重新思考這一領域的制作,是否可用AIGC技術實現這一對傳統三維制作富有挑戰的環節。當下AIGC商用產品中有諸多使用視頻驅動圖片中角色面部動作的解決方案,主要用于真人角色面部動作制作,對其他非人類角色的支持并不友好。本文提出一種基于AIGC的解決方案,無需三維仿真工具介入,也能較好地處理虛擬角色表情特效,且可大幅降低制作成本。

虛擬角色在生產生活中應用廣泛,本文討論的虛擬角色主要指電影行業終端銀幕影像中的虛擬角色。

2虛擬角色面部特效制作技術

虛擬角色面部特效制作技術復雜,主要使用基于計算機圖形學(Computer Graphics, CG)的三維應用來生產,其關鍵技術主要有面部建模、材質貼圖、骨骼蒙皮、動畫模擬、渲染生成等[1],制作工藝復雜,修改鏈條長,制作周期長。本文主要基于虛擬角色制作中的面部表情特效制作進行重點論述,這是虛擬角色特效制作的創作重點和技術難點,其制作技術主要有手動制作關鍵幀驅動的表情特效技術、基于面部動作捕捉的表情特效技術等。

2.1 手動制作關鍵幀驅動的表情特效技術

手動制作關鍵幀驅動的表情特效技術需要首先基于面部三維模型進行蒙皮骨骼綁定,得到面部特征控制的基本驅動點后,再通過動畫藝術家手動為這些驅動點制作不同的表情動作關鍵幀以生成表情特效。該技術目前仍被大量用于表情特效制作,其優勢在于可控性強,動態效果可夸張,亦可寫實,但在工業化生產中對團隊能力的依賴度高,角色創作上主要依靠動畫藝術家的個人能力;技術操作上,對蒙皮綁定技術要求高,創作時效性主要依賴創作者的能力,在團隊協作時,不同創作者間的能力差異往往導致時效管理難以標準化。

2.2 基于面部動作捕捉的表情特效技術

2001年,電影《指環王:護戒使者》(The Lord of the Rings: The Fellowship of the Ring)中角色“咕嚕姆”的面部表情特效制作使用了面部動作捕捉(Facial Motion Capture)技術。面部動作捕捉又被稱為面部表情捕捉(Facial Expression Capture),是動作捕捉技術的一部分[2],主要使用人臉表演來驅動三維虛擬角色的表情生成,首先通過攝影機拍攝動作捕捉演員的面部表演獲取視頻圖像素材,之后對素材進行分析得出演員面部特征點的空間運動數據,最后將這些數據和三維模型中的控制點相關聯驅動三維模型呈現相應表情,《阿凡達》(Avatar)、《猩球崛起》(Rise of the Planet of the Apes)等影片中大量使用了該技術。其中,捕捉面部表情時,可通過有跟蹤標記點和無跟蹤標記點兩種方式。

2.2.1 有跟蹤標記點的面部動作捕捉

在面部動作捕捉技術的初期,主要使用有跟蹤標記點的面部動作捕捉。該技術需要先在動作捕捉演員臉上按要求標記跟蹤點并進行拍攝,得到帶有跟蹤標記點的視頻素材;通過后期算法對跟蹤標記點進行計算處理得到每個點的運動軌跡,之后在三維軟件中將運動軌跡數據轉換為控制面部動作的相關骨骼綁定數據,最終實現虛擬角色的表情動作。該技術的運用極大提高了生產效率,提升了表情特效的寫實度、精準度。

該技術作為成熟的表情特效解決方案當前仍被廣泛使用。其主要難點在于根據不同的后期算法,需在動作捕捉演員臉上按照不同方式標記跟蹤點,跟蹤點標記不完整或因演員表演導致的跟蹤點模糊均會提高后期處理難度;動作捕捉演員口腔內部無法設置跟蹤點,舌頭的動態只能通過后期處理。

2.2.2 無跟蹤標記點的面部動作捕捉

隨著計算機視覺技術的發展,無跟蹤標記點的面部動作捕捉得以實現,省去了為演員臉部提前進行標記的繁復工作,演員的表演體驗也更加友好。其可分為兩種:一是從拍攝的面部視頻中提取相應的特征點(如嘴角、眼角、鼻翼、眉毛等)以生成關鍵部位的動作數據;二是使用深度攝影機拍攝帶有深度信息的人臉數據,從中提取關鍵特征點的位置屬性傳遞給三維軟件[3]。無跟蹤標記點的面部動作捕捉方式在實際拍攝中方便部署,生產流程環節相對較少,成本較低。其主要難點在于使用非深度相機在實際拍攝過程中,演員面部的光線可能會有各種變化,精度會出現一定程度的損失;無跟蹤標記點也意味著面部畫面信息數據和三維模型的匹配過程有較大容錯空間,使表情的精確度和還原度有所降低。

2.3 傳統技術的限制

使用有跟蹤標記點的面部動作捕捉技術制作虛擬角色面部表情特效的方法在電影工業中的使用已十分成熟,從《指環王:護戒使者》的“咕嚕姆”到《猩球崛起》中的一眾猩猩,虛擬角色的表情越來越生動逼真。但這種工藝的制作流程環節復雜,人力資源需求高,只有具備豐富經驗的特效團隊才能較好完成虛擬角色的表情特效制作,使這類特效制作在影片制作中的成本升高,在一定程度上限制了技術本身的發展迭代。

隨著顯卡計算能力的不斷提高,以虛幻引擎(Unreal Engine, UE)為代表的高寫實度實時渲染引擎在電影生產中被廣泛應用,而其基于蘋果手機深度攝像頭的面部動作捕捉也成為一種低成本、高響應度的解決方案。UE虛擬人(MetaHuman)中的虛擬角色及其表情驅動的解決方案將游戲行業的生產方式引入影視行業,使更廣泛領域的創作者能參與到特效制作領域中,使技術的迭代速度更快,技術門檻更低。

以上提到的制作方法在后期處理中均需通過三維軟件進行最終模擬渲染,而三維仿真技術本身制作流程較為復雜,制作成本較高,周期較長。

2.4 AIGC技術變革下的表情特效探索

當前AIGC技術發展迅速,諸多文本生成視頻(Text?to?Video, T2V)模型相繼推出,在電影美術設計、游戲設計等諸多領域得到廣泛深入的應用。為研究AIGC技術革新下,虛擬角色的表情特效制作是否有可靠的制作方案,筆者對當前幾款國產AI生成影像工具進行了測試研究,并總結提煉出一種基于Stable Diffusion[4]制作虛擬角色表情特效的方法。

3基于AIGC制作虛擬角色表情特效的方法

2024年2月,OpenAI 發布了名為 Sora的人工智能T2V模型[5],雖然該模型至2024年8月還未發布用戶版,但此后多家公司發布了自己的文生視頻模型,如Runway Gen?3、Pika、Stable Video Diffusion、快手可靈、字節即夢、Luma AI等。這些模型使視頻生產有了更多途徑,除了T2V外,以上大部分產品也支持圖片生成視頻(Image?to?Video, I2V)的方式。相較而言,I2V比T2V可控性更高,筆者通過測試發現,需多次生成才能得到符合創作需求的表情表演結果,成功率低。

在影視工業化生產中,真人角色的表演主要使用攝影機拍攝,而虛擬角色需通過計算機制作,其中,表情特效的制作是本次研究的重點。為探索結合不同AIGC工具下虛擬角色表情特效生成的效果差異,本文在以下測試中建立了一個大猩猩的動物角色進行測試比較,通過Stable Diffusion生成了角色閉嘴狀態和張嘴狀態的兩張圖片,同時還拍攝了一段真人模擬大猩猩的表演素材用于驅動視頻輸入源(以下簡稱“輸入源”)。

3.1 基于I2V的虛擬角色表情特效

在實際使用場景中,虛擬角色的造型通常是給定的,因此文字直接生成視頻的可靠性較低,為保證角色一致性,需采用I2V的方法。

3.1.1 使用可靈AI生成虛擬角色表情

可靈AI(KLING AI)是快手推出的AI創意生產力平臺,基于快手自研大模型可靈,提供高質量視頻及圖像生成[6]。我們選擇了可靈AI的I2V模型,分別使用“高性能”和“高表現”兩種模式進行測試。為避免模型中對猩猩張嘴表情理解的偏差,我們分別使用了閉嘴和張嘴的圖像作為輸入圖像進行測試;為使虛擬角色的表情符合我們實際拍攝的真人表演,生成視頻使用的描述語為“圖中的大猩猩怒吼,轉頭,憤怒,固定鏡頭,電影質感,8K,寫實”,通過多次生成,筆者選擇其中最接近測試目的的結果進行比較。

在“高性能”模式下,生成5秒分辨率為720 × 720、幀速率為30 FPS的視頻,兩張圖片的生成結果均只對鏡頭運動做了簡單調整,角色基本無表演,不符合測試目的預期。在“高表現”模式下,生成同樣的視頻,視頻內容更匹配描述語內容,除轉頭幅度較大的生成結果,角色造型基本和輸入圖片一致,表演節奏普遍較慢。這種方式需在多次生成的結果中選擇符合預期的結果,與真人表演相比存在極大的不可控和表演節奏的差距。

3.1.2 使用智譜AI生成虛擬角色表情

清影是智譜AI推出的視頻AI生成工具,清影依托智譜大模型團隊自研打造的視頻生成大模型CogVideo,支持文生視頻、圖生視頻。該模型使用Transformer架構,并摒棄了傳統的Cross Attention模塊,創新性地設計了Expert Block以實現文本與視頻兩種不同模態空間的對齊,并通過Full Attention機制優化模態間的交互效果[7]。

筆者使用清影的圖生視頻功能進行測試,使用與3.1.1相同的描述語,通過多次生成,選擇其中較優結果進行比較。

該模型當前支持視頻生成時長為6秒鐘、分辨率為1440 × 960、幀速率為16 FPS,多次生成中最符合描述語的動作在實際表現中與我們預想目標有一定差距,表演較為簡單,對描述語做出了簡單的呈現,生動性較低,五官基本保持不變。在我們設定的需求下,清影和可靈AI存在相同的使用短板,可控性較差。

3.2 基于視頻驅動的AI生成虛擬角色表情特效

基于視頻驅動的AI生成視頻方法,我們選擇最新開源的MimicMotion和LivePortrait模型進行測試研究。

3.2.1 基于MimicMotion的制作方法

MimicMotion是騰訊公司推出的一款人工智能人像動態視頻生成框架。該框架利用先進的技術,根據用戶提供的單張參考圖像和一系列要模仿的姿勢,生成高質量、姿勢引導的人類動作視頻。MimicMotion的核心在于其置信度感知的姿態引導技術,確保視頻幀的高質量和時間上的平滑過渡[8]。其在基于擴散模型的多種方法中生成的面部動作與輸入動作的相關性和合理性上均有更好的表現[9]。

本文使用MimicMotion官網推薦的工作流程在本地進行了環境部署及測試,由于輸入的圖片參考對結果有相應影響,我們分別使用了閉嘴和張嘴的猩猩圖片作為參考圖片進行測試。

MimicMotion生成視頻時長與輸入源相同,分辨率與輸入圖片同為1024 × 1024,幀速率與輸入源同為25 FPS。通過測試,筆者發現該模型生成內容的大軀干運動表現尚可,頭部結構和運動表現相對準確,但面部表情與輸入視頻相差較大,出現了不同程度的面部扭曲和錯誤。該結果符合模型論文研究結果,此模型主要用于人類動作的生成,對于非人類的猩猩角色理解有一定偏差,當前不適用于非人類造型虛擬角色的表情特效制作。

3.2.2 基于LivePortrait的制作方法

2024年7月4日,快手開源了圖生視頻模型LivePortrait,旨在將不同風格靜態圖像中的人像轉化為動態肖像視頻。LivePortrait 使用6900萬高質量幀作為訓練數據,并采用混合圖像視頻訓練策略,使LivePortrait具備更強的泛化性,能夠適應更多不同類型的輸入數據。此外,LivePortrait利用緊湊的隱式關鍵點代表混合形狀,并設計縫合和重定向模塊,這些模塊使用計算開銷極小的小型多層感知器(Multilayer Perceptron, MLP),從而增強了對生成動畫的控制能力[10]。2024年8月2日,該模型團隊更新了支持動物面部的新版本。

本文使用該項目網站推薦的工作流程在本地進行了環境部署及測試,與3.2.1的測試方法相同,我們分別使用了閉嘴和張嘴的猩猩圖片作為輸入參考圖片進行測試。

該模型下生成視頻時長與輸入源相同,分辨率也與輸入圖片相同(1024 × 1024),幀速率與輸入源相同(25 FPS)。測試發現,該模型專注于角色頸部以上運動的生成,軀干無動作表現,表情基本模擬輸入視頻中的表情,但對于猩猩角色的生動性表現一般,夸張表情的表現較為保守,并且出現不同程度的五官特征扭曲。另外生成視頻的動作連續性不佳,存在一定程度的抖動;對頭部結構的表現不佳,主要體現在五官的動態表現缺少細節。該模型可用于類人化程度更高的虛擬角色表情特效制作,同時,由于該模型只專注于頭部及表情動畫,如有肢體動作表現需求需配合其他方法實現。3.1中所述的I2V測試方法結果如圖1所示。


圖1 I2V方法測試結果

4基于擴散模型的虛擬角色表情特效制作方法探索

經過以上測試發現,當下可用的AI工具在虛擬角色的表情特效制作上均展現出一定的可能性,但因其制作過程需多次生成,結果的確定性較低,不符合影視工業標準化制作需求,當前主要用于短視頻制作。經過多次測試,本文試圖提出一種可控性更高的制作方法,結合傳統制作流程與AIGC技術,優化以上測試中遇到的問題,實現影視級的虛擬角色表情制作。相較于傳統的制作流程,該方法成本更低、更高效,制作流程如圖2所示。


圖2 本文提出的制作流程

4.1 表演素材(輸入源)拍攝

表演設計上需盡可能擬合最終的虛擬角色表情特征,本文測試使用了具備豐富表演經驗的表演者進行素材拍攝。高可靠性的表演利于在影視行業應用中進行高效選擇決策,為最終的虛擬角色表情提供相對可靠精準的制作參考。測試發現,表演過程中演員五官清晰度對AI生成十分重要,可適當化妝以保證拍攝到更為清晰的五官變化。為提供更為精準的每幀五官特征信息,減少運動模糊,素材宜采用50 FPS的拍攝幀速率以及更大的鏡頭光孔。為匹配Stable Diffusion XL(SDXL)的最優分辨率,我們對拍攝素材進行了裁切,最終使用1024 × 1024分辨率的素材。

4.2 基于擴散模型的流程搭建

如圖2所示,為得到更高質量影像,本實驗使用SDXL基礎大模型進行圖像生成。為使流程搭建方便調整,本實驗在本地部署的ComfyUI[11]中搭建了整個工作流。ComfyUI節點式的使用方法清晰明了,可自定義節點為個性化使用需求提供便利,且方便多版本的修改和比較;同時,節點式操作方式與影視行業中其他后期特效軟件的操作方式有一定相似性,比無界面的使用方法更易于在影視行業推廣。

4.2.1 生成圖像的潛空間控制

使用擴散模型生成圖像時,一次生成過程會生成一幅圖像,需使用圖像約束控制生成大猩猩的姿態與輸入姿態保持一致。我們使用了ControlNet對潛空間的圖像樣式進行約束控制,ControlNet可實現多種類型控制[12],大部分控制類型可實現生成圖像的輪廓控制,而我們的制作需求中虛擬角色和輸入源的輪廓完全不一致,輪廓控制只會導致最終生成的角色造型不符合要求。因此,我們需提取輸入源視頻的表情及運動姿態,可使用的方法主要有DensePose[13]、OpenPose[14]及DWPose[15];通過測試比較,DensePose主要專注于人物大的形體動態,繼續保持了源視頻的造型;OpenPose因輸入源中胳膊有所裁切,生成的圖像會出現肢體數據不完整的情況,在非正面表情中,五官的位置也會出現不同程度的錯位;DWPose在各種姿態和表情下表現相對更穩定(圖3)。


圖3 姿態提取方式比較(從上至下逐行依次為源和DensePose、OpenPose、DWPose的處理結果)

我們選擇了DWPose進行約束控制,在使用ControlNet前對源視頻進行了預處理,得到源視頻中角色的五官及骨骼,使最終生成的角色造型輪廓不受影響,又較好地遷移了輸入源的姿態。

4.2.2 生成圖像的連續性控制

使用姿態控制生成的圖像雖在姿態和表情上每一幀與輸入源視頻較為一致,但將其合并為視頻影像后存在嚴重的抖動和閃爍。傳統影視后期特效工具可去除抖動和閃爍,但此圖像序列連續幀的像素信息差異大,使用傳統影視后期工具無法去除,使用AI工具改進流程可直接生成連續性更好的圖片序列。

4.2.2.1 使用AnimateDiff控制圖像連續性

由上海人工智能實驗室、香港中文大學和斯坦福大學的學者們共同完成的AnimateDiff是一種將文生圖模型轉換為動畫生成器的實用框架,其具有視覺質量保持、運動多樣性、輕量級微調等優點,為視頻生成提供了新的可能性。運動模塊是該框架的核心模塊,采用Temporal Transformer架構,在時間維度上進行信息交換,捕捉動畫中視覺內容的變化,生成運動動態[16]。使用AnimateDiff保證生成圖像運動的連續性,解決了直接使用ControlNet生成畫面內容的抖動和閃爍。

圖像序列中虛擬角色運動的連續性提高會導致內容變化的減少,無法實現輸入源姿態有表現力的遷移,如我們考慮角色特點,希望猩猩張嘴時嘴張得比較大,但輸入源中表演者因骨骼的局限無法實現類似猩猩的張嘴幅度。

4.2.2.2 基于關鍵幀的描述語

雖使用ControlNet進行了相應約束,該流程的核心仍是基于T2I的圖像生成,因此描述語作為生成圖像的第一引導要素十分重要。在一個連續的表情生成過程中如果只使用同樣的描述語,勢必造成表情的僵化,引入基于關鍵幀的描述語則很好地解決了該問題,對輸入源的表情動作進行語義的關鍵幀拆分,再將其按輸出的幀編號進行描述語的表情部分修改。如“1,金剛大猩猩,眨眼,平靜;6,金剛大猩猩,張大嘴,憤怒……”,實現了輸出結果與輸入源視頻表情的完整遷移。

4.2.3 制作結果

基于上述流程,我們進行了5秒的表演視頻輸入測試(基于T2I的生成模式,理論上生成時長可不受限),輸入視頻幀速率25 FPS(對原視頻的50 FPS進行了抽幀處理)、分辨率1024 × 1024;最終輸出視頻時長、分辨率、幀速率與輸入參考源視頻一致。

從測試結果(圖4)可知,輸出的虛擬大猩猩表情符合輸入源視頻的表演特征,軀干姿態和表情動作都有較好的呈現,角色的一致性和動態的連續性能夠較好地保持,并展示出較為生動的光影效果。


圖4 基于本文工作流程的生成結果

4.3 優化和擴展

SDXL模型的最優分辨率為1024 × 1024[17],在更高分辨率需求下直接生成的結果并不理想,可引入提升分辨率的方法進行二次生成。動態遷移中的表情變化因描述語和AnimateDiff平滑所需幀數因素會導致某些表演細節的損失,可使用更高幀速率的輸入源視頻和細分更小幀間隔的描述語來生成更長的視頻,之后再對其進行降幀速率平滑處理。基于此工作流程,若我們在關鍵幀的描述語上加入角色變化,可制作某些需求下的變身特效(圖5)。


圖5 不同方法生成結果的對比

4.4 總結

基于本文提出的研究方向,我們選取當下熱度較高的國產AI生成工具和兩種針對表情遷移設計的國產開源大模型,分別基于I2V進行了生成測試,同時開發了一套基于 T2I 擴散模型的工作流程,對比結果如圖5所示。

I2V的集成化產品可靈AI、清影均能生成流暢的表情,依賴多次生成中選擇最接近目標視頻的生成方式難以保證制作的時效性,可適用于對表演沒有精確要求的使用場景,在表演要求精確的視頻生產中可用性較低。基于國產開源MimicMotion和LivePortrait工具的工作流程開發較為容易,MimicMotion更適于肢體動作遷移,非人型虛擬角色表情與輸入視頻相差較大,出現了不同程度的面部扭曲和五官錯誤,生成視頻平滑度較高,可用于類人型虛擬角色肢體動作遷移的場景;LivePortrait專注于表情遷移,非人型虛擬角色表情生動性較差,只簡單模仿輸入源的五官位置變化,無法實現肢體動作的遷移,較難滿足角色肢體和表情同時變化的需求。

本文提出的制作流程部署較為簡單,借鑒動作捕捉的技術路線,可實現虛擬角色的面部表情遷移,并保持在新角色中表情的生動性。在對表演有精確要求的視頻制作中展現出較高可靠性,可用于影片虛擬預演及影視畫面內容制作,在虛擬角色表情制作中可作為輔助方法。

5結語

本文通過對當下AI工具在虛擬角色表情制作中的深入研究,比較分析當下AI工具在這一細分領域的可用性,最終設計的工作流程實現了虛擬角色表情特征在骨骼形態差異較大的角色中的遷移,實現了基于輸入源視頻制作虛擬角色表情的可控輸出及變換角色的特效。相信隨著AI技術的快速發展,影視行業高可用AI技術和工藝流程會加速迭代,提高影視作品綜合生產力。通過AI制作影視級的表情特效具有一定的可行性,在特定使用場景下完全可滿足實際生產需求。國產視頻生成模型發展迅速,為影視行業提供了諸多創作工具。影視行業的內容生產方式也將相應發生改變,擁抱新技術、用好新技術對于創作者十分重要。在本文實驗過程中,筆者在傳統工藝流程及AI技術領域進行諸多富有成效的探索,提出了制作虛擬角色表情特效可行的方法,也為我們指明了方向,高分辨率及多角色同時表演將是未來持續研究的重點。

參考文獻

(向下滑動閱讀)

[1] 徐成華,王蘊紅,譚鐵牛. 三維人臉建模與應用[J]. 中國圖象圖形學報(A輯),2004,9(8):893?903. DOI:10.3969/j.issn.1006-8961.2004.08.001.

[2] Rahul M. Review on Capture Technology[J]. Global Journal of Computer Science and Technology: F Graphics & Vision,2018, 18(1):22?26.

[3] 賈云鵬,周峻. 作為技術史的藝術史——從《阿凡達》看電影技術的變革[J]. 北京電影學院學報,2010(3):21?28. DOI:10.3969/j.issn.1002-6142.2010.03.005.

[4] Rombach R, Blattmann A, Lorenz D, et al. High?Resolution Image Synthesis With Latent Diffusion Models[C]//Proceedings of the IEEE/CVF Conference on Com? puter Vision and Pattern Recognition,2022:10684?10695.

[5] OpenAI. Sora[EB/OL]. [2024?07?19]. https://openai.com/sora.

[6] KLING AI: Next?Generation AI Creative Studio[EB/OL]. [2024?07?19]. https://klingai.com.

[7] 智譜AI技術文檔[EB/OL]. [2024?08?15].https://zhipu-ai.feishu.cn/wiki/MFxywuqcbiKmOrkXwJzcEuqwnJd.

[8] windows 一鍵整合包 MimicMotion騰訊的AI人類高質量人像動態視頻生成框架[EB/OL]. [2024?07?25]. https://cloud.tencent.com/developer/article/2433731.

[9] Zhang Y, Gu J, Wang L W, et al. Mimicmotion: High?quality human motion video generation with confidence?aware pose guidance[EB/OL].[2024?10?31]. https://arxiv.org/abs/2406.19680.

[10] Guo J, Zhang D, Liu X, et al. LivePortrait: Efficient Portrait Animation with Stitching and Retargeting Control[EB/OL].[2024?10?31]. https://arxiv.org/abs/2407.03168.

[11] ComfyUI [EB/OL]. [2024?07?19]. https://github.com/comfyanonymous/ComfyUI.

[12] Zhang L, Rao A, Agrawala M. Adding conditional control to text?to?image diffusion models[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision, 2023: 3836?3847.

[13] Güler R A, Neverova N, Kokkinos I. Dense human pose estimation in the wild[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018:7297?7306.

[14] Cao Z, Simon T, Wei S E, et al. Realtime multi?person 2d pose estimation using part affinity fields[C]//Proceedings of the IEEE conference on computer vision and pattern recognition, 2017: 7291?7299.

[15] Yang Z, Zeng A, Yuan C, et al. Effective whole?body pose estimation with two?stages distillation[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision, 2023: 4210?4220.

[16] Guo Y, Yang C, Rao A, et al. Animatediff: Animate your personalized text?to?image diffusion models without specific tuning[EB/OL].[2024?10?31]. https://arxiv.org/abs/2307.04725.

[17] Podell D, English Z, Lacey K, et al. SDXL: Improving Latent Diffusion Models for High?Resolution Image Synthesis[EB/OL].[2023?07?04]. https://arxiv.org/abs/2307.01952.

[18] 石樂民. 無標記面部表情捕捉系統關鍵技術研究[D]. 吉林:長春理工大學,2017.

[19] 何向真. 運動捕捉技術基礎[M]. 北京:中國科學技術出版社,2022.

[20] Hu E J, Shen Y, Wallis P, et al. LoRA: Low?Rank Adaptation of Large Language Models[EB/OL].[2024?10?31]. https://arxiv.org/abs/2106.09685.

【本文項目信息】2022年北京市社科基金規劃項目“未來高科技條件下電影影像發展前景研究”(22YTB014)。



主管單位:國家電影局

主辦單位:電影技術質量檢測所

標準國際刊號:ISSN 1673-3215

國內統一刊號:CN 11-5336/TB

投稿系統:ampt.crifst.ac.cn

官方網站:www.crifst.ac.cn

期刊發行:010-63245081

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
亞朵,擠滿了偷偷開房的中年女人

亞朵,擠滿了偷偷開房的中年女人

快刀財經
2025-05-20 22:21:25
布倫森麻了!尼克斯10分逆轉失敗,因一人多打了5分25秒!

布倫森麻了!尼克斯10分逆轉失敗,因一人多打了5分25秒!

運籌帷幄的籃球
2025-05-24 18:28:48
特朗普還未登機訪華,王毅在京接見另一美國貴客,美國12個州結盟

特朗普還未登機訪華,王毅在京接見另一美國貴客,美國12個州結盟

知鑒明史
2025-05-23 18:01:53
黃楊鈿甜家黑歷史被挖出,父親考公單科不及格,弟弟是父母

黃楊鈿甜家黑歷史被挖出,父親考公單科不及格,弟弟是父母

花哥扒娛樂
2025-05-21 21:27:45
外媒:根據目前的軌跡,中國很可能將完全主導全球高端制造業

外媒:根據目前的軌跡,中國很可能將完全主導全球高端制造業

曉風說
2025-05-24 09:30:10
消滅中產,只留貧富

消滅中產,只留貧富

求實處
2025-05-24 00:43:14
恭喜張維迎!

恭喜張維迎!

尚曦讀史
2025-05-24 06:40:02
高盛和摩根士丹利剛剛買進了4個可控核聚變龍頭,買進十大股東

高盛和摩根士丹利剛剛買進了4個可控核聚變龍頭,買進十大股東

鵬哥投研
2025-05-24 14:53:04
婚房被糞水浸泡!業主崩潰:全屋都是,無法接受

婚房被糞水浸泡!業主崩潰:全屋都是,無法接受

環球網資訊
2025-05-24 09:36:05
貼近實戰!山東艦最新演練現場→

貼近實戰!山東艦最新演練現場→

蓬勃新聞
2025-05-24 15:45:40
這3個國家最不歡迎中國人,滿臉都是嫌棄,卻總有國人上趕著去

這3個國家最不歡迎中國人,滿臉都是嫌棄,卻總有國人上趕著去

博覽歷史
2025-05-23 11:08:28
鯨魚:西卡能力遠在小卡之上 布倫森在打路人王哈利才是團戰領袖

鯨魚:西卡能力遠在小卡之上 布倫森在打路人王哈利才是團戰領袖

直播吧
2025-05-24 10:59:06
香港科技大學宣布:向哈佛學子敞開教研大門 應對全球學術變局

香港科技大學宣布:向哈佛學子敞開教研大門 應對全球學術變局

每日經濟新聞
2025-05-23 19:04:00
丹麥將退休年齡提高至全球最高水平 更多國家或將逐步跟進

丹麥將退休年齡提高至全球最高水平 更多國家或將逐步跟進

財聯社
2025-05-24 01:12:06
從500萬跌至240萬賣不出去!蘇州一小區一套房,僅2年市值縮水52%

從500萬跌至240萬賣不出去!蘇州一小區一套房,僅2年市值縮水52%

火山詩話
2025-05-23 08:39:48
第一次見香港35㎡的房子,居然有3室2廳,輕松住下一家4口,曬曬

第一次見香港35㎡的房子,居然有3室2廳,輕松住下一家4口,曬曬

家居設計師宅哥
2025-05-21 19:31:15
5000噸驅逐艦沉了,英國公布最新衛星圖,朝高層震怒,這事不簡單

5000噸驅逐艦沉了,英國公布最新衛星圖,朝高層震怒,這事不簡單

說天說地說實事
2025-05-22 17:29:43
中國駐以色列使館發布緊急提醒:盡快撤離!傳遞什么信號?

中國駐以色列使館發布緊急提醒:盡快撤離!傳遞什么信號?

歷史求知所
2025-05-23 17:25:03
千萬不要相信網上的毒雞湯,有研究生學歷已經超過大多數普通人

千萬不要相信網上的毒雞湯,有研究生學歷已經超過大多數普通人

曉風說
2025-05-24 14:35:52
榴蓮暴跌背后:你以為撿便宜,其實正在毀掉整個行業?

榴蓮暴跌背后:你以為撿便宜,其實正在毀掉整個行業?

阿萊美食匯
2025-05-24 12:18:02
2025-05-24 19:27:00
電影技術微刊 incentive-icons
電影技術微刊
電影技術微刊
565文章數 208關注度
往期回顧 全部

科技要聞

不止蘋果?特朗普:三星不在美國造 也加稅

頭條要聞

美國白宮數十人突然被裁 有人當場哭了

頭條要聞

美國白宮數十人突然被裁 有人當場哭了

體育要聞

NBA最被高估球隊,“突然”有了冠軍相?

娛樂要聞

歌手2025第二期排名:居然是他淘汰了

財經要聞

不得不說,特朗普殺瘋了

汽車要聞

一見傾心!東風全新SUV定妝圖曝光,顏值氣場并存

態度原創

教育
藝術
時尚
游戲
本地

教育要聞

2025年高考試題分析暨高考命題能力與備考策略研討會(西安、無錫、沈陽)

藝術要聞

故宮珍藏的墨跡《十七帖》,比拓本更精良,這才是地道的魏晉寫法

入夏后中年女人這樣打扮:裙子過膝,鞋子帶跟,美得高級優雅

《空洞騎士:絲之歌》Xbox頁面再被挖出神秘蛛絲馬跡

本地新聞

巴黎沒有倍兒甜,但天津巧克力腦袋倍兒多

無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 桂林市| 五指山市| 四川省| 来安县| 苗栗市| 屏东县| 临澧县| 定陶县| 万州区| 磴口县| 宽城| 同心县| 三明市| 伊吾县| 布尔津县| 宣武区| 南陵县| 芜湖县| 鞍山市| 彰武县| 巴彦淖尔市| 商城县| 望城县| 科尔| 平江县| 西丰县| 边坝县| 九龙坡区| 铜鼓县| 准格尔旗| 广平县| 长武县| 儋州市| 云霄县| 静海县| 江口县| 卢氏县| 台安县| 新和县| 扶沟县| 改则县|