【AI動(dòng)捕】
Metive:AI動(dòng)作捕捉工具,免費(fèi)公測(cè)
需要使用Google帳戶登錄,上傳單眼視頻,AI捕捉運(yùn)動(dòng)數(shù)據(jù)形成3D 動(dòng)畫
目前僅支持加載單角色、,MMD(PMX、PMD)模型, 以 VMD 格式導(dǎo)出運(yùn)動(dòng)數(shù)據(jù)
地址:
https://www.metive.app/editor/
https://www.metive.app/docs/
【AI配音/配樂】
MuVi:自動(dòng)為視頻配樂
通過專門設(shè)計(jì)的視覺適配器分析視頻內(nèi)容,提取特征用于生成不僅與視頻的主題相匹配,而且與其節(jié)奏相匹配的音樂。
用戶可以控制音樂風(fēng)格和流派。
使用場(chǎng)景:游戲CG配樂,卡通配樂,默片配樂
地址:
https://muvi-v2m.github.io/
PersonaTalk:字節(jié)可精準(zhǔn)給視頻進(jìn)行AI配音的模型
具有自然的口型匹配,保留面部細(xì)節(jié)!
由兩個(gè)平行的交叉注意力層,Lip-Attention/Face-Attention,分別采樣渲染臉部。
用戶只需要上傳參考視頻與音頻,就能生成。
同時(shí)支持多語言翻譯場(chǎng)景!估計(jì)后期會(huì)上線即夢(mèng)或剪映
地址:
https://grisoon.github.io/PersonaTalk/
Runway Act-one已上線
功能已上線,無需動(dòng)作捕捉即可快速完成最長(zhǎng)30s角色面部動(dòng)畫,你可以通過上傳視頻圖像來完成!
使用說明:
https://help.runwayml.com/hc/en-us/articles/33927968552339-Creating-with-Act-One-on-Gen-3-Alpha
貓叔測(cè)試效果:
Framer:首尾幀視頻生成,還能控制運(yùn)動(dòng)軌跡
一種幀補(bǔ)全模型,可以交互地插入兩個(gè)圖像幀。還可以自定義選定關(guān)鍵點(diǎn)的軌跡來控制其運(yùn)動(dòng)。
地址:
https://aim-uofa.github.io/Framer/
重構(gòu)燈光
IC-Light v2發(fā)布,目前可以在 FLUX 上運(yùn)行。以自然方式重構(gòu)燈光
地址:
https://github.com/lllyasviel/IC-Light/discussions/98
https://huggingface.co/spaces/lllyasviel/iclight-v2
-End-
更多免費(fèi)CG資產(chǎn)
歡迎前往CG模型網(wǎng)下載:
https://www.cgmodel.com/
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.