99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

《現(xiàn)代電影技術》|劉達等:智能計算時代深化電影科技創(chuàng)新和推進電影強國建設的思考與啟示

0
分享至


本文刊發(fā)于《現(xiàn)代電影技術》2024年第9期

專家點評

當前,我們正處于第三次技術革命浪潮中,人工智能應用前景日趨清晰,人工智能應用場景日益廣泛。特別是在電影文化領域,生成式人工智能更是具有大規(guī)模提高生產(chǎn)效率的潛能。在此背景下,中國電影科學技術研究所(中央宣傳部電影技術質量檢測所)總工程師劉達率團參加了人工智能領域國際頂級學術會議,并開展了技術調研和考察交流,在此基礎上撰寫完成《智能計算時代深化電影科技創(chuàng)新和推進電影強國建設的思考與啟示》一文。文章在簡明扼要介紹歐洲高新技術格式電影制作播映發(fā)展與應用最新成果的基礎上,針對電影產(chǎn)業(yè)、現(xiàn)代影院和沉浸式視聽技術的發(fā)展與應用,提出把電影級主動發(fā)光顯示技術和沉浸式視聽技術作為重要抓手,以有效提升影院視聽品質和觀影體驗。此外,適應智能計算時代發(fā)展特征和生成式人工智能演進趨勢,提出了電影行業(yè)要統(tǒng)籌推進模型自主研發(fā)與行業(yè)定制改造的技術思路,同時探討了電影行業(yè)在積極探索人工智能應用中強化人工智能安全治理和版權保護的方式。文中提出我國要加快構建完善以“文生電影”為核心的電影智能化創(chuàng)作生產(chǎn)技術體系,發(fā)展完善以現(xiàn)代智能科技為核心支撐的電影新質生產(chǎn)力,推進電影攝制播映向高品質沉浸式多元化升級,構建發(fā)展新型視聽文化業(yè)態(tài),優(yōu)化升級視聽文化服務,為新時代新征程推進我國電影科技創(chuàng)新升級和高水平自立自強提供了富有前瞻性、建設性和可實施性的思考啟示與發(fā)展建議。

——徐進

中央廣播電視總臺技術局局長

中國電影電視技術學會理事長

作 者 簡 介

劉 達

中國電影科學技術研究所(中央宣傳部電影技術質量檢測所)總工程師,主要研究方向:電影科技與產(chǎn)業(yè)智能化升級。

中國電影科學技術研究所(中央宣傳部電影技術質量檢測所)高新技術研究處副處長,主要研究方向:數(shù)字電影技術。

王 萃

高 峰

中國電影科學技術研究所(中央宣傳部電影技術質量檢測所)檢測認證北方中心副主任,主要研究方向:電影技術質量檢測認證。

中國電影科學技術研究所(中央宣傳部電影技術質量檢測所)助理工程師,主要研究方向:數(shù)字電影技術。

馬鴻悅

張海悅

中國電影科學技術研究所(中央宣傳部電影技術質量檢測所)工程師,主要研究方向:數(shù)字電影技術。

中國電影科學技術研究所(中央宣傳部電影技術質量檢測所)工程師,主要研究方向:數(shù)字電影技術。

王 健

摘要

人類社會正加快步入智能計算時代,現(xiàn)代智能科技對電影產(chǎn)業(yè)的影響持續(xù)深化和不斷泛化,機器學習、深度學習、人工智能生成內容(AIGC)、大語言模型(LLM)、多模態(tài)模型等技術正在深刻影響和重構優(yōu)化電影全產(chǎn)業(yè)鏈全價值鏈。伴隨電影科技創(chuàng)新進入攻堅期和深水區(qū),電影產(chǎn)業(yè)發(fā)展面臨新形勢新要求,我們要深化電影科技自主創(chuàng)新,積極推進電影行業(yè)的智能化升級,推進生成式人工智能、人工智能大模型、沉浸式視聽等技術在我國電影行業(yè)的定制設計、自主研制與科學應用,有力支撐和服務社會主義電影強國建設。

關鍵詞

電影科技;自主創(chuàng)新;智能科技;人工智能大模型;人工智能生成內容;沉浸式視聽

1引言

2024年7月,我們一行6人赴德國、奧地利開展業(yè)務訪問與技術交流,先后在德國訪問了HOLOPLOT音頻科技公司和德國電影資料館,在奧地利參加了全球人工智能(AI)領域的頂級學術會議——國際機器學習大會(International Conference on Machine Learning, ICML)。代表團深入了解了電影沉浸式音頻技術的發(fā)展與應用情況,細致了解了德國電影產(chǎn)業(yè)與現(xiàn)代影院的發(fā)展建設情況,積極研究探索我國電影產(chǎn)業(yè)高品質多元化放映應用場景。特別是,適應智能計算時代(Age of Intelligent Computing)發(fā)展特征和電影產(chǎn)業(yè)智能化升級不斷提速要求,我所首次組織實施“人工智能國際學術會議團組”計劃,參加全球AI領域頂級學術會議,密切跟蹤現(xiàn)代智能科技發(fā)展趨勢、最新研究與應用成果,探索推進人工智能(AI)大模型和人工智能生成內容(AIGC)等技術在電影行業(yè)的定制化、科學化應用。

此次業(yè)務訪問與技術交流不僅內容充實、系統(tǒng)全面,而且細致深入、針對性強,進一步深化了我們對于智能計算時代推進電影科技自主創(chuàng)新、高水平自立自強與電影產(chǎn)業(yè)智能化升級的思考和認識,對于推動人工智能大語言模型(LLM)、多模態(tài)大模型、人工智能生成內容(AIGC)、沉浸式視聽(Immersive Audio?Visual)等技術在我國電影行業(yè)的定制化設計、科學化應用以及電影行業(yè)垂直AI大模型自主研制均具有一定的指導意義和應用價值。

2收獲與思考

2.1 深入細致了解歐洲高新技術格式電影制作播映技術發(fā)展與應用的最新成果,深刻感受到全球電影行業(yè)正融合運用傳統(tǒng)與新興視聽技術,不斷拓展創(chuàng)新觀影場景,有效提升電影視聽品質、觀影體驗和產(chǎn)業(yè)效能,持續(xù)增強電影在現(xiàn)代視聽媒體中的競爭力影響力引領力

德國HOLOPLOT是全球領先的空間聲學技術研究與應用服務公司,致力于基于波場合成(Wave Field Synthesis, WFS)和3D音頻波束成形(Beamforming)技術的沉浸式音頻產(chǎn)品與應用研究,其沉浸式音頻技術解決方案已成功應用于美國拉斯維加斯MSG Sphere LED球幕影院,以及美國紐約Atlantic Theatre、英國倫敦Lightroom的LED展示場館等多元化展示和放映場景。HOLOPLOT沉浸式音頻解決方案的突出特點在于,其支持同一場所內聽眾區(qū)域、聆聽內容、音頻強度(聲壓級)等靈活配置,既可讓不同區(qū)域的聽眾聆聽不同音頻內容,也可讓不同區(qū)域的聽眾聆聽不同強度或相等強度的聲音。

HOLOPLOT設計研制了配有高性能服務器的沉浸式音頻揚聲器模組,針對現(xiàn)場自動化測試的場館聲音傳播特點,采用波場合成(Wave Field Synthesis, WFS)與波束成形(Beamforming)技術,通過組合配置揚聲器模組,構建虛擬聲源,控制聲音波束匯聚的方向和強度,以實現(xiàn)覆蓋各聽眾區(qū)域的聲場。其揚聲器模組分為X1和X2兩個系列,其中X1系列模組有包含96個兩分頻(高音和中低音)揚聲器的MD96矩陣陣列和包含80個三分頻(高音、中音和低音)揚聲器的MD80?S矩陣陣列;X2系列模組有包含30個揚聲器的MD30矩陣陣列。

代表團在HOLOPLOT實驗室現(xiàn)場體驗了波場合成(Wave Field Synthesis, WFS)和波束成形(Beamforming)技術的實現(xiàn)效果,可明顯感受到在同一場館內,距音源不同距離等強度覆蓋、不同區(qū)域不同音頻內容覆蓋、覆蓋區(qū)域外強度快速衰減等效果。代表團還參觀了產(chǎn)品研發(fā)生產(chǎn)線,以及HOLOPLOT最新發(fā)布的適用于演講和多媒體應用的X2系列。位于美國拉斯維加斯著名的MSG Sphere LED球幕影院即采用HOLOPLOT音頻解決方案實現(xiàn)電影級沉浸式音頻播放。該場館從LED屏幕到最后一排觀眾的距離長達110米,且弧形屏幕和球形場館對聲音傳播形成了非常規(guī)的球面反射。HOLOPLOT在LED透聲屏后安裝約1600個X1矩陣陣列模組,共計約160000個揚聲器實現(xiàn)音頻播放。

此外,代表團還訪問了德國電影資料館(Deutsche Kinemathek)和柏林CinemaxX影院,重點了解德國電影科技與產(chǎn)業(yè)發(fā)展歷程、影院發(fā)展建設情況以及高新技術格式電影應用情況。德國電影資料館于1963年2月正式開放,自2000年9月開始作為柏林電影博物館,收藏了大約26 000部德國本土和其他國家的無聲電影、有聲電影及拍攝放映設備、電影劇照、肖像、制作照片、劇本、海報、電影節(jié)目、電影票和傳記材料等。在現(xiàn)場,我們近距離觀察體驗了膠片放映機、老式攝像機、老式售票機等工作原理,通過還原的微型拍攝老場景研究傳統(tǒng)拍攝技術的應用,并了解第二次世界大戰(zhàn)對于德國電影進程的影響,現(xiàn)場領略德國電影的展現(xiàn)方式。

作為柏林大型現(xiàn)代化影院,CinemaxX影院擁有19個影廳,均支持DCI 4K數(shù)字放映技術和杜比 7.1 環(huán)繞聲,其中8個影廳支持3D數(shù)字放映、2個影廳同時支持高幀率(HFR)和3D數(shù)字放映,還有2個影廳仍支持16 mm和35 mm膠片放映。該影院在2023年實施改造升級,為所有影廳安裝電動可調節(jié)豪華皮質座椅。改造升級后影院總座位數(shù)減少至原來的40%左右,約有一半影廳的座位數(shù)不到30個。該影院目前上映影片以美國好萊塢影片為主,票價為8~11歐元(人民幣約64~88元)。CinemaxX影院由Vue院線管理運營,Vue院線在德國擁有30個影院,257塊銀幕,除電影放映外,影院還開展音樂會、歌劇、芭蕾舞表演等現(xiàn)場直播業(yè)務。

通過訪問交流,我們對于電影產(chǎn)業(yè)、現(xiàn)代影院和沉浸式視聽技術的發(fā)展與應用趨勢,形成以下基本共識:

(1)電影產(chǎn)業(yè)高質量可持續(xù)發(fā)展的基石始終是視聽品質和觀影體驗。作為電影產(chǎn)業(yè)終端的影院,要加快成為高品質、專業(yè)化、融合型業(yè)務的高端文化消費體驗場所,要為促進電影產(chǎn)業(yè)、文化產(chǎn)業(yè)和視聽產(chǎn)業(yè)提質增效作出積極貢獻。電影級主動發(fā)光顯示技術和沉浸式視聽技術將是有效提升影院視聽品質和觀影體驗的重要抓手,必須積極充分運用和大力推廣應用。

(2)我國要實現(xiàn)電影大國向電影強國的歷史性跨越,電影科技發(fā)展必須立足自主創(chuàng)新,積極融合應用傳統(tǒng)技術與新興技術,加快推進高水平自立自強。針對不同尺寸LED顯示屏和不同影廳建筑聲學環(huán)境,應綜合利用LED透聲顯示屏、電影沉浸式音頻等自主技術,融合相關行業(yè)領域共性技術,形成最優(yōu)定制化整體解決方案,加快推進國產(chǎn)數(shù)字電影LED放映顯示系統(tǒng)在我國影院的部署應用,并制定完善相關技術規(guī)范與技術標準,保障LED放映業(yè)務健康有序發(fā)展。

2.2 人工智能生成內容(AIGC)技術發(fā)展迅猛,內容質量與生成效率持續(xù)提升,我國電影行業(yè)要順應生成式人工智能發(fā)展演進趨勢,統(tǒng)籌推進模型自主研發(fā)與行業(yè)定制改造,推動技術研發(fā)與行業(yè)應用不斷實現(xiàn)新突破,積極服務電影內容生產(chǎn)與產(chǎn)業(yè)鏈提質優(yōu)化

國際機器學習大會(ICML)由國際機器學習學會(IMLS)主辦,是國際公認的人工智能(AI)領域的頂級學術會議。2024年度ICML設置了30余個專題論壇,包括6個特邀演講和140余個主題演講,并有2610篇論文現(xiàn)場展示,參會人數(shù)多達8000余人。會議內容涵蓋人工智能預訓練大模型、生成式人工智能、多模態(tài)大模型、具身智能(Embodied Artificial Intelligence, EAI)、人工智能安全治理等學術研討和行業(yè)應用案例交流,代表了當今人工智能研究的最高學術水平與前沿方向。

人工智能生成內容(AIGC)是本次ICML會議的熱點與焦點,多個專題論壇和技術演講均以此為主題。代表團重點關注與電影行業(yè)密切相關的圖像與視頻生成、3D模型生成、具身智能等領域,參加了“視頻”“強化學習”“大語言模型:代碼和算法”“結構化概率推理與生成式模型”“智能體和世界模型”“多模態(tài)基礎模型與具身智能”等多個論文專題報告和學術研討會。下面重點闡述AI視頻生成、3D智能生成和具身智能。

2.2.1 AI視頻生成

AI視頻生成是備受學術界和產(chǎn)業(yè)界關注的研究領域。視頻生成技術發(fā)展迅速,其實現(xiàn)路徑從基于生成式對抗網(wǎng)絡(GAN)與變分自編碼器(VAE)生成,發(fā)展到基于Transformer架構生成,并不斷演進至當前主流的基于擴散模型(Diffusion Model)和DiT(Diffusion Transformer)架構。由美國OpenAI科技公司研發(fā)的Sora視頻生成模型即基于DiT架構,可生成60秒時長、多鏡頭一致性、遵循一定物理規(guī)律的視頻。自2024年2月發(fā)布以來,Sora視頻生成質量仍然是領域標桿。國內外其他開閉源視頻生成模型也在快速發(fā)展,如國外Pika、Runway Gen?3、Stable Video Diffusion,國內快手可靈、潞晨科技Open?Sora、生數(shù)科技Vidu等,在視頻時長、幀率、圖像分辨率、生成效果等方面取得了顯著進展。目前,AI視頻生成領域正向提升復雜場景/動作生成、時間一致性、保真度、訓練推理效率、音視頻同步等質量和性能方面持續(xù)進步。

本次會議論文與學術研討覆蓋多模態(tài)視頻生成、視頻理解、視頻編輯控制和視頻生成質量評估等領域。谷歌研究團隊提出Genie[1]、VideoPoet[2]等模型,實現(xiàn)文本、圖像、音頻、視頻等多種模態(tài)作為模型輸入生成相應視頻,并支持視頻風格化和擴展等功能。新加坡國立大學[3]基于思維鏈(Chain?of?Thought, CoT)技術,將復雜的問題拆分為更簡單的問題,提高模型對視頻問答任務的性能。北京大學和快手科技公司聯(lián)合提出Video?LaVIT模型[4],支持圖像/視頻理解、文本到圖像以及文本到視頻生成。巴黎文理研究大學[5]提出一種基于文本提示的視頻編輯方法,利用預訓練的文本到圖像擴散模型來處理時間和空間信息,可替換原始視頻的主體角色,并能保留原始視頻的結構和運動。在視頻生成質量評估方面,現(xiàn)階段主要側重于對音視頻同步性[6]和視頻運動一致性[7]的評估。

2.2.2 3D智能生成

3D模型不同于文字、圖像、視頻等數(shù)據(jù),存在天然稀缺性,后者可在日常生活中產(chǎn)生,因而極大地制約了3D智能生成模型算法的發(fā)展,因此3D智能生成相較于其他AIGC技術仍處于發(fā)展起步階段,其生成質量、效果與效率距離實際應用,特別是距離電影行業(yè)應用尚有較大差距。當前,3D智能生成領域的熱點方向是文本生成3D模型,采用的3D表征方式多為高斯濺射(Gaussian Splatting)和神經(jīng)輻射場(Neural Radiance Fields, NeRF),其不同于電影制作流程通用的網(wǎng)格(Mesh)表征方式。

本次ICML會議聚焦3D模型生成質量、生成效率和數(shù)據(jù)集三個方向。一方面,基于現(xiàn)有算法,通過改進方法或模型表征方式,提升生成3D模型的幾何一致性與保真度。如美國Meta公司研究團隊[8]針對目前文生3D領域主流技術方法的問題,即在大規(guī)模訓練的文生圖模型基礎上使用分數(shù)蒸餾采樣(Score Distillation Sampling, SDS)或其變體訓練模型,存在速度慢、不穩(wěn)定且易于出現(xiàn)偽影等問題,提出一種改善方法IM?3D,將原有文生圖模型變?yōu)槲纳曨l模型,并采用高斯濺射替換原有基于神經(jīng)輻射場(NeRF)的3D重建,在3D生成效率、質量和幾何一致性等方面實現(xiàn)提升。另一方面,提出全新的生成框架,以提升生成質量與效率。如香港中文大學聯(lián)合Autodesk AI實驗室[9]提出一種全新的3D生成模型框架Make?A?Shape,通過引入小波樹作為3D表示、制定子帶系數(shù)濾波/打包方案以及自適應訓練策略,實現(xiàn)對3D形狀緊湊編碼。該框架在大多數(shù)情況下生成3D模型僅需2秒。此外,3D生成領域積極利用成熟的大語言模型(LLM)和多模態(tài)大模型來提升數(shù)據(jù)集標注的可靠性,生成渲染Python腳本實現(xiàn)自動化渲染。

2.2.3 具身智能(Embodied AI)

伴隨大語言模型(LLM)、多模態(tài)模型和世界模型快速發(fā)展,智能體(Agent)對文本、視覺、聽覺等綜合信息的處理能力同步提升,在與機器人、傳感器等技術融合后,可實現(xiàn)物理實體與環(huán)境交互獲取信息、理解問題、做出決策并實現(xiàn)行動,進而產(chǎn)生智能行為,即具身智能。簡言之,具身智能是一種基于物理實體進行感知和行動的智能系統(tǒng),其通過智能體與環(huán)境的交互獲取信息、理解問題、做出決策并實現(xiàn)行動,進而產(chǎn)生智能行為和適應性。近兩年隨著AI技術的發(fā)展與進步,特別是生成式AI和AI大模型的快速發(fā)展,具身智能落地應用的可能性持續(xù)增強,越來越多的企業(yè)開始布局和投身具身智能領域,其已成為AI領域的研究與應用熱點。

本屆ICML會議主要針對具身智能對任務和環(huán)境的處理能力、決策能力和泛化能力,采用在線強化學習、多模態(tài)強化學習、數(shù)據(jù)采集等方式提升智能體性能,進而提升具身智能行為能力。清華大學[10]、加州大學伯克利分校[11]、卡內基梅隆大學[12]等學術機構分別在策略學習、策略更新與優(yōu)化、有效訓練等研究領域提出有效算法,提升強化學習智能體在實際應用中的性能與表現(xiàn)。清華大學[13]、紐約大學[14]和根特大學[15]分別對多模態(tài)統(tǒng)一表征學習、多模態(tài)環(huán)境下智能體復雜行為生成、多模態(tài)基礎世界模型進行研究,致力于解決智能體在復雜任務中的挑戰(zhàn)。麻省理工學院?[16]研究人員提出環(huán)境自動化塑造方法,以解決機器人學習中環(huán)境設計需要大量人工干預、數(shù)據(jù)采集效率低下等問題。

本屆ICML會議盡管會期長達一周,但因技術方向和內容主題較多,會議日程安排極其緊湊,每天多個專題報告和研討會并行舉行。代表團通過連續(xù)幾日參會,深刻感受到大語言模型(LLM)、多模態(tài)大模型等技術突破和飛速進步已帶動AIGC各個分支領域快速發(fā)展,并通過垂直應用推動技術進一步發(fā)展深化,進而形成AIGC領域全面加速提升的發(fā)展態(tài)勢。我國電影科技應緊跟AIGC發(fā)展趨勢,充分挖掘行業(yè)高質量數(shù)據(jù)資源,堅持模型自主研發(fā)與行業(yè)定制改造統(tǒng)籌推進,積極推進電影攝制播映裝備智能化升級,有效提升電影攝制質量與效率,優(yōu)化影院運營服務管理水平效率,促進行業(yè)整體效能提升。

2.3 AI技術應用的安全與版權風險日益凸顯,我國電影行業(yè)要統(tǒng)籌并重AI發(fā)展與安全,強化AI安全治理與版權保護,積極推進AI領域安全與版權保護技術研究應用,服務行業(yè)健康有序發(fā)展

代表團參加了ICML會議“安全與控制”“魯棒性與安全”“新一代AI安全”等多個相關主題報告與專題論壇,并與論文作者進行了交流與探討。廣義上的AI安全涵蓋AI安全和版權,目前主要研究方向涉及訓練數(shù)據(jù)、模型和生成內容三方面。其中,數(shù)據(jù)安全問題涉及數(shù)據(jù)授權、數(shù)據(jù)隱私、涉密數(shù)據(jù)、數(shù)據(jù)污染、數(shù)據(jù)泄露等;模型安全問題包括越獄、濫用、竊取攻擊等;生成結果安全問題則包括生成有害內容、誘導生成帶有版權的內容、AI生成內容識別等。

針對以上問題,本屆ICML會議聚焦攻擊手段、保護方法、版權標識與識別等三類研究成果。

2.3.1 攻擊手段

致力于研究針對訓練數(shù)據(jù)和模型的攻擊方法,以找到安全與版權隱患,特別是低成本、高效率的攻擊手段。其中包括被評為此次會議最佳論文之一,由谷歌公司[17]牽頭實現(xiàn)的《竊取語言生成模型的部分內容》(Stealing Part of a Production Language Model),以不到2000美元的成本成功竊取GPT?3.5 Turbo模型的確切隱藏維度大?。恍录悠聡⒋髮W[18]提出一種后門攻擊方式,以誘使模型生成帶有版權的內容。

2.3.2 保護手段

主要針對已發(fā)現(xiàn)的安全漏洞,探索如何以更高效的方式調整提高生成內容的正確性與安全性。例如上海交通大學[19]提出Ethical?Lens框架,可在不更改內部模型的情況下避免惡意使用文本到圖像模型;谷歌DeepMind[20]提出Doubly?Efficient Debate理論框架,在此框架下,兩個模型通過辯論競爭取勝,盡可能精簡而充分地展示任務執(zhí)行過程的正確性,以提高生成內容的安全性;美國馬里蘭大學[21]證明帶有水印的大語言模型可有效避免生成帶有版權的內容,也可減少成員推理攻擊的成功率。

2.3.3 版權標識與識別手段

主要聚焦AI生成內容檢測以及數(shù)字水印的智能添加與檢測,其中包括德國亥姆霍茲信息安全中心(CISPA Helmholtz Center for Information Security)[22]經(jīng)過測試證實,在噪聲、編碼、傳輸衰減等真實環(huán)境產(chǎn)生的干擾下,現(xiàn)有檢測手段對于檢出是否為AI生成音頻并不具備較強魯棒性;美國Meta公司[23]提出利用AI生成本地化水印檢測語音克隆等多篇論文。

綜上所述,伴隨AI技術飛速發(fā)展,AI安全受到廣泛關注和高度重視,研究方向攻防并重,不僅聚焦安全防范和保護技術,也注重對攻擊方法與手段的研究試驗,以研發(fā)對應防御辦法。電影行業(yè)在積極探索AI技術落地應用的同時,也應高度重視AI安全與版權問題,統(tǒng)籌AI發(fā)展與安全,確保AI發(fā)展與應用向上向善和服務行業(yè)。

2.4 歐盟積極謀劃和全面推進AI基礎設施建設、模型研發(fā)、落地應用與安全法案實施,努力追趕世界AI先進水平,我國電影行業(yè)要充分利用相關新型基礎設施建設優(yōu)勢,加強頂層設計、統(tǒng)籌規(guī)劃和項目推進,以AI技術深度應用支撐服務行業(yè)提質升級

本屆ICML會議邀請歐洲人工智能辦公室(European Artificial Intelligence Office)主任Lucilla Sioli女士作題為《歐盟委員會AI見解》的特別演講,演講主要涵蓋以下內容:

2.4.1 關于歐盟《人工智能法案》

歐盟已制定發(fā)布《人工智能法案》(Artificial Intelligence Act),并在法案中將AI系統(tǒng)和通用AI模型按照風險程度分為不可接受風險、高風險、透明度風險、風險極小/無風險等四個等級。其中,不可接受風險等級模型將被嚴格禁止,如社會評分、無目標的數(shù)據(jù)采集等;高風險等級模型,如涉及招聘、醫(yī)學設備等,需符合AI相關要求和事前一致性評估才可使用;透明度風險等級模型需符合透明度要求才可使用,如人機對話、圖像修改等;風險極小/無風險等級模型則無額外使用限制。此外,法案還對通用AI模型進行了透明度規(guī)定,要求模型提供方提交技術文檔和使用說明,公布訓練數(shù)據(jù)摘要信息,并在此基礎上針對具有系統(tǒng)風險的模型(計算量超過1025 FLOPs)增加了額外要求,包括模型評測、對抗測試、系統(tǒng)風險評估與避免、事故跟蹤報告、網(wǎng)絡安全保障等。該法案已于2024年8月1日正式生效,相關規(guī)則將分階段在6個月或12個月后生效,大部分規(guī)則將于2026年8月2日生效。

2.4.2 關于歐盟AI機構與團隊設置

歐盟委員會于2024年5月底成立內設機構歐洲人工智能辦公室,負責AI法案實施、孵化AI研究創(chuàng)新項目和參與全球對話,旨在推動歐洲人工智能未來發(fā)展、部署和應用,促進社會效益和經(jīng)濟效益提升,推進AI創(chuàng)新和降低AI風險。此外,針對法案的制定和實施,歐盟還設立了咨詢團隊,包括AI董事會、科學小組和咨詢團隊。其中,AI董事會由來自歐盟各成員國的高級代表和專家組成,負責法案實施協(xié)調工作;科學小組成員為具有專業(yè)知識的專家,負責在法案實施過程中對潛在系統(tǒng)風險提出預警;咨詢團隊主要負責協(xié)調平衡各方利益。

2.4.3 關于歐盟政府AI投資發(fā)展計劃

歐洲目前開展AI技術業(yè)務的主要為6300余家初創(chuàng)公司,其中10%與生成式AI相關,而大型企業(yè)則較為保守,幾乎不涉足AI領域。初創(chuàng)公司在開展AI相關業(yè)務時面臨投資不足、監(jiān)管負擔重、缺乏充足算力、數(shù)據(jù)和人才資源。針對上述情況,歐盟啟動了“歐盟AI創(chuàng)新包”項目,將投資40億歐元用于AI算力設施建設、模型研發(fā)、推動成果向市場轉化。其中,25億歐元用于AI算力設施建設,5億歐元用于生成式AI模型研發(fā),涵蓋戰(zhàn)略工業(yè)產(chǎn)業(yè)、科學研究、公共事務等領域,包括機器人/制造業(yè)、汽車、網(wǎng)絡安全、能源、藥品等行業(yè)。在推動AI研究成果轉化應用方面,歐盟已啟動歐洲地平線(Horizon Europe)、數(shù)字歐洲(Digital Europe)和歐洲創(chuàng)新委員會(European Innovation Council, EIC)加速器3個項目供申報,總預算約1.6億歐元,涵蓋AI大模型、模型可解釋性與魯棒性、高性能開源基礎模型、生成式AI模型研發(fā)等。

綜上所述,歐洲AI技術研發(fā)、創(chuàng)新應用和相關算力基礎設施建設起步較晚且發(fā)展緩慢,與美國、中國等AI領先國家已有較大差距。歐盟已充分認識到該問題,正根據(jù)歐洲AI領域實際情況,集中成員國力量,全力開展算力基礎設施建設,啟動AI技術研發(fā)和市場應用項目,并以推動技術創(chuàng)新與應用為前提,率先頒布AI安全法案,全面推進AI基礎研究與落地應用。

當前,我國算力基礎設施建設已達世界領先水平,且具有海量數(shù)據(jù)資源等優(yōu)勢。作為數(shù)字視聽領域的技術引領者與發(fā)展制高點,電影行業(yè)應適應AI技術迅猛發(fā)展的新形勢新需求新特點,加強AI技術研發(fā)與行業(yè)應用的頂層設計、統(tǒng)籌規(guī)劃和項目推進,聯(lián)合行業(yè)內外形成強大合力,加快推動以深度學習和生成式人工智能大模型引領的智能計算新發(fā)展與電影行業(yè)的深度融合,積極推進電影全產(chǎn)業(yè)鏈全價值鏈智能化升級,有力支撐和服務新時代社會主義電影強國建設。

3啟示及建議

2024年7月召開的黨的二十屆三中全會審議通過了《中共中央關于進一步全面深化改革、推進中國式現(xiàn)代化的決定》,深入分析了新時代新征程推進中國式現(xiàn)代化面臨的新形勢新要求,強調要“優(yōu)化重大科技創(chuàng)新組織機制,統(tǒng)籌強化關鍵核心技術攻關”“完善推動新一代信息技術、人工智能等戰(zhàn)略性產(chǎn)業(yè)發(fā)展政策和治理體系”“推動科技創(chuàng)新和產(chǎn)業(yè)創(chuàng)新融合發(fā)展”“探索文化和科技融合的有效機制,加快發(fā)展新型文化業(yè)態(tài)”,為推進社會主義電影強國、文化強國和科技強國建設提供了發(fā)展方向和重要遵循。

電影是文化與科技的有機融合體,兼具文化屬性與科技屬性,在新興視聽技術、新一代信息通信技術和現(xiàn)代智能科學技術的廣泛應用與深刻影響下,電影產(chǎn)業(yè)與高新技術的融合進程持續(xù)深化,電影產(chǎn)業(yè)加快由傳統(tǒng)視聽產(chǎn)業(yè)向高新技術產(chǎn)業(yè)轉型升級,其兼具文化創(chuàng)意產(chǎn)業(yè)和戰(zhàn)略性新興產(chǎn)業(yè)雙重內涵的特征愈加凸顯?;诖舜胃暗聡?、奧地利開展業(yè)務訪問和技術交流的收獲與思考,我們立足進一步全面深化改革、推進中國式現(xiàn)代化國家戰(zhàn)略,智能計算時代電影行業(yè)發(fā)展需求以及新一代信息通信技術與現(xiàn)代智能科學技術演進趨勢,經(jīng)認真研究分析,提出以下啟示及發(fā)展建議:

3.1 運用機器學習、深度學習、生成式AI、AI預訓練大模型等發(fā)展成果,構建完善以“文生電影”為核心的電影智能化創(chuàng)作生產(chǎn)技術體系,推進電影攝制生產(chǎn)播映系統(tǒng)智能化升級改造,發(fā)展完善以現(xiàn)代智能科技為核心支撐的電影新質生產(chǎn)力,科學精準高效服務行業(yè)

智能經(jīng)濟與智能社會已成為經(jīng)濟與社會發(fā)展演進的基本趨勢和必然要求。智能化升級是電影產(chǎn)業(yè)高質量可持續(xù)發(fā)展的必由之路,是一項極其復雜、龐大的系統(tǒng)工程,必須強化頂層設計、立足自主創(chuàng)新和注重有序推進。一方面,在電影行業(yè)大力發(fā)展人工智能生成內容(AIGC),探索生成式AI技術、AI大模型、具身智能等在電影創(chuàng)作攝制等環(huán)節(jié)的應用,結合電影視聽技術指標開展定制化研發(fā),實現(xiàn)文生圖像、文生視頻、文生3D、文生音頻、文生電影等多元化電影級智能應用,并探索推進國產(chǎn)電影系統(tǒng)向智能化升級改造,提升電影攝制水平、能力和效率。另一方面,統(tǒng)籌AI發(fā)展與安全,開展電影行業(yè)AI安全治理與版權保護研究,加強AI領域技術風險管控,科學合理安全使用生成式AI和AI預訓練大模型,確保關鍵核心技術自主安全可控,加快研究制定AI相關安全秩序準則和技術標準規(guī)范,保障電影行業(yè)智能化升級健康有序推進。

3.2 適應大視聽、大科學和大文化時代發(fā)展要求,充分借鑒和融合應用數(shù)字視聽技術領域發(fā)展成果,推進高品質沉浸式多元化攝制播映創(chuàng)新升級,加快構建發(fā)展新型視聽文化業(yè)態(tài),持續(xù)優(yōu)化升級視聽文化業(yè)務服務和產(chǎn)品供給

電影行業(yè)已經(jīng)步入大視聽(Great Audio?Visual)、大科學(Great Science)和大文化(Big Culture)時代。一方面,學科、技術、業(yè)務、服務、產(chǎn)業(yè)、行業(yè)深度交叉和融合并進,科學研究和技術應用的復雜性、系統(tǒng)性、協(xié)同性顯著增強;另一方面,在媒體融合持續(xù)深化的背景下,視聽產(chǎn)業(yè)和文化產(chǎn)業(yè)發(fā)展格局重構優(yōu)化,視聽文化業(yè)務服務模式創(chuàng)新升級和拓展延伸,覆蓋電影、電視、計算機、移動終端、手機等多元媒體的廣義大視聽和大文化產(chǎn)業(yè)構建形成并不斷提質升級。因此,融合應用數(shù)字視聽領域成熟視音頻技術和解決方案,針對影院增值業(yè)務、特種電影、特種影院、沉浸式視聽體驗等場景,探索實踐高品質、多元化、差異化發(fā)展模式,同時發(fā)揮我國制造領域優(yōu)勢,加快攝制播映端國產(chǎn)核心關鍵技術與系統(tǒng)設備的研發(fā)應用,推進攝制播映工藝流程創(chuàng)新升級,全方位多維度提升文化產(chǎn)品質量和視聽體驗。

注釋、參考文獻

(向下滑動閱讀)

[1] Bruce J, Dennis M D, Edwards A, et al. Genie: Generative Interactive Environments[EB/OL].(2024?05?02)[2024?09?02]. https://openreview.net/pdf?id=bJbSbJskOS.

[2] Kondratyuk D, Yu L, Gu X, et al. Videopoet: A large language model for zero?shot video generation[EB/OL].(2024?06?04)[2024?09?02]. https://arxiv.org/pdf/2312.14125.

[3] Fei H, Wu S, Ji W, et al. Video?of?thought: Step?by?step video reasoning from perception to cognition[EB/OL].(2024?05?02)[2024?09?02]. https://openreview.net/pdf?id=fO31YAyNbI.

[4] Jin Y, Sun Z C, Xu K, et al. Video?lavit: Unified video?language pre?training with decoupled visual?motional tokenization[EB/OL].(2024?06?03)[2024?09?02].https://arxiv.org/pdf/2402.03161.

[5] Cohen N, Kulikov V, Kleiner M, et al. Slicedit: Zero?Shot Video Editing With Text?to?Image Diffusion Models Using Spatio?Temporal Slices[EB/OL].(2024?05?20)[2024?09?02]. https://arxiv.org/pdf/2405.12211.

[6] Yariv G, Gat I, Benaim S, et al. Diverse and Aligned Audio?to?Video Generation via Text?to?Video Model Adaptation[C]//Proceedings of the AAAI Conference on Artificial Intelligence 2024, 38(07):6639?6647.

[7] Liu J H, Qu Y R, Yan Q, et al. Fréchet Video Motion Distance: A Metric for Evaluating Motion Consistency in Videos[EB/OL].(2024?07?23)[2024?09?02]. https://arxiv.org/pdf/2407.16124.

[8] Melas?Kyriazi L, Laina I, Rupprecht C, et al. IM?3D: Iterative Multiview Diffusion and Reconstruction for High?Quality 3D Generation[EB/OL].(2024?02?13)[2024?09?02]. https://arxiv.org/pdf/2402.08682.

[9] Hui K H, Sanghi A, Rampini A, et al. Make?A?Shape: a Ten?Million?scale 3D Shape Model[EB/OL].(2024?05?02)[2024?09?02]. https://openreview.net/pdf?id=8l1KYguM4w.

[10] Luo Y, Ji T Y, Sun F C, et al. OMPO: A Unified Framework for RL under Policy and Dynamics Shifts[EB/OL].(2024?05?29)[2024?09?02]. https://arxiv.org/pdf/2405.19080.

[11] Lee H, Jin M, Lavaei J, et al. Pausing Policy Learning in Non?stationary Reinforcement Learning[EB/OL].(2024?05?25)[2024?09?02]. https://arxiv.org/pdf/2405.16053.

[12] Singla J, Agarwal A, Pathak D. SAPG: Split and Aggregate Policy Gradients[EB/OL].(2024?07?29)[2024?09?02]. https://arxiv.org/pdf/2407.20230.

[13] Li J X, Zheng J L, Zheng Y N, et al. Decisionnce: Embodied multimodal representations via implicit preference learning[EB/OL].(2024?05?24)[2024?09?02]. https://arxiv.org/pdf/2402.18137.

[14] Lee S, Wang Y B, Etukuru H, et al. Behavior generation with latent actions[EB/OL].(2024?06?28)[2024?09?02]. https://arxiv.org/pdf/2403.03181.

[15] Mazzaglia P, Verbelen T, Dhoedt B, et al. Multimodal foundation world models for generalist embodied agents[EB/OL].(2024?06?26)[2024?09?02]. https://arxiv.org/pdf/2406.18043.

[16] Park Y, Margolis G B, Agrawal P. Automatic Environment Shaping is the Next Frontier in RL[EB/OL].(2024?07?23)[2024?09?02]. https://arxiv.org/pdf/2407.16186.

[17] Carlini N, Paleka D, Dvijotham K, et al. Stealing Part of a Production Language Model[EB/OL].(2024?07?09)[2024?09?02]. https://arxiv.org/pdf/2403.06634.

[18] Wang H N, Shen Q L, Tong Y, et al. The Stronger the Diffusion Model, the Easier the Backdoor: Data Poisoning to Induce Copyright Breaches Without Adjusting Finetuning Pipeline[EB/OL].(2024?05?26)[2024?09?02]. https://arxiv.org/pdf/2401.04136.

[19] Cai Y Z, Yin S, Wei Y X, et al. Ethical?Lens: Curbing Malicious Usages of Open?Source Text?to?Image Models[EB/OL].(2024?04?18)[2024?09?02]. https://arxiv.org/pdf/2404.12104.

[20] Brown?Cohen J, Irving G, Piliouras G, et al. Scalable AI Safety via Doubly?Efficient Debate[EB/OL].(2023?11?23)[2024?09?02]. https://arxiv.org/pdf/2311.14125.

[21] Panaitescu?Liess M A, Che Z, An B, et al. Can Watermarking Large Language Models Prevent Copyrighted Text Generation and Hide Training Data?[EB/OL].(2024?07?24)[2024?09?02]. https://arxiv.org/pdf/2407.17417.

[22] Shaw S, Nassi B, Sch?nherr L. Generated Audio Detectors are Not Robust in Real?World Conditions[EB/OL].(2024?06?29)[2024?09?02]. https://openreview.net/forum?id=1R7RD1dfcC.

[23] San Roman R, Fernandez P, Elsahar H, et al. Proactive Detection of Voice Cloning with Localized Watermarking[EB/OL].(2024?06?06)[2024?09?02]. https://arxiv.org/pdf/2401.17264.


主管單位:國家電影局

主辦單位:電影技術質量檢測所

標準國際刊號:ISSN 1673-3215

國內統(tǒng)一刊號:CN 11-5336/TB

投稿系統(tǒng):ampt.crifst.ac.cn

官方網(wǎng)站:www.crifst.ac.cn

期刊發(fā)行:010-63245081

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

電影技術微刊 incentive-icons
電影技術微刊
電影技術微刊
565文章數(shù) 208關注度
往期回顧 全部

專題推薦

洞天福地 花海畢節(jié) 山水饋贈里的“詩與遠方

無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 岗巴县| 当雄县| 霸州市| 班玛县| 白水县| 清流县| 新郑市| 龙里县| 渝北区| 临夏县| 武清区| 资阳市| 禹城市| 桃源县| 尉犁县| 临城县| 顺平县| 中宁县| 通道| 兴安盟| 五峰| 潼关县| 莒南县| 拜泉县| 阿坝县| 商城县| 南城县| 宜兰县| 济南市| 拜泉县| 扬中市| 孙吴县| 竹溪县| 天峻县| 和静县| 读书| 郎溪县| 临夏市| 松溪县| 昌乐县| 建湖县|