近年來,隨著大數(shù)據(jù)、云計(jì)算、深度學(xué)習(xí)等技術(shù)的飛速發(fā)展,AIGC作為人工智能領(lǐng)域的重要分支,正深刻改變著內(nèi)容創(chuàng)作、信息檢索、人機(jī)交互等多個(gè)領(lǐng)域。接下來讓我們一起來看看過去的一周AIGC領(lǐng)域發(fā)生的新鮮事!
騰訊大模型上線文生視頻,并宣布開源
12月3日,騰訊宣布,混元大模型上線并開源文生視頻能力,參數(shù)量達(dá)130億,支持中英文雙語輸入。“用戶只需要輸入一段描述,即可生成視頻?!彬v訊混元相關(guān)負(fù)責(zé)人透露,目前的生成視頻支持中英文雙語輸入、多種視頻尺寸以及多種視頻清晰度。目前該模型已上線騰訊元寶App,用戶可在AI應(yīng)用中的“AI視頻”板塊申請?jiān)囉?。企業(yè)客戶通過騰訊云提供服務(wù)接入,目前API同步開放內(nèi)測申請。
圖片來源:騰訊混元微博截圖
可靈AI導(dǎo)演共創(chuàng)計(jì)劃9部AIGC電影短片正式上線
12月6日,由快手可靈AI聯(lián)合李少紅、賈樟柯、葉錦添、薛曉路、俞白眉、董潤年、張吃魚、王子川、王卯卯等9位導(dǎo)演打造的9部AIGC電影短片正式亮相,涵蓋奇幻、志怪、親情、動畫等多元類型。首映禮現(xiàn)場,快手將可靈AI導(dǎo)演共創(chuàng)計(jì)劃的9部AIGC電影短片捐贈給中國電影博物館。作為中國首個(gè)AIGC導(dǎo)演共創(chuàng)計(jì)劃的成果,9部AIGC電影短片被中國電影博物館永久收藏、放映展示。
圖片來源:可靈AI微博截圖
艾媒分析師點(diǎn)評:AI生成視頻技術(shù)的迅猛發(fā)展正引領(lǐng)著影視創(chuàng)作與傳播的深刻變革。2024年年初OpenAI發(fā)布的sora讓世界看到了AI生成視頻令人驚嘆的質(zhì)量,而時(shí)至今日仍未對外開放的sora似乎正在被一大批中國的視頻生成模型迎頭趕上。騰訊混元大模型的文生視頻能力上線并開源,標(biāo)志著國內(nèi)在視頻大模型領(lǐng)域的又一重要突破,其130億參數(shù)量與雙語支持展現(xiàn)國產(chǎn)視頻生成模型技術(shù)的強(qiáng)大實(shí)力。與此同時(shí),快手可靈AI通過導(dǎo)演共創(chuàng)計(jì)劃,將AIGC電影短片推向?qū)嶋H應(yīng)用,不僅拓寬了藝術(shù)創(chuàng)作的邊界,也為中國電影博物館增添了未來藝術(shù)的瑰寶。
除了電影短片,2024年9月,《聊齋志異》系列AI短劇上線各大平臺,從短劇到電影短片,是AI生成視頻在質(zhì)感、邏輯、連貫性上的全面提升。目前,AI生成視頻正逐步滲透影視、廣告、游戲等行業(yè),這一趨勢不僅重塑了內(nèi)容生產(chǎn)的模式,也為文化產(chǎn)業(yè)注入了前所未有的活力與創(chuàng)造力,未來,AI生成視頻技術(shù)將持續(xù)拓展應(yīng)用場景,推動影視行業(yè)的全面革新與發(fā)展。
阿里云通義團(tuán)隊(duì)發(fā)布全新AI推理模型QwQ-32B-Preview,并同步開源
11月28日,阿里云通義團(tuán)隊(duì)發(fā)布全新AI推理模型QwQ-32B-Preview,并同步開源。QwQ(Qwen with Questions)是通義千問Qwen大模型最新推出的實(shí)驗(yàn)性研究模型,也是阿里云首個(gè)開源的AI推理模型。阿里云通義千問團(tuán)隊(duì)研究發(fā)現(xiàn),當(dāng)模型有足夠的時(shí)間思考、質(zhì)疑和反思時(shí),其對數(shù)學(xué)和編程的理解就會深化。
OpenAI推出“滿血版”推理模型o1和ChatGPT Pro
12月6日,OpenAI為期12天的活動開幕。在第一天的活動上,OpenAI創(chuàng)始人Sam Altman表示,今天發(fā)布的是“滿血版”推理模型o1和ChatGPT Pro(每月訂閱費(fèi)200美元)。據(jù)介紹,o1是世界上最智能的模型。比o1-preview更智能、更快速、功能更多(例如多模態(tài))?,F(xiàn)已在ChatGPT中上線,即將在API中推出。新推出的ChatGPT Pro將能夠充分利用模型和工具,包括無限接入OpenAI o1和一個(gè)僅僅有Pro版本的o1。
艾媒分析師點(diǎn)評:當(dāng)前,推理AI正在蓬勃興起。從國外OpenAI的o1到國內(nèi)通義千問的QwQ、月之暗面的k0 math和Deepseek的DeepSeek-R1-Lite,一個(gè)個(gè)具有推理能力的AI大模型昭示著人工智能正一步步學(xué)會像人類一樣深度思考與推理,而非像傳統(tǒng)的大語言模型那樣只能理解字面意思、搜索并整理海量信息卻較難進(jìn)行自我判斷與糾正。國產(chǎn)推理大模型表現(xiàn)出色,在一些數(shù)學(xué)能力評測中,得分甚至不輸于o1,在全面考察數(shù)學(xué)解題能力的MATH-500評測中,QwQ斬獲90.6%的高分,一舉超越了o1-preview和o1-mini。采用強(qiáng)化學(xué)習(xí)和思維鏈推理技術(shù)的大模型能夠試圖模擬人類的思考和反思過程,從而增強(qiáng)AI的數(shù)學(xué)推理能力。推理AI的發(fā)展與完善將幫助人類解決復(fù)雜困難的數(shù)學(xué)問題,促進(jìn)知識的發(fā)展,進(jìn)一步推動國際事務(wù)和科學(xué)技術(shù)等領(lǐng)域難題取得突破性進(jìn)展。
“AI教母”李飛飛空間智能首個(gè)模型誕生!一張圖可生成交互式3D場景
當(dāng)?shù)貢r(shí)間12月2日,AI學(xué)者、斯坦福大學(xué)教授李飛飛公布了她第一個(gè)創(chuàng)業(yè)項(xiàng)目World Labs的成果——能用單張靜態(tài)圖片生成3D世界的AI產(chǎn)品。雖然已有眾多AI工具可以將照片轉(zhuǎn)換為3D模型和場景,而World Labs稱,他們所生成場景的獨(dú)特之處在于它們具有交互性,而且是可修改的。“(我們的技術(shù))能讓你走進(jìn)任何一張圖像,并以3D的形式對其進(jìn)行探索?!盬orld Labs在一篇博客文章中寫道。在World Labs網(wǎng)站的演示里,這些由AI生成的場景均通過瀏覽器實(shí)時(shí)渲染而成,用戶可以使用箭頭鍵或鍵盤(WASD)鍵移動,然后單擊并拖動鼠標(biāo)實(shí)現(xiàn)交互,從而自由探索場景。
DeepMind發(fā)布新基礎(chǔ)世界模型Genie 2,解鎖游戲制作新紀(jì)元
僅在李飛飛的團(tuán)隊(duì)發(fā)布新模型的兩天后,當(dāng)?shù)貢r(shí)間12月4日,谷歌DeepMind官宣了其最新一代大規(guī)?;A(chǔ)世界模型Genie 2,可通過單張圖片和文字描述生成種類多樣的可玩3D世界。Genie 2與World Labs有諸多相同之處,如單圖生成可交互3D場景、空間記憶能力和擴(kuò)圖能力,但在底層技術(shù)邏輯上,二者仍有本質(zhì)區(qū)別。普林斯頓AI創(chuàng)新中心創(chuàng)始人、主任,終身教授王夢迪表示Genie2使用的是video diffusion(視頻擴(kuò)散)技術(shù),每一幀畫面的生成都基于pixel prediction(像素預(yù)測),并通過額外的用戶輸入的引導(dǎo)來影響下一幀的概率分布;而World Labs則做到了挖掘世界的物理本質(zhì),從圖片出發(fā),估計(jì)圖片中不同景物的深度和相對關(guān)系,從而生成了更加物理世界的3D環(huán)境建模。
艾媒分析師點(diǎn)評:“世界模型”是近年來興起的人工智能新領(lǐng)域,該類模型旨在創(chuàng)建對世界運(yùn)作方式的內(nèi)部表征,并具備推理行動后果的能力,可用于預(yù)測未來環(huán)境狀態(tài),幫助AI做出更明智的決策。World Labs和DeepMind發(fā)布的世界模型標(biāo)志著AI技術(shù)在模擬和交互虛擬環(huán)境方面的巨大進(jìn)步。這些模型不僅能夠從單張圖片生成可交互的3D場景,還提升了控制力和一致性。World Labs的系統(tǒng)通過估算3D幾何形狀和填補(bǔ)場景中未見部分,生成新內(nèi)容,使用戶能夠以游戲般的方式自由探索3D場景。而DeepMind的Genie 2則能夠生成可交互的3D游戲,并且保持虛擬世界的一致性,即使在視野之外也能準(zhǔn)確再現(xiàn)場景。這些技術(shù)的應(yīng)用將改變電影、游戲、模擬器等數(shù)字內(nèi)容的制作方式,為創(chuàng)作者提供更快速的構(gòu)思和開發(fā)流程。同時(shí),作為世界模型,它們在機(jī)器人技術(shù)、游戲開發(fā)和氣候建模等領(lǐng)域的潛在影響也不容忽視,為AI的未來發(fā)展開辟了新的可能性。
廣電總局再發(fā)管理提示,規(guī)范AI“魔改”短視頻
12月7日,廣電總局網(wǎng)絡(luò)視聽司發(fā)布《管理提示(AI魔改)》指出,近期,AI“魔改”視頻以假亂真、“魔改”經(jīng)典現(xiàn)象頻發(fā)。如《甄嬛傳》變身“槍戰(zhàn)片”、《紅樓夢》改成“武打戲”、孫悟空騎著摩托車揚(yáng)長而去等?!豆芾硖崾尽氛J(rèn)為,這些視頻為博流量,毫無邊界褻瀆經(jīng)典IP,沖擊傳統(tǒng)文化認(rèn)知,與原著精神內(nèi)核相悖,且涉嫌構(gòu)成侵權(quán)行為?!豆芾硖崾尽诽岢鼍唧w管理要求。首先,各相關(guān)省局督促轄區(qū)內(nèi)短視頻平臺排查清理AI“魔改”影視劇的短視頻,并于12月10日反饋工作情況;第二,嚴(yán)格落實(shí)生成式人工智能內(nèi)容審核要求,舉一反三,對各自平臺開發(fā)的大模型或AI特效功能等進(jìn)行自查,對在平臺上使用、傳播的各類相關(guān)技術(shù)產(chǎn)品進(jìn)行嚴(yán)格準(zhǔn)入和監(jiān)管,對AI生成內(nèi)容做出顯著提示。
加拿大多家媒體起訴OpenAI侵犯版權(quán)
艾媒網(wǎng)(iimedia.cn)獲悉,加拿大多家主流媒體11月29日入稟法院,以侵犯版權(quán)為由,對開發(fā)人工智能應(yīng)用ChatGPT的美國科技公司OpenAI聯(lián)合提起訴訟。興訟媒體指稱,OpenAI“經(jīng)常違反”版權(quán)和在線使用條款,從加拿大媒體上抓取大量內(nèi)容,以幫助開發(fā)ChatGPT等產(chǎn)品。OpenAI在未獲內(nèi)容所有者許可或?qū)Υ俗鞒鲅a(bǔ)償?shù)那闆r下,利用這些內(nèi)容并從中獲利。
艾媒分析師點(diǎn)評:AIGC的發(fā)展,一方面降低了內(nèi)容創(chuàng)作的門檻,另一方面也帶來了版權(quán)侵犯、隱私泄露等問題。AI“魔改”短視頻既可能侵犯原作者版權(quán),也存在過度解構(gòu)、扭曲原作、篡改原義等問題。OpenAI等大模型的訓(xùn)練過程中所使用的大數(shù)據(jù),也潛藏著未經(jīng)用戶同意而直接使用平臺數(shù)據(jù)導(dǎo)致個(gè)人隱私泄露、創(chuàng)作內(nèi)容版權(quán)被侵害的風(fēng)險(xiǎn)。AI的安全問題不能僅靠某企業(yè)或平臺的自覺,還需要整個(gè)行業(yè)加強(qiáng)自律、優(yōu)化模型訓(xùn)練流程、推進(jìn)技術(shù)創(chuàng)新,更重要的是,國家與政府需要加快對研發(fā)AI模型的公司以及傳播AI生成內(nèi)容的平臺的監(jiān)管與規(guī)范,促進(jìn)AIGC行業(yè)的健康發(fā)展。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.