近日,西藏日喀則市發(fā)生6.8級地震,牽動人心。然而,一些網(wǎng)民利用AI技術(shù)生成與地震相關(guān)的虛假圖片,誤導(dǎo)網(wǎng)友。特別是一張“被壓廢墟下的小男孩”圖片在多個社交平臺傳播,盡管平臺標(biāo)明為“疑似AI生成”,許多網(wǎng)友仍被誤導(dǎo),紛紛關(guān)心男孩的安危。
這類AI生成的圖片危害究竟有多大,我從幾個角度來說說這件事:
技術(shù)實現(xiàn)角度
從技術(shù)角度上來講,近幾年深度學(xué)習(xí)、GAN(生成對抗網(wǎng)絡(luò))以及擴散模型(Diffusion Model)等生成式 AI 技術(shù)迅速成熟,生成圖像的真實度不斷提升。
早期 AI 合成圖像常常在光影、紋理上存在明顯破綻,容易被發(fā)現(xiàn);但當(dāng)前的高質(zhì)量生成圖像對普通公眾而言,僅憑肉眼常常難以快速分辨真?zhèn)巍?/p>
特別是隨著 Midjourney、Stable Diffusion 等開源或商用工具的普及,使用者只需輸入文字描述就能自動生成極具逼真感的圖片。移動端應(yīng)用也進一步降低了操作難度,讓普通用戶也可輕易創(chuàng)作并大量發(fā)布各類虛實難辨的圖像內(nèi)容。
你看我用ChatGPT的Dalle,幾秒鐘就可以出一張圖片。
需要注意的是,即使圖片有很多漏洞,但是在這種情緒裹挾下,一般人很難注意到這些點。就像被傳播的那張圖片一樣,小孩有六根手指,這是明顯的AI創(chuàng)作的圖片。但一般人真的不太會注意到這些細節(jié)。
信息傳播角度
人的注意力和一天中除了吃喝拉撒之外的有效時間是類似的,都是有限的,關(guān)注A信息的時候就會漏看B信息,如果恰好A是偽造的,而B是重要信息,那這個時候就造成了注意力的流失。
特別是在社交媒體平臺上,用戶每天都面對海量信息,能夠停留、思考與分析的時間非常有限。
災(zāi)難信息觸發(fā)了用戶的同情心或焦慮情緒,更易激發(fā)快速轉(zhuǎn)發(fā)、點贊或評論,形成裂變式傳播。
大多數(shù)人看到令人揪心的圖片時,第一反應(yīng)是“該如何幫助”或“表達悲痛”,很少會立刻想去辨別圖片真?zhèn)巍A硗庠谄脚_的推薦算法驅(qū)動下,一張高互動的“悲情圖片”更容易被繼續(xù)推送給其他用戶,強化了虛假信息的擴散。
部分自媒體賬號為了獲得流量或熱度,會對圖片或文字進行再包裝,放大了圖像的情感沖擊力,使得真?zhèn)涡畔⒒祀s更加嚴重。這種二次、三次傳播過程中,信息源頭往往被弱化或丟失,公眾更難追溯原始出處。
它的危害其實初期并不會有實質(zhì)性的危害,比如虛假災(zāi)情圖片可能造成公眾和官方對救援資源配置與輿論引導(dǎo)的誤判,甚至引發(fā)無端猜測或恐慌,干擾真實救災(zāi)工作的進行。
但如果有真實受災(zāi)者,他們的情況反而被虛假事件搶奪關(guān)注度,或是混淆了真正需要幫助的人和謠言制造者,真正的災(zāi)害救援信息也容易被虛假內(nèi)容淹沒。
監(jiān)管及預(yù)防角度
這里面的門道就多了,從技術(shù)角度,可以用數(shù)字水印甚至區(qū)塊鏈的方法給每個生成的作品打上標(biāo)簽,以便迅速定位到始作俑者。
從平臺角度,這種關(guān)于災(zāi)情的帖子也應(yīng)該更加注意審核,特別是對AI生成的內(nèi)容,至少得打上疑似的標(biāo)簽。
從用戶角度,也應(yīng)該在轉(zhuǎn)發(fā)之前自我審核一遍,其實很多時候就是疏于審核,所以才會忽略非常多的漏洞。
其實算是一種合力,才讓這張圖片得以錯誤地傳播了出去。
信息始終會有假信息,但在災(zāi)難面前,利用人們的同情心傳播這些虛假內(nèi)容必定是最惡劣的。我們在貢獻自己愛心的同時一定要認真辨別,警惕此類虛假信息。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.