在當今時代,虛假圖片的逼真程度與日俱增,各種虛虛實實的內容,讓人不禁懷疑,“眼見為實”這句話,恐怕將要成為歷史。
但幸好,在大部分情況下,是否能分辨圖片是不是出自AI之手,并不會對我們的生活產生實質性的影響。網絡上的絕大部分圖片,我們都是一看了之。
然而這幾天網上熱傳的一組圖顯示,一些人已經開始用AI圖騙錢套利。有不少店家在社交媒體上表示,自己遇到了使用AI圖片進行“僅退款”的顧客。這些顧客利用豆包等AI生成了商品存在瑕疵的偽證圖片,在屢次被識破后依然硬生生拖到人工審核通道索取退款,給店家、平臺平添了不少煩惱。
(圖源:微博)
這段視頻被發到社交平臺后,引發了大量電商從業者討論。當AIGC進軍“僅退款”領域,是否會模糊規則的邊界?技術與規則之間,如何找到平衡?
從PS到AI
近日,博主@蔡寶寶分享了一條視頻。
某店家售出的一瓶“鞋邊去黑劑”,被顧客要求“僅退款”,出于擔心買家是假報質量問題,店主表示需要消費者上傳商品銷毀視頻,然后再進行退款,這也是很常見的操作了。
接下來發生的事情,就讓人有些哭笑不得了,消費者提供的視頻顯示,她明明在用右手拿著產品放進垃圾桶,這時突然出現第二只右手,兩只右手一起把商品丟進了垃圾桶。
(圖源:bilibili)
當然了,這只是整段視頻之中最明顯的漏洞。
仔細看的話,你還能從這段視頻里看到背景隨著消費者的行動悄然改變、過于平滑規整的視頻運鏡,以及一個明明是斜著扔進去,卻豎著瓶身待在垃圾桶里的“鞋邊去黑劑”。
“整個視頻濃濃的AI味。”店主表示。
這段視頻在電商圈內引發了廣泛關注,從業者紛紛回復,曬出自己店鋪遇到的類似經歷。
有的店主反映,自己曾經遇到過為同一杯子申請退款,但兩次出示的破損照片位置完全不符的情況;還有店主表示遇到過全新衣物呈現出非正常使用導致的人為撕裂,甚至連水果上的霉斑都有明顯的偽造跡象。
(圖源:bilibili)
在“無理由退貨”下線后,曾經熱衷于濫用退款規則的部分消費者,似乎找到了新的方向。
“你們看,右下角直接寫著豆包AI生成。”另一位店主在上傳的視頻里如是說,有趣的是,在他指出對面使用AI圖片后,對面居然撤回,然后把水印截掉重新發了過來,讓他也很無語。
問題來了,用AI來P圖的門檻究竟有多低?
小雷這邊以一張香蕉的照片為例,要求“香蕉發霉,出現斑點,其他不變”,分別發給豆包、騰訊元寶等大模型,不到數秒便生成了較真實的圖片,可以說是幾乎沒有門檻。
(圖源:雷科技)
kAIGC出現之前,我們的身邊就曾發生過類似的假圖“僅退款”事件。
只是在當時,由于手段相對復雜,大部分騙子還需要掌握一定的圖片編輯能力,這要求他們熟練運用Photoshop等專業軟件,通過圖層、蒙版、仿制圖章等工具進行精細操作,甚至要偽造EXIF信息。
這種技術門檻足以將大部分潛在的作惡者擋在門外,使得欺詐行為的規模和頻率都受到極大限制,無法形成產業化的黑色鏈條。
而現在,有了AI的加持,整套流程被簡化為“上傳圖片-提出需求-下載圖片”。
當這件事情沒了門檻,電商平臺真就和黑暗森林差不了多少了。
AI內容以假亂真
事實上,自AIGC這個概念誕生開始,圍繞著它的爭議就沒停下來過。
最初,大家關心的主要是版權爭議,因為大模型本質上是收集和消化海量互聯網數據進行訓練的產物。這些數據集中包含了無數受版權保護的文本、圖像與代碼,因此,AIGC的生成物是否構成對原作品的“衍生作品”,其版權應歸屬于模型開發者、使用者還是數據源的原始創作者,至今仍在法律層面存在巨大爭議。
比如說,今年開年以來很火的“吉卜力化”。
(圖源:X)
再看看下圖,這是一張模仿了畫師“累”畫風的著作。
(圖源:QQ)
模型通過學習數百萬張圖片生成的畫作,其像素級數據與任何單一原圖都不同,但在風格、構圖和元素上卻存在明顯的繼承關系。這種模糊性直接挑戰了現有知識產權法律體系中對于“創作”和“復制”的根本定義。
最諷刺的是,上面這張圖片克隆的原作者“累”還曾發表過對AIGC支持的言論。
(圖源:微博)
隨著相關技術的逐漸成熟,越來越多的AIGC內容流入到傳媒行業。
今年年初,西藏定日縣發生6.8級地震,許多網友在社交平臺上為災民祈福,但是,在一些社交平臺上,冒出了很多AI偽造的圖片,比如這個:
(圖源:小紅書)
這種有經驗者一眼就能分辨的圖片,照樣可以獲得好幾萬的轉評贊。
這樣的案例屢見不鮮,2024年10月,佛羅里達州奧蘭多的迪士尼世界因颶風風暴登陸前出現的龍卷風而關閉。與此同時,有關于迪士尼被海水淹了的新聞也在X上瘋傳,引來不少國外網友的關注。
(圖源:X)
作為一名新聞從業者,我自認為擁有對信息真偽基本的辨別力,但隨著技術的廣泛應用,就連我也時常為真假難辨的信息所惑。
至于普通人,他們就更難辨別了。
而如今,AI視頻的成熟,更是讓部分貪圖蠅頭小利的人找到了新的落腳點。
從去年火遍全網的AI雷軍,再到被瘋狂換臉的靳東、布拉德皮特湯姆克魯斯,相同的騙局在國內同步展開,讓人們誤以為自己一直和大明星保持聯系這個招數可謂是屢試不爽。
(圖源:抖音)
讓不少名人明星深受其擾的同時,Deepfake也成為了AI造假的現象級案件。
如何鑒別AI圖?
說實話,看到AI以假亂真的能力,小雷我確實挺擔心的。
但是比起擔心,我認為現在更重要的是掌握幾個目前還相對適用的辨別思路,即便面對一張高水平的AI生成圖,想單憑肉眼100%斷定真偽非常困難,但至少能保證你不至于完全束手無策。
第一種方法,是追溯圖源。
當我們刷社交媒體的時候,如果看到某些圖片特別棒,我希望大家可以先借助谷歌的圖片搜索能力檢索一下圖源,現在大部分AI內容制作者都會注明圖片是否通過AI生成,這也是在社交媒體這種信息二次流通的領域最好的鑒別方法。
第二種方法,是觀察圖片。
你可以找找圖片中細微的破綻,來判斷圖片的真實性,例如人物的手指、關節、牙齒、眼神等方面是否存在不自然感,影是否統一、自然?有沒有出現不合常理的反射或陰影?
(圖源:雷科技,豆包生成)
還記得幾年前AI技術剛飛速發展的時候,有不少人視AI技術如洪水猛獸,覺得應該將AI扼殺在搖籃里。
在小雷看來,這種想法還是有失偏頗的,新事物的誕生往往都要經歷一番曲折的發展,才能夠逐漸為世人所接受。
AI也是如此,人類要做的就是引導AI健康發展,讓AI真正為我們所用。而不是在技術泛濫的時代里,還要用AI給人類添堵。
像AI換臉詐騙、AI圖片謀取不當收益等行為肯定是要制止的,除了嚴厲打擊之外,還需要一套全面、完整的行業標準,將AI技術關進籠子里,這樣才能讓AI更好為人類服務!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.