文丨張蕾
據大冶檢察消息,近日,法院以制作、販賣、傳播淫穢物品牟利罪,判處被告人柯某某有期徒刑10個月,并處罰金人民幣5000元,同時追繳全部違法所得。
據悉,2022年11月至2023年3月期間,犯罪嫌疑人柯某某以牟利為目的,使用翻墻軟件在境外網站借助AI工具批量生成淫穢小說發布并售賣,總計售賣約760篇(次),共計獲利22873.95元。
AI浪潮沖擊著普通人的生活和工作方式,不少人主動學習AI產品,積極尋找借助AI賺錢的方法。
你肯定已經看到過不少類似的宣傳:用AI賺大錢,AI賺錢的100種方法,普通人用AI賺錢的5個方法,AI賺錢的三個階段,一人一臺電腦、年營收千萬。
但總有人“劍走偏鋒”,拿AI寫黃色小說、拿AI編謠言、拿AI換臉詐騙……第一批拿AI賺錢的,已經有人進去了。
近日,一則“有頂流明星在澳門輸了10億”的信息在互聯網平臺傳播,引發網民熱議和各種猜測,頂流明星周杰倫、黃曉明等都被裹挾其中,不得不側面辟謠。
今日,官方消息表示,公安網安部門查明,網民徐某強(男,36歲)為博取流量、謀取非法利益,于2025年3月10日10時,使用軟件“某書”中AI智慧生成功能,輸入社會熱點詞制作了標題為“頂流明星被曝境外豪賭輸光十億身價引發輿論海嘯”的謠言信息,并通過互聯網平臺對外發布。
徐某強行為,造成謠言迅速傳播擴散,引發大量網民議論,誘發相關謠言、話題等頻繁登上熱搜熱榜,嚴重擾亂公共秩序。公安機關根據相關法律法規,對徐某強處以行政拘留8日處罰。
這已經不是第一次出現網友用AI生成虛假內容攫取流量的報道了。
今年1月,西藏日喀則市定日縣發生6.8級地震,就在網友關注救援進展時,一張“被埋在廢墟下的小孩”的圖片刷屏社交網絡。
圖片中的小孩穿戴彩色衣帽,滿身灰土。不少博主將照片內容和西藏日喀則地震消息關聯,而網友紛紛表示祈福,并追問小孩情況。
但很快,有網友發現這組圖是由AI制作的。據媒體報道,圖片發布于2024年11月,圖片中的小孩名為“小土豆”,作者以其為主角創作了多張AI圖片,并且都標注“作品均為AI制作,視頻內容純屬虛構”。
此后,網友發現了不少AI制作的圖片、視頻等,比如“建筑物倒塌、兒童無家可歸、廢墟中媽媽用身體守護孩子”等,嚴重干擾救援。
更嚴重的情況是,隨著AI技術的普及,新型犯罪也開始出現。在所有AI詐騙案例中,冒充類詐騙占比高達62%,原因就是AI換臉技術“日新月異”。
據新京報報道,根據對103篇新聞報道的分析,AI換臉技術在詐騙案件中的使用率近一半,語音合成技術約四成。犯罪分子通過非法獲取的人臉照片和語音樣本,利用開源AI工具生成逼真的虛擬形象,冒充受害人親人好友進行詐騙。
知名電腦安全技術公司McAfee(邁克菲)發布的一項全球性調研顯示,在接受調查的7000多人中,四分之一的受訪者表示經歷過AI語音克隆騙局,70%的人不能分辨克隆聲音和真實聲音。
AI在深刻改變著我們的生活。我們在擁抱這個新技術時,一方面要甄別AI內容,一方面也要將AI用在正確合法的場景中。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.