記者梳理公開信息發現,實踐中,一些有心人士利用“數字人”形象行不法之事。
據報道,張文宏、雷軍等公眾人物形象曾被利用生成“AI數字人”,用來帶貨、惡搞。一些直播間內,“AI數字人”向中老年人群體虛假宣傳保健品,誘導購買。更有甚者,一些不法分子利用“AI數字人”進行敲詐、詐騙等犯罪。例如,山西忻州公安機關工作發現,犯罪嫌疑人王某某利用AI技術,制作合成“數字人”新聞視頻引流,進而進行有償發帖、有償刪帖等敲詐勒索活動。2024年,江西一名65歲老人到銀行辦理業務,聲稱要貸款200萬元給男朋友“靳東”拍戲,后經調查,老人手機里的“靳東”視頻是AI合成的。
重慶大學網絡與大數據研究院副院長羅勇認為,就價值取向而言,AI產業發展不能凌駕于網絡安全之上。對于利用AI技術生成的短視頻,網絡用戶特別是未成年人和老年人由于缺乏必要的鑒別能力,往往會信以為真,由此可能產生負面網絡輿情,甚至對網絡安全造成負面影響。
據受訪專家介紹,當前我國已經出臺了《生成式人工智能服務管理暫行辦法》《互聯網信息服務深度合成管理規定》等法規,對“AI數字人”和AI生成內容的標識、數據來源等提出了具體要求。
今年3月,國家網信辦等四部門聯合發布《人工智能生成合成內容標識辦法》(以下簡稱標識辦法),通過標識提醒用戶辨別虛假信息,規范內容制作、傳播各環節標識行為,為規范AI生成內容劃定紅線。該辦法將于9月1日起施行。
中國政法大學教授鄭飛指出,相關規定一定程度存在落地難的問題。一是監管和技術手段有限,難以徹底發現并糾正違規行為。例如,一些“AI起號”從業者通過預置“鏡像參數”生成極為逼真的虛擬人像,從而逃避平臺的強制標注要求。而監管部門特別是基層執法部門,通常面臨職責不清、執法手段和執法力量不足的問題;二是部分平臺在一定程度上“管不了”也“不想管”。“管不了”在于平臺管理能力與技術手段欠缺,尤其是一些小型平臺,缺乏足夠的審核人力和技術支持?!安幌牍堋眲t是背后利益驅動。未明顯標識“AI數字人”或合成內容,會讓受眾誤以為是真人或真實事件,從而更容易引起人們的興趣和好奇心,吸引更多的流量和關注,進而帶來更多的商業利益。
“以網絡社交平臺為代表的網絡服務提供者在AI生成內容的應用場景中,應當進一步完善用戶使用AI協議規定,并強化對AI生成內容的審核?!绷_勇說。
鄭飛建議,應從明確標識要求和加大責任追究兩方面發力。標識辦法明確要求,一旦檢測到AI生成內容,傳播平臺應在發布內容周邊添加顯著提示標識,并在文件元數據中加隱式標識,確保全流程可溯源。在未來落實過程中,可進一步細化技術標準,比如規定標識文字的最小高度、對比度、展示時長等,讓標識一目了然。另外,對于不按規定標注的行為,需要嚴厲處罰:除加大行政罰款、暫停業務或納入不良信用記錄等行政措施外,還要利用法律手段加大威懾。通過明確、顯著的標識標準和更嚴厲的責任追究,才能從根本上震懾違規不標注行為,實現“AI數字人”應用的透明化、合規化。
(全媒體記者 趙麗 實習生 宋昕怡)
(來源:法治日報)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.