十四屆全國人大三次會議開幕前
全國人大代表雷軍
提交了五份建議
其中包括一份:
關(guān)于加強“AI換臉擬聲”
違法侵權(quán)重災(zāi)區(qū)治理的建議
全國人大代表雷軍在建議中指出:人工智能(AI)深度合成技術(shù)的快速發(fā)展,推動了“AI換臉擬聲”在影視、廣告、社交等領(lǐng)域廣泛興起,成為社會喜聞樂見、傳播力強、易成熱點的技術(shù)應(yīng)用。
但同時也看到,“AI換臉擬聲”不當濫用造成了違法侵權(quán)行為的重災(zāi)區(qū),易引發(fā)侵犯肖像權(quán)、侵犯公民個人信息以及詐騙等犯罪行為,甚至造成難以挽回的大規(guī)模形象和聲譽損害,帶來社會治理等風險。
AI深度合成技術(shù)所需素材獲取便利、技術(shù)使用門檻低、侵權(quán)主體及其手段隱蔽性強等特點,給治理帶來較大挑戰(zhàn)。
青少年對前沿技術(shù)應(yīng)用好奇心強,而老年人數(shù)字素養(yǎng)欠缺,往往會成為“Al換臉擬聲”網(wǎng)絡(luò)陷阱鎖定的主要目標,對其身心健康、財產(chǎn)安全以及社會穩(wěn)定造成負面影響。
AI換臉會提取人臉圖像的面部特征,那么,一張靜態(tài)的人像照片被詐騙分子竊取后,也能進行換臉嗎?
眼見不一定為實
單張照片可實時視頻換臉
工業(yè)和信息化部反詐專班實驗室的技術(shù)人員稱,經(jīng)過一段時間的模型訓(xùn)練,一張照片可以在演示者的控制下,像真人一樣做出轉(zhuǎn)頭、張嘴、眨眼、微笑等表情和動作。
專家表示,除了讓照片上的人像活化,AI換臉技術(shù)還能實現(xiàn)在即時視頻通信狀態(tài)下的實時換臉。
不過想要達到實時換臉的效果,一張照片是遠遠不夠的,需要采集不同角度的照片近千張。
聲音的交流同樣不是難事,需預(yù)先采集一些目標人群當中的聲音,進行模型訓(xùn)練后就能進行聲音還原。
因此,建議公眾不要在社交平臺過度公開或分享自己臉部的圖像、動圖及視頻。
AI換臉擬聲詐騙泛濫
到底怎么防?
讓對方用手指
或其他遮擋物在臉前晃動
可以要求對方用手指摁鼻子,或用其他遮擋物在臉前晃動,如畫面出現(xiàn)類似果凍效應(yīng)或者扭曲,那對方很可能正在使用AI換臉技術(shù)。
詢問對方一些私密的問題
可通過詢問對方自己的生日、電話、喜好等,來確認對方的身份。
要求對方線下見面
凡是對方提到轉(zhuǎn)賬、借錢等涉及經(jīng)濟往來的,為安全起見,可要求對方線下見面。
科科提醒,AI詐騙是隱私信息泄露與詐騙陷阱的結(jié)合。要加強對個人隱私的保護:不輕易提供人臉、指紋等個人生物信息;不過度公開或分享動圖、視頻;涉及“朋友”“領(lǐng)導(dǎo)”等熟人要求轉(zhuǎn)賬、匯款的,務(wù)必通過多種途徑核實確認。
不過公眾也不要對AI詐騙過度恐慌,國內(nèi)的科研團隊、科技企業(yè)已經(jīng)在研發(fā)專門針對虛假信息的檢測技術(shù),不斷提升對于語音、面部合成信息的檢測成功率。
可以預(yù)測的是,這些人工智能反詐技術(shù)都將成為對抗“魔法”的“魔法”。
來源:國家應(yīng)急廣播、央視新聞、人民日報、光明網(wǎng)
文章圖片用于公益科普,版權(quán)歸原作者所有,如有侵權(quán),請聯(lián)系刪除
微信公眾號/科普熊貓
抖音號/科普熊貓
新浪微博/@成都科協(xié)
今日頭條/成都科協(xié)
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.