圖源:網絡
據泰國《曼谷郵報》報道,泰國總理佩通坦在概述該國2026財年預算的政策和指導方針時,提及了人工智能(AI)詐騙問題,并表示:“曾有詐騙分子利用AI偽造外國領導人的聲音與我聯系,我差點就上當了。”此事件立即引發了網民討論。(1月16日《北京日報》)
從復旦大學附屬華山醫院感染科主任張文宏在遭到AI技術篡改下“被帶貨”,到泰國總理透露自己曾遭電信詐騙且“差點就上當”,引發了人們對于AI技術濫用的關注和熱議。
AI技術的發展,無疑是人類社會的重大科技變革,其產生的影響是難以估量的。有了AI,就可以實現智能導航,不僅可以指引人們到達目的地,而且還可以找到最短、最暢通的路線。哪怕是“路癡”,也不必隨身攜帶地圖,不必時常停下車來問路,不必擔心因為走錯路而浪費大量時間。
實際上,AI的應用遠不止于此。從智能手機到“小愛同學,幫我開空調”“小度,小度,幫我放首歌”,從智能送餐的機器人、智能駕駛的汽車,到智能行動和作戰的機器狗,再到嫦娥六號在月球背面自動取壤,AI已經深入到人類生活、生產、科學的方方面面,極大地方便和造福了人類。
但AI的發展也是雙刃劍。張文宏“帶貨”的視頻是AI合成的,模仿某國領導人騙泰國總理捐款的聲音也是AI合成的,甚至連“被壓在廢墟下的小男孩”照片居然也是AI合成的。一項全球范圍內的調查顯示,在來自世界各地的7000多位受訪者中,有四分之一的成年人,經歷過AI語音騙局,70%的受訪者表示,他們難以分別克隆聲音與真實人聲。
AI詐騙頻發,名人屢被“冒充”,青少年與AI對話后自殺……AI技術發展過程中,安全挑戰一直如影隨形。以前人們常說,“盡信書,不如無書”。如今,我們也要意識到,“盡信AI,不如無AI”。
眾所周知,核技術如果用于發電就造福人類,如果用于戰爭就帶來毀滅。基因技術如果用于治療疾病就造福人類,如果用于克隆人就帶來倫理災難。同樣的道理,雖然AI作為科學技術是中性的,本無善惡之分,但如果開發、使用它的人居心不良,就有可能導致AI被用于傷害而非服務人類。因此,如何確保“AI向善”,已經成為一個不得不面對和解決的時代課題。
“AI向善”強調的是AI發展的倫理性。AI的本質屬性是工具,人類發展AI技術的目的,是讓AI更好地服務、造福人類社會。如果人們忘了、偏離了這個目的,就有可能“走得太遠,忘了為什么出發”,導致AI的濫用、異化,反過來傷害人類。
人們在使用AI作畫、寫作時,不能造謠、“照騙”、抄襲,也不能因為開上了智能汽車,就在它的技術尚未成熟的時候,躺在駕駛室里睡大覺,更不能放棄對AI發展的引導,讓任由其野蠻生長。盲目的信任與放任,必然導致事與愿違,最終反噬人類。
針對AI濫用帶來的社會問題,人們可以通過構建治理機制、加強技術研究、優化倫理訓練與數據、加強知識產權保護等方面多管齊下,引導科技向善,推動AI行業良性發展。同時,加大對AI防御與鑒偽技術的研發和應用,以技術防御和人工干預相結合的方式,筑牢安全防線。此外,對于利用AI技術從事侵犯他人權利、危害公共安全等行為的不法分子,必須依法嚴懲,絕不姑息。
總之,“盡信AI,不如無AI”。對于AI的發展,人們不能盲目樂觀,更不能盲目信任和放任,而要提高警惕,增強憂患意識。只有從技術監管、法律規范、道德引領等方面對AI發展進行規范,給它戴上“緊箍”,才能把“AI向善”落到實處。(文/李蓬國)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.