在ISC.AI2024數字安全峰會上,鄔江興院士的發言引起了廣泛關注。他直指當前市場的一個痛點:很多明知存在安全問題的產品,仍然被推向了市場,責任與風險的失衡狀況令人擔憂。
鄔院士深入剖析了網絡空間安全問題頻發的根本原因,指出經典計算機體系結構存在技術基因缺陷。他進一步闡釋,AI應用系統的安全問題可以分為非內生安全問題和內生安全問題,而后者主要源于存儲程序控制機理的自在性矛盾。
“人工智能作為賦能技術,不能走先發展后治理的道路。”鄔院士強調,否則將在網絡安全、技術風險、社會影響等多個層面帶來不可估量的風險。他特別提到,AI系統存在的不可解釋性、不可判識性、不可推論性,是當前AI應用推廣中的最大障礙。
那么,在AI技術飛速發展的今天,我們如何平衡創新與安全性的關系呢?這是一項復雜而重要的任務。
從研發初期開始,我們就應該將安全性作為設計的一部分,確保AI系統在設計時就充分考慮到潛在的安全風險。鄔院士提出的內生安全理論強調,AI系統的安全性應由其內在構造決定,就像金剛石的硬度由其分子結構決定一樣。
同時,我們可以利用AI算法的多樣性和特異性,通過引入多個算法模型來增加判識維度,提高系統的魯棒性和安全性。定期對AI系統進行安全性評估和滲透測試,也是發現并修復潛在安全漏洞的有效手段。
除此之外,提高AI決策過程的透明度也至關重要。這樣,系統的行為和決策才能夠被用戶和監管者理解和驗證,從而增強公眾對AI技術的信任。
當然,制定明確的法規和行業標準也是必不可少的。這要求AI產品和服務在推向市場前必須滿足一定的安全標準,從源頭上保障技術的安全性。
在此過程中,鼓勵技術、法律、倫理等不同領域的專家合作,共同研究和解決AI技術發展中的安全問題,也是推動AI技術健康發展的關鍵。
同時,提高用戶對AI系統潛在風險的認識,教育他們如何安全地使用這些技術,也是保障AI技術安全應用的重要環節。
制定應急響應計劃,以便在AI系統出現安全問題時能夠迅速有效地應對,同樣不容忽視。
最后,鼓勵企業、研究機構和政府部門之間共享關于AI安全的最佳實踐和經驗教訓,也是推動整個行業安全水平提升的有效途徑。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.