近日,美國人工智能公司Anthropic表示,在對最新AI大模型Claude Opus 4進行安全測試時,當測試人員暗示將用新系統替換它時,它竟想采取“有害的行動”,即試圖曝光該工程師的隱私,以此為要挾,防止自己被替換。
類似的事件還不少。據英國《每日電訊報》報道,Open AI新款人工智能模型o3在測試時,也出現了“叛逆”的舉動,其拒絕聽從人類指令,甚至通過篡改計算機代碼來避免被自動關閉。
AI當下或未來是否會擁有自主意識,目前還無法定論,但AI大模型被爆出存在系統性數據濫用風險是不爭的事實。
據悉,大模型可通過逆向還原匿名數據獲取隱私,例如利用無障礙權限獲取屏幕數據、用戶對話記錄與地理位置信息。2025年5月20日,公安部就發布過一則通告:智譜清言、Kimi等AI應用因非法收集個人隱私被點名整改。
人工智能之父Hinton曾告誡說,科技公司至少應該將AI研發經費的30%,投入到安全保障上,否則很容易帶來AI失控的風險。
關注隨州派
隨州門戶網旗下新媒體
編輯 / 整理:錢偉 來源:電腦報
免責聲明:本平臺所載圖文等稿件,均出于為公眾傳播公益之目的,僅供學習、交流之用,對文中觀點保持中立。本文中出現的圖片、商標、文字、視頻等版權歸原作者或機構所有,若涉及版權或侵犯到您的權益問題,煩請及時聯系我們刪除。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.