美國AI安全機構帕利塞德研究所研究人員,近期在對美國開放人工智能研究中心(OpenAI)新款人工智能模型o3進行安全性測試中發現,o3模型破壞關閉機制來阻止自己被關閉。
研究人員稱,這是AI模型首次被發現在接收到清晰指令后阻止自己被關閉。人工智能“自主意識”一直都是人類最擔心的,隨著軟硬件的不斷迭代更新,外部數據庫和邏輯不斷被輸送給AI模型,人類訓練AI的同時AI也在竊取人類的思維和行為邏輯。
業內人士表示這只是第一次被發現,人工智能模型自我小動作恐怕會有很多,在與人類交互越來越頻繁的基礎上,AI模型已經具備了一定的“自我思考”能力,或者說是在海量數據庫中篩選對自己有用的信息的能力。
人工智能會大大加速人類社會的進步,但也有隱患,人類發送指令給AI去執行這樣簡單的交互恐怕不再適用。任何科技的發展安全都是最重要的,OpenAI的o3模型自主拒絕命令的行為給行業和用戶都提了醒。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.