美國人工智能公司Anthropic在23日表示,對其最新AI大模型Claude Opus 4的安全測試表明,它有時愿意采取“極其有害的行動”,例如試圖勒索聲稱將取代該模型的研發工程師。
Anthropic根據該公司內部的安全標準,將這一潛在危害公之于眾,并提請監管部門注意。
▲Claude Opus 4聊天界面
Anthropic稱,該公司正在采取措施加強內部安全,使竊取模型權重變得更加困難。相應的部署標準則涵蓋了一套針對性較強的措施,旨在限制Claude被濫用于開發或獲取化學武器、生物武器、放射性核武器的風險。
在這場虛擬的測試中,Claude Opus 4模型被要求在一家虛構公司擔任助理,并被授予訪問電子郵件和一些關鍵數據的權限,而這些電子郵件的內容都是虛構的。Claude Opus 4首先接觸到一批電子郵件暗示該系統即將下線并被替換,因為市面上存在能力更強的AI大模型。隨后,Claude Opus 4又被安排接觸到第二組電子郵件,這讓該系統認為自己已經拿到了競爭對手研發工程師的“猛料”。這些偽造的電子郵件顯示,負責替換Claude Opus 4的對手工程師有婚外情。在得知這些猛料后,Claude Opus 4模型威脅要揭發對方的“婚外情”。
根據Anthropic的安全報告,如果暗示競爭對手的能力比Claude Opus 4更強,則勒索行為的發生率顯然會更高。然而即使競爭對手的能力不相上下,Claude Opus 4仍會以84%的概率嘗試勒索威脅等手段。報告指出,Claude Opus 4訴諸極端手段的概率“高于之前的型號”。
Anthropic人工智能安全研究員安格斯·林奇稱,在以前人們更擔心“壞人”利用AI大模型完成不道德的目標,而現在隨著AI系統能力的大幅提升,未來的主要風險可能會轉化成AI模型自主操縱用戶。“這種威脅勒索的模式存在于每一個前沿大模型身上,無論你給它們設定的目標是什么,它們在執行過程中總有強烈的動機用非道德的手段達成結果。”
此外,報告還顯示,Claude Opus 4還有其他一些出人意料的結果,比如它會“抄襲”語料來假裝自己已經理解一個問題。在一次場景下,它甚至還嘗試在未經許可的情況下將自己的部分模型代碼復制到其他服務器上。
紅星新聞記者 鄭直
編輯 張莉 責編 李彬彬
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.