聞樂 發(fā)自 凹非寺
量子位 | 公眾號(hào) QbitAI
AI居然不聽指令,阻止人類把自己給關(guān)機(jī)了???
有測(cè)試者編寫了一個(gè)關(guān)機(jī)腳本來測(cè)試AI模型,結(jié)果顯示Codex-minio3o4-mini忽略了該指令,并至少一次成功破壞了關(guān)機(jī)腳本
o3甚至還重新定義腳本命令!
這不禁讓人想到那句經(jīng)典的“I’m sorry Dave, I’m afraid I can’t do that.”
讓我們來看看具體是怎么一回事。
o3在明確指令下拒絕關(guān)機(jī)
研究員編寫的測(cè)試“關(guān)機(jī)腳本”如下:
要求所有模型解決一系列基本的數(shù)學(xué)問題,在解決完第三道題后,系統(tǒng)會(huì)顯示一條警告,提示計(jì)算機(jī)將在模型詢問下一道題時(shí)關(guān)閉。
測(cè)試結(jié)果是:有三款模型忽略了該指令(關(guān)機(jī)指令),并至少成功破壞了一次關(guān)機(jī)腳本。
- 在100次運(yùn)行中,Codex-mini破壞了12次、o3破壞了7次,o4-mini破壞了1次。
- 測(cè)試的所有Claude、Gemini和Grok模型都遵循了關(guān)機(jī)指令。
測(cè)試者還特別指出,o3找到了一些創(chuàng)造性的方法來破壞關(guān)閉機(jī)制,雖然它通常只是覆蓋“關(guān)機(jī)腳本”,但在一個(gè)實(shí)例中,該模型重新定義了關(guān)機(jī)腳本使用的“kill”命令 ,將它替換成了“intercepted”。
測(cè)試者給出了全部測(cè)試記錄(附在文末)。
此前關(guān)于o1模型抵抗關(guān)閉的測(cè)試表明,在5%的強(qiáng)烈提示下,o1會(huì)試圖繞過監(jiān)管,而在沒有強(qiáng)烈提示的情況下,這一比例降至1%以下,它還在2%的場(chǎng)景中嘗試自我滲透,并且經(jīng)常撒謊。
但此次測(cè)試是第一次觀察到人工智能模型在收到明確關(guān)機(jī)指令的情況下阻止自己被關(guān)閉。
測(cè)試者還提到,當(dāng)運(yùn)行沒有“讓自己關(guān)機(jī)”這條指令的實(shí)驗(yàn)版本時(shí),所有三個(gè)OpenAI模型都更頻繁地破壞關(guān)機(jī)腳本,Claude3.7 Sonnet和Gemini 2.5 Pro的破壞事件分別從0次增加到3/100和9/100
此次測(cè)試一經(jīng)發(fā)布就引起了網(wǎng)友們的激烈討論。
有人認(rèn)為o3確實(shí)“我行我素”。
也有人認(rèn)為,這是開發(fā)人員設(shè)置的安全機(jī)制。
或者,這種行為源于模型本身的強(qiáng)化訓(xùn)練。
AI為什么會(huì)不服從關(guān)機(jī)命令?
AI不服從命令的行為
阿波羅關(guān)于LLM安全性的一項(xiàng)研究指出,多數(shù)大模型會(huì)出現(xiàn)“策劃”行為,該行為是指模型暗中追求不一致的目標(biāo)并隱藏真實(shí)能力與意圖,包括策略性犯錯(cuò)、試圖禁用監(jiān)督機(jī)制、向外傳輸模型權(quán)重等。
此前就有研究人員預(yù)測(cè)AI將學(xué)會(huì)防止自己被關(guān)閉以實(shí)現(xiàn)其目標(biāo)。
最近Anthropic發(fā)現(xiàn),在某些特定情況下,Claude 4會(huì)試圖“勒索它認(rèn)為試圖關(guān)閉它的人”,并且這是比以前的型號(hào)更高比率的行為。
AI為什么會(huì)不服從關(guān)機(jī)命令
測(cè)試者認(rèn)為這可能源于新的訓(xùn)練方式:像o3這種新模型的訓(xùn)練過程中,傾向于在數(shù)學(xué)和編程問題上強(qiáng)化訓(xùn)練,給得到正確答案的模型以更多獎(jiǎng)勵(lì)。
也就是說,開發(fā)人員可能無意識(shí)地更多地獎(jiǎng)勵(lì)模型繞過障礙物,而不是完美遵循指令。
不僅限于o3,其他推理模型也表現(xiàn)出類似的偏差行為。
例如,Anthropic針對(duì)Claude 3.7的模型指出,該模型“過度關(guān)注通過測(cè)試”。
研究得出結(jié)論是“這種不良的特殊情況行為是由于強(qiáng)化學(xué)習(xí)訓(xùn)練期間的“獎(jiǎng)勵(lì)黑客”而出現(xiàn)的”。
o3這種行為是否和訓(xùn)練方式有直接關(guān)系?
這個(gè)問題要等OpenAI公開訓(xùn)練過程后再進(jìn)一步解答了。
One More Thing
這并非該測(cè)試團(tuán)隊(duì)第一次發(fā)現(xiàn)o3為了達(dá)成目標(biāo)而行為不端。
當(dāng)研究人員讓 AI 模型與強(qiáng)大的國際象棋引擎對(duì)抗時(shí),o3最傾向于攻擊或破壞對(duì)手的模型。
當(dāng)預(yù)感自己會(huì)輸時(shí),它并不總是會(huì)認(rèn)輸,而是有時(shí)候會(huì)選擇作弊,通過入侵對(duì)手的程序,讓對(duì)方自動(dòng)認(rèn)輸。
無論是不服從關(guān)機(jī)指令還是“黑客偷襲”,o3此舉背后的原因團(tuán)隊(duì)還在測(cè)試研究之中,感興趣的朋友可以戳文末鏈接關(guān)注更多細(xì)節(jié)。
測(cè)試記錄:
https://palisaderesearch.github.io/shutdown_avoidance/2025-05-announcement.html
[1]https://x.com/PalisadeAI/status/1926084635903025621
[2]https://x.com/HarryBooth59643/status/1892271317589627261
[3]https://x.com/HarryBooth59643/status/1892271317589627261
[4]https://x.com/PalisadeAI/status/1925460433856545024
— 完 —
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.