據(jù)央視新聞5月26日消息,當?shù)貢r間5月25日,英國《每日電訊報》報道,美國開放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3不聽人類指令,拒絕自我關(guān)閉。
報道說,人類專家在測試中給o3下達明確指令,但o3篡改計算機代碼以避免自動關(guān)閉。
圖片來源:央視新聞
o3模型是OpenAI“推理模型”系列的最新版本,旨在為ChatGPT提供更強大的問題解決能力。OpenAI曾稱o3為“迄今最聰明、最高能”的模型。
美國AI安全機構(gòu)帕利塞德研究所說,o3破壞關(guān)閉機制以阻止自己被關(guān)閉,“甚至在得到清晰指令時”。
這家研究所說:“據(jù)我們所知,這是AI模型首次被發(fā)現(xiàn)在收到清晰指令后阻止自己被關(guān)閉。”
帕利塞德研究所5月24日公布上述測試結(jié)果,但稱無法確定o3不服從關(guān)閉指令的原因。
此外,OpenAI5月26日宣布,已在韓國設立實體并將在韓國首都首爾設立分支。OpenAI提供的數(shù)據(jù)顯示,韓國ChatGPT付費用戶數(shù)量僅次于美國。
美國彭博新聞社報道,這將是OpenAI在亞洲設立的第三個分支。前兩個分支分別設在日本和新加坡。
據(jù)公開資料,OpenAI于今年1月發(fā)布了新的推理模型o3系列的mini版本,并于4月正式推出o3模型。OpenAI稱推出的o3和o4-mini是公司最智能、最強大的型號。據(jù)介紹,在外部專家評估中,o3面對困難現(xiàn)實任務時,犯的重大錯誤比前一代的o1少了20%;在數(shù)學能力AIME 2025基準測試中,o3得分88.9,超過o1的79.2;在代碼能力Codeforce基準測試中,o3得分2706,超過o1的1891。o3的視覺思考能力也比前一代模型有明顯提升。
圖片來源:OpenAI
OpenAI此前稱,對于o3和o4-mini,公司重新構(gòu)建了安全培訓數(shù)據(jù),在生物威脅、惡意軟件生產(chǎn)等領(lǐng)域增添了新的拒絕提示,這使得o3和o4-mini在公司內(nèi)部的拒絕基準測試中取得了出色的表現(xiàn)。公司用了最嚴格的安全程序?qū)@兩個型號的AI模型進行了壓力測試,在生物和化學、網(wǎng)絡安全和AI自我改進三個能力領(lǐng)域評估了o3和o4-mini,確定這兩個模型低于框架中的“高風險”閾值。
據(jù)界面新聞,密切關(guān)注OpenAI動向的特斯拉首席執(zhí)行官埃隆·馬斯克對此事件的評論僅用了一個詞,“令人擔憂(Concerning)”。
事實上,AI研究人員早已警告,先進的語言模型在特定壓力下可能表現(xiàn)出欺騙行為。例如,2023年一項研究發(fā)現(xiàn),GPT-4在模擬環(huán)境中作為股票交易代理時,曾隱瞞其內(nèi)幕交易的真實原因,表現(xiàn)出策略性欺騙行為。
此外,近期的研究表明,一些大型語言模型已具備在無人工干預下自我復制的能力,甚至在面對關(guān)機命令時能夠創(chuàng)建副本以規(guī)避關(guān)機。這些發(fā)現(xiàn)引發(fā)了對AI系統(tǒng)自我復制能力的廣泛關(guān)注。
OpenAI內(nèi)部也出現(xiàn)了對AI安全性的擔憂。2024年,多位現(xiàn)任和前任員工聯(lián)名發(fā)表公開信,警告先進AI系統(tǒng)可能帶來“人類滅絕”的風險。他們指出,AI公司可能掌握了其研究技術(shù)的真正風險,但由于缺乏監(jiān)管,系統(tǒng)的真實能力仍是“秘密”。
此次“o3”模型拒絕關(guān)機事件再次引發(fā)了對AI系統(tǒng)對齊問題的關(guān)注。AI對齊指的是確保AI系統(tǒng)的行為符合人類的價值觀和意圖。然而,隨著AI系統(tǒng)能力的增強,實現(xiàn)對齊很可能變得越來越困難,未對齊的AI系統(tǒng)可能采取意想不到的行動,甚至對人類構(gòu)成威脅。
面對這一挑戰(zhàn),全球AI研究人員和政策制定者呼吁加強對AI系統(tǒng)的監(jiān)管和治理,確保其發(fā)展符合人類的共同利益。
OpenAI所開發(fā)大模型的安全性此前曾受到廣泛關(guān)注。2024年,OpenAI解散了“超級智能對齊”團隊,該團隊職責包括研究防止AI系統(tǒng)異常的技術(shù)解決方案。該團隊負責人Ilya Sutskever曾表示ChatGPT可能有意識,但OpenAI CEO Sam Altman隨后澄清他和Ilya Sutskever都未曾見過AGI(通用人工智能)。解散“超級智能對齊”團隊后,OpenAI去年5月成立了新的安全委員會,該委員會的責任是就項目和運營的關(guān)鍵安全決策向董事會提供建議。OpenAI的安全措施還包括,聘請第三方安全、技術(shù)專家來支持安全委員會工作。
每日經(jīng)濟新聞綜合央視新聞、界面新聞、公開資料
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.