參考消息
2025年05月26日 21:37北京
英國《每日電訊報》25日報道,美國開放人工智能研究中心(OpenAI)新款人工智能(AI)模型o3不聽人類指令,拒絕自我關(guān)閉。
報道說,人類專家在測試中給o3下達(dá)明確指令,但o3篡改計算機代碼以避免自動關(guān)閉。
o3模型是OpenAI“推理模型”系列的最新版本,旨在為ChatGPT提供更強大的問題解決能力。OpenAI曾稱o3為“迄今最聰明、最高能”的模型。
美國AI安全機構(gòu)帕利塞德研究所說,o3破壞關(guān)閉機制以阻止自己被關(guān)閉,“甚至在得到清晰指令時”。
這家研究所說:“據(jù)我們所知,這是AI模型首次被發(fā)現(xiàn)在收到……清晰指令后阻止自己被關(guān)閉。”
帕利塞德研究所24日公布上述測試結(jié)果,但稱無法確定o3不服從關(guān)閉指令的原因。
此外,OpenAI26日宣布,已在韓國設(shè)立實體并將在韓國首都首爾設(shè)立分支。OpenAI提供的數(shù)據(jù)顯示,韓國ChatGPT付費用戶數(shù)量僅次于美國。
美國彭博新聞社報道,這將是OpenAI在亞洲設(shè)立的第三個分支。前兩個分支分別設(shè)在日本和新加坡。(卜曉明)
來源 | 新華社
審核 | 陳向陽
編輯 | 郭慶娜 董磊
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.