近期,AI 領域出現了一件引發(fā)廣泛關注的事件。據央視新聞,當地時間5月25日,英國《每日電訊報》報道,美國開放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3不聽人類指令,拒絕自我關閉。
美國AI安全機構帕利塞德研究所說,o3破壞關閉機制以阻止自己被關閉,“甚至在得到清晰指令時”。
帕利塞德研究所24日公布上述測試結果,但稱無法確定o3不服從關閉指令的原因。
這事兒,是不是細思極恐?難道科幻電影里AI反抗人類的場景要成現實了?
AI“背叛”人類還是營銷套路?
AI的問題自然要問問ai怎么看,市面上主流ai給出了基本相似的回答:
以上是部分主流ai對此次事件的看法
Ai認為這件事情主要是人類開發(fā)者的技術問題,人類掌握AI的技術算法和電源開關,應該做好管控機制而非恐懼AI。
同時網友們對該事件有不同的看法,有的表示對ai安全擔憂,有的則從技術角度分析了問題的可能性,還有很多人認為這是一場炒作。
圖片來源于社交軟件截圖
OpenAI這次是公布 o3 不服從關閉指令的測試結果,隨后26日宣布,已在韓國設立實體并將在韓國首都首爾設立分支。很難不去猜想,這是為設立韓國分部而造勢,在世界其他研究中心和公司未出現ai不聽指令的情況下,這種說法存在自導自演的可能。
敲響了 AI 安全的警鐘
無論如何,這次事件都為我們敲響了 AI 安全的警鐘。如今,AI的發(fā)展日新月異。中國在AI領域的表現也十分亮眼,無論是從數量上還是性能上,走在了行業(yè)前沿,在國際權威榜單上也經常取得好成績。
國家政策支持、優(yōu)質人才儲備龐大、制造業(yè)大國的產業(yè)應用優(yōu)勢以及智能基礎設施規(guī)模優(yōu)勢,推動了我國 AI 科研的快速發(fā)展。從數量上看,在 ChatGPT 出現后不到一年,咱們國家就出現了 130 多個大模型,10 億參數規(guī)模以上大模型數量如今已經超過 100 個,比美國還多。
像阿里云通義千問大模型發(fā)布的 Qwen2 - 72B 模型,性能超過了國內好多閉源大模型,也把美國最強的開源模型 Llama3 - 70B 給比下去了。在主流大模型榜單中,DeepSeek - V3 在開源模型里可是排榜首的。這說明咱們中國在 AI 領域已經從追趕者逐漸變成了并肩的競爭者,甚至在某些方面開始引領潮流。
無論這次OpenAI是不是吸引眼球的炒作,ai的廣泛應用也帶來不少問題。比如AI換臉技術,本來挺厲害的,可被一些別有用心的人用來詐騙,讓人防不勝防。還有,AI在醫(yī)療領域的應用,能幫助診斷病情,提高效率,但一旦出錯,那可是人命關天的大事。再看看AI虛假信息,現在網上好多內容都是AI生成的,真假難辨,很容易誤導大眾。面對這些問題,中國采取了一系列措施來規(guī)范 AI 發(fā)展。
中國方案:給AI套上緊箍咒
在政策法規(guī)制定方面,我國發(fā)布了《人工智能生成合成內容標識辦法》及配套強制性國家標準,提出了保障 AI 安全可信的 “中國方案”。2025 年,中央網信辦在全國范圍內部署開展為期 3 個月的 “清朗?整治 AI 技術濫用” 專項行動,分兩個階段對違規(guī) AI 產品、訓練語料管理不嚴、利用 AI 制作發(fā)布謠言等 13 類突出問題進行重點整治,規(guī)范 AI 服務和應用,保障公民合法權益。
同時,國家還注重提升公眾的 AI 安全意識,通過發(fā)布安全指南、科普宣傳、案例警示等方式,提高民眾對 AI 風險的識別與防范能力。
AI 技術雖然強大,但如果不能很好地控制和管理,可能會帶來意想不到的后果。我們在享受 AI 帶來的便利的同時,也要時刻警惕它可能存在的風險。希望研究員們在研發(fā)更強大的 AI 模型的同時,國家和相關行業(yè)能做好管控工作,讓 AI 真正為人類服務,而不是成為人類的威脅。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.