財聯社7月17日訊(編輯 馬蘭)馬斯克名下公司xAI開發的人工智能模型Grok因多次發表敏感、爭議性言論而引發關注,這讓人工智能的安全性問題再次被大加討論。
OpenAI、Anthropic和其他美國人工智能研究組織的研究人員紛紛發表了對xAI的譴責,認為該公司在人工智能模型安全性問題上行事魯莽、完全不負責任。
周二,在OpenAI從事安全研究的哈佛大學計算機科學教授Boaz Barak在X上公開批評稱,他本來不想發表關于Grok安全性方面的文章,因為他的公司與其存在競爭,但此事無關競爭。他很欣賞xAI的科學家和工程師,但他們處理安全問題的方式完全不負責任。
Barak對xAI不發布系統卡的決定尤其不滿。美國AI行業一般會在模型公布后發布系統卡,其中詳細說明了模型的訓練方法和安全評估,以與研究界分享信息。但Barak表示,現在學界和業界對Grok 4進行了哪些安全訓練一無所知。
立場倒轉
xAI的Grok 4模型于上周三推出,用戶需支付每月30美元的訂閱費用才能使用。然而,這一被宣傳為“世界上最聰明”的聊天機器人在短短一周內數次掀起美國的輿論風浪,發表了諸如支持希特勒、好萊塢被猶太人掌控等言論。
Anthropic的人工智能安全研究員Samuel Marks表示,xAI在模型安全問題上十分魯莽。雖然Anthropic、OpenAI和谷歌的發布也存在問題,但他們至少做了一些事情,在部署模型前評估安全性并記錄了調查結果。xAI卻什么都沒有。
OpenAI和谷歌在及時分享新模型的系統卡方面聲譽不佳。比如OpenAI不發布GPT-4.1的系統卡,理由是它并非前沿模型。谷歌則在發布Gemini 2.5 Pro數月后才發布安全報告。
然而,這些公司通常都會在前沿模型全面投入生產之前發布安全報告,而xAI的做法與行業慣例截然不同。一名研究人員聲稱,根據其測試,Grok 4沒有任何有意義的安全護欄。
xAI安全顧問兼人工智能安全中心主任Dan Hendrycks回應,該公司對Grok 4進行了危險能力評估。但評估結果并未被公開分享。
令人詬病的是,馬斯克此前一直以人工智能安全倡導者的形象出現,多次警告稱,先進的人工智能系統可能會給人類帶來災難性的后果。他還多次抨擊OpenAI在模型安全性上的瑕疵,但沒想到他自己公司的Grok 4模型也陷入了安全性爭議。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.