OpenAI周三警告稱,即將推出的模型在制造生物武器時(shí)將面臨更高的風(fēng)險(xiǎn)——尤其是對(duì)于那些并不真正了解自己在做什么的人來(lái)說(shuō)。公司和整個(gè)社會(huì)都需要為未來(lái)做好準(zhǔn)備,未來(lái)業(yè)余愛(ài)好者可以更容易地從簡(jiǎn)單的車庫(kù)武器發(fā)展成為復(fù)雜的特工。
OpenAI 高管表示該公司預(yù)計(jì)即將推出的模型將在公司的防范框架下達(dá)到高風(fēng)險(xiǎn)水平。因此,該公司在一篇博客文章中表示,正在加強(qiáng)對(duì)此類模型的測(cè)試,并采取新的預(yù)防措施,以防止它們協(xié)助制造生物武器。
OpenAI 并未設(shè)定首個(gè)達(dá)到該門檻的模型的具體發(fā)布時(shí)間,但安全系統(tǒng)負(fù)責(zé)人約翰內(nèi)斯·海德克 (Johannes Heidecke) 向 Axios 表示:“我們預(yù)計(jì)我們的 o3(推理模型)的一些后繼者將達(dá)到這一水平。”
OpenAI 并不一定說(shuō)其平臺(tái)能夠制造新型生物武器。相反,它認(rèn)為,如果不采取緩解措施,模型很快就會(huì)實(shí)現(xiàn)所謂的“新手提升”,或者允許那些沒(méi)有生物學(xué)背景的人去做一些有潛在危險(xiǎn)的事情。
海德克說(shuō):“我們還沒(méi)有進(jìn)入一個(gè)完全未知、前所未有的生物威脅時(shí)代。我們更擔(dān)心的是,專家們已經(jīng)非常熟悉的生物威脅會(huì)再次出現(xiàn)。”
其中一個(gè)挑戰(zhàn)是,人工智能的一些能力雖然可以幫助發(fā)現(xiàn)新的醫(yī)學(xué)突破,但也可能被用于造成傷害。但是,海德克承認(rèn) OpenAI 和其他公司需要能夠高度準(zhǔn)確地檢測(cè)和防止有害使用的系統(tǒng)。
他說(shuō):“這并不是說(shuō) 99% 甚至十萬(wàn)分之一的表現(xiàn)就足夠了。我們基本上需要近乎完美,人工監(jiān)控和執(zhí)法系統(tǒng)需要能夠快速識(shí)別任何逃避自動(dòng)檢測(cè)的有害用途,然后采取必要的行動(dòng)防止危害發(fā)生。”
OpenAI 并不是唯一一家警告模型將達(dá)到潛在有害能力新水平的公司。
上個(gè)月發(fā)布 Claude 4時(shí),Anthropic 表示,由于該模型可能助長(zhǎng)生物和核威脅的傳播,因此正在啟動(dòng)新的預(yù)防措施。各公司也紛紛發(fā)出警告,現(xiàn)在是時(shí)候開(kāi)始為人工智能模型能夠在廣泛任務(wù)中達(dá)到或超越人類能力的世界做好準(zhǔn)備了。
OpenAI 表示將于下個(gè)月召開(kāi)一場(chǎng)活動(dòng),召集某些非營(yíng)利組織和政府研究人員討論未來(lái)的機(jī)遇和風(fēng)險(xiǎn)。OpenAI 政策負(fù)責(zé)人 Chris Lehane 向 Axios 表示,OpenAI 還希望擴(kuò)大與美國(guó)國(guó)家實(shí)驗(yàn)室以及政府的合作。
萊哈內(nèi)表示:“我們將探索一些額外的工作,以便能夠真正有效地利用這項(xiàng)技術(shù)來(lái)打擊那些試圖濫用這項(xiàng)技術(shù)的人。”
Lehane 補(bǔ)充道,最強(qiáng)大模型能力的提升凸顯了“至少在我看來(lái),在世界范圍內(nèi)建設(shè)人工智能、真正由美國(guó)主導(dǎo)的重要性”。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.