數名OpenAI、谷歌、DeepMind現任和前任員工簽署公開信警告人工智能風險。
公開信稱:OpenAI的人工智能系統已經接近人類智能水平,通用人工智能AGI有50%的可能性在2027年就會問世,而不是此前預測的2050年!
這封公開信指出,人工智能的發展可能會帶來一系列的風險,例如加劇現有社會的不平等、助長操控和虛假信息傳播,以及失控的自主人工智能系統可能導致人類滅絕等。
簽署公開信的多位OpenAI前任雇員曾從事人工智能安全工作,為公開信背書的業內大佬則有“人工智能教父”Geoffrey Hinton、因開創性AI研究而獲得圖領獎的Yoshua Bengio,以及AI安全領域的頂尖專家Stuart Russell。
據署名簽字公開信的OpenAI前任員工對媒體介紹,這家位于舊金山的人工智能熱門公司存在“為爭奪誰第一個把最強大AI產品推向市場而不計后果”的魯莽企業文化,無法有效察覺和治理AI系統的潛在風險,還用剝奪吹哨人前員工股權等強硬手段阻止他們表達對AI技術的擔憂。簽字公開信的OpenAI現任員工全部選擇匿名,就是因為擔心被打擊報復。
公開信的簽署者之一、今年4月從OpenAI人工智能治理崗位離職的Daniel Kokotajlo指出,辭職是因為“對OpenAI能否負責任地行事失去了信心”。他稱OpenAI的人工智能系統已經接近人類智能水平,通用人工智能AGI有50%的可能性在2027年就會問世,而不是此前預測的2050年: “世界還沒有準備好(迎接如此高級的AI智能),我們也沒有準備好,我擔心(這些商業公司)將不管不顧地一意孤行,并為自己的行為尋找借口。先進的人工智能毀滅人類或對人類造成災難性傷害的可能性高達70%?!?/p>
他稱,盡管OpenAI已與微軟聯合開展“部署安全委員會”等安全協議,旨在公開發布新AI模型之前進行重大風險審查,但并沒有因此減慢新產品的發布速度。與投入更多時間和資源用來防范人工智能潛在風險相比,OpenAI仍在急于改進模型并進行商業化推廣。
微軟甚至兩年前在印度悄悄測試Bing搜索引擎包含未發布GPT-4的新版本,引發了一些搜索引擎對用戶行為異常的報告。OpenAI原本不知道最先進大語言模型被投入測試,知道后也沒有阻止微軟更廣泛地推出該產品。不過,OpenAI發言人對上述說法提出異議。
信中寫道,人工智能公司擁有強大的經濟利益驅動它們繼續推進人工智能研發,同時卻對保護措施和風險水平的信息諱莫如深。公開信認為,不能指望這些公司會自愿分享這些信息,因此呼吁內部人士站出來發聲。
由于缺乏有效的政府監管,這些現任和前任員工成為能夠讓這些公司對公眾負責的少數群體之一。然而,由于嚴格的保密協議,員工被限制發聲,只能向可能并未妥善處理這些問題的公司反映問題。傳統的舉報人保護措施并不適用,因為此類措施側重于違法行為,而目前令人擔憂的許多風險尚不受監管。
員工們呼吁人工智能公司為揭露人工智能風險的人士提供可靠的舉報人保護措施,具體包括:
?不得創建或執行阻止員工對風險相關問題提出批評的協議;
?提供可驗證的匿名程序,使員工能夠向董事會、監管機構和相關領域的獨立組織提出與風險相關的擔憂;
?支持開放批評的文化,允許員工在保護商業機密的前提下,向公眾、董事會、監管機構等方面提出與技術相關的風險擔憂;
?在其他程序失效后,避免對公開分享風險相關機密信息的員工進行報復。
共有 13 名員工簽署了這封公開信,其中包括 7 名前 OpenAI 員工、4 名現任 OpenAI 員工、1 名前谷歌 DeepMind 員工和 1 名現任谷歌 DeepMind 員工。
OpenAI 曾因員工發聲而威脅取消其既得權益,并要求員工簽署嚴格的保密協議限制他們批評公司。
OpenAI則發布聲明稱,為公司能提供最強大、最安全人工智能系統的歷史成就感到自豪,并相信其內部應對風險的科學方法,“我們同意,鑒于這項技術的重要性,嚴謹的辯論至關重要,我們將繼續與世界地政府、民間社會和其他社區進行接觸。”
公開信刊載在http://righttowarn.ai網站上,網站域名和信件標題都在捍衛這些頂尖AI公司員工《對先進人工智能發出警告的權利》,呼吁對AI行業進行全面改革,包括提高透明度和保護吹哨人。
▲ 滑動查看往期內容
內容來源:xiaohu.ai
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.