OpenAI聯合創始人之一Ilya Sutskever在正式離開 OpenAI 僅一個月后,就創立了一家新公司Safe Superintelligence Inc. (SSI)。
蘇茨克弗曾長期擔任 OpenAI 的首席科學家,他與前 Y Combinator 合伙人丹尼爾·格羅斯 (Daniel Gross) 和前 OpenAI 工程師丹尼爾·利維 (Daniel Levy) 共同創立了 SSI。
在 OpenAI,隨著“超級智能”人工智能系統的興起,Sutskever 是該公司改善人工智能安全性努力不可或缺的一部分,他與 Jan Leike 一起從事這一領域,后者是 OpenAI 超級對齊團隊的聯合負責人。然而,Sutskever和Leike都于 5 月離開了公司,原因是他們在如何處理人工智能安全問題上與 OpenAI 領導層發生了激烈爭執。Leike 現在領導著競爭對手人工智能公司 Anthropic 的一個團隊。
長期以來,蘇茨克弗一直在關注人工智能安全方面的棘手問題。在 2023 年發表的一篇博客文章中,蘇茨克弗與 Leike 合著預測,人工智能將在十年內超越人類,而且當它真的出現時,它不一定是仁慈的,因此需要研究控制和限制它的方法。
顯然,他今天一如既往地致力于這項事業。周三下午,Sutskever 發布了一條推文,宣布成立新公司:“SSI 是我們的使命、我們的名字,也是我們整個產品路線圖,因為這是我們唯一的關注點。我們的團隊、投資者和商業模式都致力于實現 SSI。我們將安全性和能力作為技術問題,通過革命性的工程和科學突破來解決。”
“我們計劃盡快提升能力,同時確保我們的安全始終處于領先地位。這樣,我們就可以安心地擴大規模。我們的單一重點意味著不會受到管理費用或產品周期的干擾,而我們的商業模式意味著安全、保障和進步都不受短期商業壓力的影響。”
蘇茨克維爾向彭博社詳細介紹了這家新公司,但拒絕討論其融資狀況或估值。
更明顯的是,與 OpenAI 不同——OpenAI 最初于 2015 年成立,是一家非營利組織,后來在其計算能力所需的巨額資金變得更加明顯時進行了重組——SSI 從一開始就被設計為一家營利性實體。從對人工智能的興趣和團隊的資歷來看,它可能很快就會陷入資金困境。格羅斯告訴彭博社:在我們面臨的所有問題中,籌集資金不會是其中之一。
▲ 滑動查看往期內容
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.