許多業內人士認為,超人計算機智能的發展是必然的。
奇點的概念——機器變得比人類更聰明的那一刻——已經被討論和爭論了幾十年。但是,隨著機器學習算法的發展催生了輕松通過圖靈測試的軟件,這個問題變得更加緊迫。那么,我們離通用人工智能 (AGI) 還有多遠,有哪些風險?
現代人工智能 (AI) 基于大型語言模型 (LLM)。基于文本的 AI 模型并不真正考慮答案或進行研究——它們使用概率和統計數據。使用訓練數據,他們計算哪個單詞(有時是哪個字母)最有可能跟在前一個單詞之后。這會產生非常合理的結果,以及人類永遠不會給出的錯誤和危險,有時甚至是滑稽的答案。畢竟,正如我們已經說過的,機器不會思考。
這些模型專門用于需要特定訓練數據的特定任務,但業內有一種觀點認為 AGI 指日可待。這些算法將執行不是一項任務,而是多項任務,并且能夠與人類同等地完成這些任務。盡管人工意識還有很長的路要走,但 AGI 的發展被視為它的墊腳石。在某些行業,據稱這只有幾年的時間。
“到 2029-2030 年,一臺計算機的計算能力很可能與人腦大致相等。如果再增加 10-15 年,單臺計算機的計算能力已經等于整個人類社會的計算能力,“SingularityNET 創始人 Ben Goertzel 說,該網絡旨在創建”去中心化、民主、包容和有用的人工智能“,在 2024 年有益的 AGI 峰會上發表講話。
許多業內人士預計,在機器中達到人類智能水平需要幾年時間。
這個信念緊接著有兩個問題。第一個問題是:這種評估的正確性如何?現代人工智能的批評者認為,聲稱通用人工智能迫在眉睫的說法只是一種炒作當前 AI 模型的炒作方式,并在不可避免的崩潰之前進一步膨脹人工智能公司的泡沫。最近,諾貝爾獎得主、“AI 創始人”Geoffrey Hinton 認為,距離通用人工智能只有不到 20 年的時間了。相比之下,在 2018 年與 Hinton 和 Yann LeCun 分享圖靈獎的 Yoshua Bengio 認為,我們不知道需要多長時間才能達到這一目標。
第二個問題是關于危險的。Hinton 去年離開了谷歌,因為擔心人工智能可能帶來危險。此外,調查發現,三分之一的人工智能研究人員認為人工智能會導致災難性的后果。盡管如此,我們不應該假設一個不可避免的終結者式的未來,殺手機器會摧毀人。危險可能要平淡得多。
AI 模型已經面臨指控,稱它們接受了被盜藝術品的訓練。今年早些時候,OpenAI 懇求英國議會允許使用受版權保護的作品(免費),因為如果無法訪問它們,就不可能教授 LLM(和賺錢)。此外,還存在環境風險。現代人工智能與驚人的大量用水量和“令人震驚的”碳足跡有關。在氣候快速變化的世界中,更強大的 AI 將需要更多的資源。
另一個威脅是使用但更重要的是濫用 AI 的能力來制造虛假材料以傳播虛假信息。為宣傳(或其他惡意)目的創建虛假圖像從未如此簡單。雖然現在有方法可以識別生成的假圖像,但它會變得越來越難。
有關人工智能的規則和法規尚未普及,因此在今天關注非常重要。然而,有研究聲稱我們不應該太擔心。因為在線出現的糟糕 AI 結果越多,它們就越會被用來訓練新模型,最終會產生更糟糕的材料,依此類推。直到 AI 不再有用。
也許我們距離創造真正的人工智能還有很長的路要走。但是,我們沒有多久可以制造出人為的愚蠢了。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.