你認為是AI聰明還是人類聰明?
2024年11月17日,馬斯克的人工智能企業xAI技術員工Hieu Pham在社交媒體上宣布:“Grok-3剛剛證明了黎曼猜想。我們決定暫停它的訓練以驗證其證明,如果證明是正確的,那么訓練將不會恢復,因為這個AI被認為聰明到足以成為對人類的威脅。”這條消息迅速在AI圈引發熱議,網友們紛紛表示震驚,難以分辨真假。畢竟,黎曼猜想作為千禧年七大數學難題之一,被譽為“猜想界的皇冠”,其難度可想而知。
圖片來源:Hieu Pham社交媒體
幾小時后,Pham在另一條帖子中揭曉了答案:這只是一場調侃。這場“烏龍”源于網友Andrew Curran的爆料,他聲稱Grok3在訓練過程中遭遇了“災難性事件”。
圖片來源:Hieu Pham社交媒體
近期,特斯拉創始人埃隆·馬斯克在一次采訪中表達了對人工智能(AI)未來的擔憂,指出AI系統有10%到20%的概率可能會出現失控的情況。他說AI就像一個超級天才的孩子:“你知道他最終會比你聰明得多。你能做的就是在他小時候教會他正確的價值觀,比如慈善、道德、誠實和積極。但問題是,一旦他超越了你的智慧,你就完全無法控制他的行為了……”
馬斯克還用國際象棋舉例,他認為“現在的AI下棋已經到了一個可怕的地步。它們不僅完全超越了人類,而且連人類 +AI的組合都打不過純AI。我們甚至無法理解它們為什么要這樣走棋,但最后總是贏……” 這意味著未來可能出現兩種AI:站在人類這邊的“好AI” 和可能威脅人類的 “壞AI”,人類無法控制AI,最終可能是AI之間的較量,而勝負將決定人類命運。
天使投資人曾良對未來圖靈表示,如果真的能證明AI已經可以驗證我們的猜想,那我們就應該大膽地向前推進,而不是停滯不前。畢竟,讓AI能夠解決一些人類無法解決的問題,這原本就是發展人工智能的初衷。
至于擔心AI聰明到威脅人類安全,在他看來,這種擔憂還為時過早。他表示,從AI能夠證明某些猜想,到它擁有自我意識,并將這種意識轉化為行動,這中間存在著相當大的差距。業內也有觀點認為,AGI(通用人工智能)的出現可能不是三五年內就能實現的,甚至可能需要數十年。所以,在當前階段,只要我們加強對AI安全的監控,并采取一些有效的措施,他對此表示樂觀,支持大家更有力地去加速AI的發展。
留給人類的時間不多了?
其實,對AI發展的擔憂并非始于今日。2023年3月29日,未來生命研究所(Future of Life Institute)發布了一封題為“暫停巨型AI實驗”的公開信,呼吁全球AI實驗室暫停訓練比GPT-4更強大的AI系統,至少為期6個月。這一倡議得到了包括馬斯克、蘋果聯合創始人Steve Wozniak在內的上千名科技界知名人士和AI專家的支持。
該公開信寫道,廣泛的研究表明,具有與人類競爭智能的人工智能系統可能對社會和人類構成深遠的風險。這一觀點得到了頂級人工智能實驗室的承認。
圖片來源:未來生命研究所官網
這和360集團創始人周鴻祎在發布公開信幾天前的2023中國發展高層論壇上的發言如出一轍。
“當人工智能自己修改自己的代碼,自我升級、自我進化時,這種進化速度恐怕用指數級都很難描述。我覺得,留給人類的時間不多了,我認為GPT一定會產生意識,只是差別是在GPT-6還是GPT-8還是GPT-10。”
周鴻祎表示,隨著大腦、神經元數目的增加,大腦與神經網絡連接的數目的增加,到一定時候系統就出現了一種功能叫涌現。就是很多智能功能就出現了,那么意識也隨之出現。 所以現在大語言模型的所謂的參數,你就可以看成是腦容量里的神經網絡的連接數,這個參數現在是千億萬億,可能人腦至少有100萬億,可能人工智能到達10萬億,可能這個時候意識就會自動產生。
AI風險=“核戰”風險?
據意大利安莎社報道,緊隨其后的3月31日,意大利個人數據保護局宣布,從即日起禁止使用聊天機器人ChatGPT,限制ChatGPT的開發公司OpenAI處理意大利用戶信息,并開始立案調查。該決定使意大利成為首個對ChatGPT采取限制措施的西方國家。
意大利個人數據保護局認為,3月20日,ChatGPT平臺出現了用戶對話數據和付款服務支付信息丟失情況。該平臺沒有就收集處理用戶信息進行告知,缺乏大量收集和存儲個人信息的法律依據。該機構還表示,盡管OpenAI的條款聲稱ChatGPT服務面向13歲以上的用戶,但平臺缺乏能夠驗證用戶年齡的機制。意大利個人數據保護局要求OpenAI公司必須在20天內回應該機構的關切,否則將被處以最高2000萬歐元或公司全球年營業額4%的罰款。
圖片來源:意大利安莎社官網
與此同時,歐盟“適應數字時代的歐洲”委員會執行副主席瑪格麗特·維斯塔格(MargretheVestager)在社交媒體上表示,她對人工智能的態度傾向于“不限制人工智能技術的發展,但會監管其使用”。
此前3月23日,OpenAI的首席執行官薩姆·阿爾特曼(SamAltman)公開承認開源庫中出現錯誤,導致部分用戶與ChatGPT的聊天記錄被泄露。OpenAI公司回應稱,愿與意大利個人數據保護局密切合作,已在意大利將ChatGPT下線。
5月30日,國際AI領域非營利組織“人工智能安全中心”發出警告,要求各國必須對AI行業進行謹慎整改。該文件呼吁“人工智能可能帶來人類滅絕風險”,要求將AI“與大流行病和核戰爭等其他影響社會的大規模風險一同成為全球性的優先事項”。這份警告信也得到了多方的支持,其中包括研究AI工作的企業高管以及AI、氣候、傳染病等各領域教授和學者,總計超350人;簽署者也包括“ChatGPT之父”、OpenAI創始人阿爾特曼、Meta的首席AI科學家的伊恩·勒坤等行業巨擘。
圖片來源:人工智能安全中心官網
接下來的6月,三家全球頂尖AI公司的CEO阿爾特曼、哈薩比斯、阿莫迪和拜登展開了一場特殊的會談,旨在討論未來人工智能的監管問題。后續美國媒體報道稱,阿爾特曼等人警告拜登人工智能系統目前已經帶來風險,已嚴重到需要政府干預的程度,希望拜登及時“出手”。這次采訪內容總結來說就是:美國行業巨頭們各國政府能動用權力限制AI的火速發展,他們認為人工智能這種東西正在產生“無比強大的反作用力”,如果繼續瘋長將會奪走人類的生存空間,給社會造成動蕩風險。
未來生命研究所的公開信強調,“人工智能試驗室和獨立學者應運用此次暫停期,共同制訂和推行一套先進的人工智能設計和開發的共享安全合同,并由獨立的外部學者進行嚴苛的審計和監督。”其實,信中也辟謠說,“這并不意味著總體上暫停AI開發,也是從越來越大且不可預測的黑盒模型的危險大賽中后退一步。”
與此同時,據路透社vice報導,未來生命研究所公開信發起者、圖靈獎得主YoshuaBengio表示,“民主價值觀與某些工具的開發模式之間存在沖突”。麻省工科大學NSFAI人工智能與基礎交互研究所(IAIFI)地理學博士、未來生命研究所主任MaxTegmark覺得,任由AI大模型繼續訓練下來,最壞的狀況是人類將逐步喪失對文明越來越多的控制權。他表示,當前的風險是“我們喪失了對科技公司中一群未經改選的人的控制,她們榮獲了很大的影響力。”
圖片來源:攝圖網
此外繼公開信以后,另一家非營利性研究機構人工智能和數字新政中心(CenterforAIandDigitalPolicy,CAIDP)將起訴到了日本政府部委。它們要求聯邦商貿執委會(簡稱FTC)調查OpenAI,自稱這家新貴公司公布了GPT-4,違背了商業法,同時它們覺得該產品具備誤導性并將人們放在危險之中。
CAIDP表示,“FTC早已宣布,人工智能的使用應當是'透明的、可解釋的、公平的、有經驗的,同時推動問責制',不過OpenAI推出了一個有成見、有誤導性、對隱私和公共安全有風險的產品。目前是FTC采取行動的時侯了。”它們還批評了OpenAI在其模型和訓練數據方面沒有實現透明。CAIDP也呼吁FTC對OpenAI展開調查,要求嚴禁OpenAI所有基于GPT產品的逐步商業布署,對其技術進行獨立評估,并確保其符合聯邦商貿執委會的規則,能夠再次新上市。
然而,盡管有眾多呼吁暫停的聲音,卻并沒有實際的全球性暫停訓練行動。科技公司之間仍在進行AI軍備競賽,新的人工智能產品不斷涌現。AI技術的快速發展似乎已成定局。
在這種情況下,我們單單對AI發展按下暫停鍵就夠了么?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.