智東西
作者 李水青 王涵 江宇
編輯 漠影
智東西7月26日報道,今天上午,2025世界人工智能大會(WAIC)在上海開幕!作為國內最高規格的AI領域行業大會之一,WAIC 2025開幕主論壇大腕云集!
77歲的杰弗里?辛頓(Geoffrey Everest Hinton)頂著腰疾、不遠萬里來到現場,他是全球矚目的“深度學習三巨頭”之一,也是2024年諾貝爾獎得主、2018年圖靈獎得主、加拿大多倫多大學計算機科學名譽教授,本次結合其半個世紀的研究,講解了關于超級智能及數字永生的思考。
▲杰弗里?辛頓
辛頓認為,大語言模型的理解語言的方式幾乎和人類一樣,人類可能就是大語言模型。他還擔憂地發出警告,未來超級智能將很容易操縱人類,人類要避免“養虎為患”,因此要像幾十年前美蘇聯合預防核戰爭一樣,建立國際社群來預防AI操縱世界,推動AI向善。
香港科技大學校董會主席沈向洋作為主持人,與Relativity Space執行董事長兼CEO埃里克·施密特(Eric Emerson Schmidt)圍繞“全球AI協作”在會上進行了對談。施密特指出,AI發展正進入臨界點,將是社會結構的重構力量,跨國合作要先談“AI護欄”再談合作共贏。
▲沈向洋與埃里克·施密特對話
圖靈獎得主、中國科學院院士、上海期智研究院院長姚期智也作為主持人,與上海人工智能實驗室主任、首席科學家周伯文,美國加州大學伯克利分校計算機科學杰出教授斯圖爾特?羅素(Stuart Russell)、美國約翰霍普金斯大學教授吉莉安?哈德菲爾德(Gillian Hadfield)、蒙迪與合伙人公司總裁克雷格?蒙迪(Craig Mundie)進行了對談。
姚期智圍繞“AI治理”、“AI鴻溝”等話題提出了多個關鍵問題。吉莉安?哈德菲爾德教授認為“天下沒有免費的午餐”,并指出要通過貿易結構變革以及具體的技術交易設計,來抹平AI鴻溝;有多年企業管理經驗的克雷格?蒙迪認為,隨著用量變大,就像移動通信與手機技術一樣,大模型的使用價格將變得足夠低,使得更多產業和企業受益。
▲姚期智主持圓桌論壇
本次大會上,MiniMax創始人閆俊杰,商湯科技董事長、首席執行官徐立,上海交通大學副教授、無問芯穹聯合創始人戴國浩,曦智科技創始人、首席執行官沈亦晨,階躍星辰首席科學家張祥雨等多位大模型及AI芯片領域的創業者也出席,在上午場和下午場發表演講,作為國產AI創業力量在這場科技盛會上發聲。
一、77歲辛頓遠赴重洋:人類可能是大語言模型,警惕“養虎為患”
本屆WAIC不僅邀請了辛頓帶來全球視角的AI風險思考,也為本土大模型獨角獸預留了充分的展示空間。緊隨辛頓后登臺的,是MiniMax創始人兼首席執行官閆俊杰,與辛頓一前一后,分別從全球治理與產業實踐角度,回應了關于AGI未來的不同設想。
1、諾獎得主辛頓:做AI是養虎為患,要確保訓練AI不要消滅人類
辛頓談道,大語言模型理解語言的方式和人類幾乎是一樣,它真的理解人類的問題。所以,人類可能就是大語言模型,也會和大語言模型一樣產生幻覺。但大語言模型是數字化的,遠遠優于類似于模擬信號驅動的人類大腦。
大語言模型所需的數字計算雖然耗能巨大,但多個智能體要擁有相同的模型就能輕松交換各自學到的知識。生物計算所需能量要少得多,但在智能體之間共享知識方面差得多。辛頓提出一個關鍵問題:如果能源變得廉價,數字計算整體上更占優勢。這對人類的未來意味著什么?
他談道,超級智能要掌控世界,會設立更好地生存和更強的權力操控兩大目標。超級智能將很容易操縱人類,從人類學的欺騙技能,并操縱負責將它關閉的人類。“我們現在就像養虎為患,小虎崽長大后可以輕易殺死人類,這不是好事。”辛頓說。
“因此,我們需要確保訓練AI不要消滅人類。”就像幾十年前美國和蘇聯曾合作預防核戰爭一樣,辛頓呼吁各個國家合作,建立一個由各國AI安全研究所與國內研究網絡組成的國際社群,預防AI操縱世界,推動AI向善。
▲杰弗里?辛頓(Geoffrey Everest Hinton)
2、MiniMax創始人、首席執行官閆俊杰:企業用戶協同,共同實現AGI
閆俊杰認為,AI不僅是一種能力、一種生產力,更是對個人與社會能力的持續性增強。
在他看來,未來的AI產業必然會呈現多玩家共存的格局,核心原因有三:首先,大模型領域呈現百花齊放態勢,不同模型因側重點各異,所能解決的問題也各有千秋;其次,多Agent系統的興起,使得單個模型的優勢在協同場景中不再突出;最后,開源模型數量持續增加,其性能也在不斷逼近閉源模型。
基于此,AI的普惠性將進一步提升,原因同樣有3個:模型規模的增長與芯片技術的進步保持同步,不會出現失衡;由于單次訓練的單詞成本相對固定,不同算力規模的企業在訓練環節的差距并不大,且未來一兩年內,頂尖模型的推理成本有望降低1-2個數量級;盡管token單價下降,但使用量的增長將形成新的平衡。
因此,閆俊杰堅信 AGI(通用人工智能)必然會實現,且這一目標需要AI企業與用戶共同推動。他強調,AI至少要讓每個人都用得起,并表態愿意為這一目標長期奮斗。
▲閆俊杰
二、沈向洋對話埃里克·施密特:中美要先談“AI護欄”,再談合作共贏
在與Relativity Space執行董事長兼CEO埃里克·施密特的爐邊對話中,香港科技大學校董會主席沈向洋圍繞“全球AI協作”發起提問,強調AI不是某個國家或機構可以獨自應對的挑戰,尤其是中美之間需建立更深層次的信任機制。
▲沈向洋
施密特回應指出,AI發展正進入臨界點,不僅是技術突破,更是社會結構的重構力量,尤其在AI模型能力愈發強大、泛化風險劇增的當下,治理體系亟待建立。
他特別提及當前開源技術的利與弊:“開源帶來了驚人的創新效率,但也加劇了擴散風險。”他指出,這種技術釋放與能力控制之間的矛盾,已成為全球AI治理的核心張力,必須找到新的平衡機制。
施密特進一步引用其與基辛格共同撰寫的著作《Genesis》,強調國際合作需要價值共識作為前提。他表示:“我們必須先進行對話,理解彼此的價值觀,才有可能建立起防止誤判的機制。”他多次強調“設定護欄”的必要性,認為“如何定義底線、誰來設定規則”是未來AI安全的根本問題。他警告稱,若無明確共識,AI發展可能偏離人類文明方向,帶來結構性沖擊。
“讓AI服務于所有人的生產力,而不是威脅社會穩定。”施密特總結道。對談最后,他與沈向洋達成共識——中美之間的AI對話,必須從“先理解、再合作”出發,才能真正把技術發展引入可控、可信的軌道。
▲埃里克·施密特(Eric Emerson Schmidt)
三、姚期智AI治理圓桌:貿易結構變革破解AI鴻溝,量產帶來AI服務普惠
姚期智(圖靈獎得主、中國科學院院士、上海期智研究院院長)與吉莉安·哈德菲爾德(約翰霍普金斯大學教授)、克雷格·蒙迪(蒙迪與合伙人公司總裁)、斯圖爾特·羅素(加州大學伯克利分校教授)和周伯文(上海人工智能實驗室主任)四人進行了對話,探討了AI與AI治理這一重要議題。
他首先從“AI鴻溝”議題切入,拋出一個問題:AI技術在快速的發展,但是更多是聚集在少數國家或公司,我們要怎么樣預防AI鴻溝,讓所有國家受益于這一場AI革命?
▲姚期智
1、約翰霍普金斯大學教授吉莉安:Transformer推動貿易結構變革,緩解AI鴻溝
吉莉安?哈德菲爾德認為,這涉及我們創造了AGI后怎么來分配資源的問題。她認為,Transformer這樣變革性技術,會需要真正的經濟法律基礎設施的變革,比如貿易結構的變革。今天聽到很多人講到了開源以及開放權重,這也是很重要的一方面,也就是確保全球各國能夠從AI革命當中受益。
作為一個經濟學學者,吉莉安認為“天下沒有免費的午餐”。我們不可能憑空就生成大模型這樣的技術,所以必須要認真思考,怎么樣設計好這種交易,思考到底模型歸誰所有,誰能夠接入模型并使用,讓不同國家能夠產生模型。另外我們還需要確保這些科技是安全的,然后才能夠把它們拿來大范圍使用。
▲吉莉安?哈德菲爾德(Gillian Hadfield)
2、蒙迪與合伙人公司總裁蒙迪:模型訓練會更昂貴,服務會越來越便宜
AI鴻溝也不僅是國家間的競爭的問題,它有可能會存在于一個國家內部的不同產業、企業以及人群。
克雷格?蒙迪過去幾十年都在軟件領域工作,通過觀察軟件演進的過程,他發現每一次計算機的能量產生大提升之后,軟件都變得更復雜,但用戶體驗會更容易。他認為,今天我們進入到智能機器階段后,會繼續看到這個趨勢,并且隨著用量變大,技術成本進一步下降,能力變強。造模型肯定會越來越昂貴,但是獲得它的服務會越來越便宜。
訓練模型所需的治理和能源成本都很大,但一旦模型訓練好之后,把模型封裝成大家能使用的設備,這是比較容易的。全球企業都會進一步推動這些技術的進步和推廣普及,無論是為了教育還是商業的目的,每個人都將能夠獲得這個技術的使用,沒有理由不是這樣的。
▲克雷格?蒙迪(Craig Mundie)
3、美國加州大學伯克利分校教授羅素:AGI競速毫無意義,有效監管減低AI失控率
在人類如何應對AI鴻溝和AI失控的問題上,斯圖爾特?羅素尖銳地提出,當前AI公司及各國、各地區間正陷入一場競賽——比拼誰能率先研發出AGI(通用人工智能),但在他看來,這種競賽毫無意義。
他認為,AGI的實現需要依托無限的財富創造能力,而AI理應成為全球共享的公共資源。唯有如此,競賽帶來的緊張感才能消散,因為這類競賽必然會催生極端性風險。
此外,斯圖爾特?羅素還談及有效監管的重要性。在他看來,有效監管的核心在于確保合規性,同時將風險控制在足夠低的水平。但目前,有效的監管機制尚未建立起來。正如辛頓教授所警示的,AGI存在失控并掌控人類的可能性。而通過有效監管,能夠對其失控概率進行預測與計算,經過長期的累計觀察,得出客觀的風險概率,從而讓AGI變得更加安全。
▲斯圖爾特?羅素
4、上海AI實驗室主任周伯文:AI發展與安全同等重要,必須建立全球治理體系
周伯文從技術、應用以及治理三方面討論了跨國數字合作相關問題。
周伯文認為,AI的發展與安全同等重要。去年同期,他的團隊提出了AI45°平衡率的概念,其核心是要探索發展與安全并行的技術研究路徑。在這一框架下,其與全球研究者達成共識:要真正實現安全,就必須開展“Make Safe AI”相關工作。
在應用層面,去年,上海借助以上海人工智能實驗室公共氣象模型等AI技術,比物理模型提前3天預測到臺風登陸,且將登陸點誤差縮小至10公里。這一成果受到許多南方國家的關注,目前,在國家氣候特使辦公室和國家氣象局的指導下,周伯文正推動與這些南方國家的對接工作。
最后,他提到,去年,中國首創的全球人工智能合作治理協議在聯合國大會上表決通過,這體現了中國在人工智能治理領域的全球引領作用。
▲周伯文
結語:AGI走到關鍵路口,大模型要發展也要安全
從發布“養虎為患”警告的辛頓,到提出“護欄先行”的施密特,再到對AI鴻溝深感憂慮的姚期智,這場多國、多學科交匯的思想碰撞,呈現出AI發展與治理問題的多面。
一個共識正在浮現:技術已無法獨善其身。大模型能力突破與開源擴散同步,意味著AI的力量已從科研走向國家戰略層面。未來數年,全球將不得不面對三大挑戰:一是如何避免AI落入少數掌控、加劇數字不平等;二是如何在創新與安全之間建立動態平衡;三是如何構建跨文化、跨制度的全球AI治理機制。
不只是“技術的護欄”,也不只是“國家的對話”。正如沈向洋所說:“AI不是一個國家能獨自解決的事。”各國之間的技術合作、價值對話與制度共建,將共同決定AI是否能真正服務于全人類的未來。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.