近幾年掀起的人工智能浪潮本質上是智能計算技術的突破,智能計算技術已成為推動社會進步的關鍵力量。11月22日,由中科云計算研究院與東莞理工學院聯合主辦,世界數字科學院傾力協辦的“智?算國際學術交流會”在東莞松山湖成功舉辦。中國工程院院士李國杰在會上發表了《智能計算技術的突破與挑戰》視頻演講,引起了業內人士的高度稱贊。媒體對李國杰院士進行了專訪,深入探討了智能計算技術的發展現狀與未來前景。
智能計算技術的歷史性突破和發展趨勢
面對媒體的采訪,李國杰院士首先從全球范圍內的實際案例,為我們深入且全面地剖析了現代智能計算技術所取得的具有重大歷史意義的突破,以及對其發展趨勢的多種判斷,具體表現在以下十個方面:
一是人工智能在應用廣度上的突破。人工智能歷經70年的發展,在符號主義、連接主義和行為主義等研究路線上均取得了重大進展。此次人工智能的浪潮中,連接主義一馬當先,基于神經網絡的機器學習取得了歷史性的突破,為人工智能的普及應用帶來了新的希望。這一波人工智能的突破具有劃時代的意義,它將顯著加快人類進入智能時代的進程。人工智能不再局限于特定領域的應用,而是在各個領域展現出了強大的潛力。從醫療保健到金融服務,從交通運輸到教育領域,人工智能的應用正在改變著人們的生活和工作方式。
二是大語言模型(LLM)可能已形成趨同的“世界統計模型”。OpenAI創始人之一Ilya Sutskever 曾對某MIT團隊發表的論文“柏拉圖表征假說”給予高度評價,該論文指出,神經網絡在不同數據和模態上以不同目標進行訓練,正趨向于在其表示空間中形成一個共享現實世界的統計模型。MIT另一團隊的最新研究成果進一步顯示,大模型中已形成一種類似人類大腦的“腦葉”結構和“語義晶體”。這一發現似乎驗證了 Hinton 一直堅持的“人工神經網絡與人類大腦有某種相似性”的猜想,為人工智能的發展提供了新的理論支持。
三是規模定律(Scaling law )可能已遇到天花板。2010年代被稱為AI “規?;钡臅r代,然而,隨著預訓練大模型性能增長放緩,機器學習正進入一個“發現和探索”的新階段。Ilya Sutskever過去一直在講“Scaling law”, 最近他承認,關于 Scaling law 的樂觀判斷可能是錯的。如今,訓練模型不再是單純地追求“越大越好”,而是要找出Scaling的對象究竟應該是什么。這一轉變標志著人工智能行業從追求規模擴張向更加精細化、實用化的方向發展。
四是深度學習還沒有撞墻。通過語言大模型來實現通用人工智能(AGI)不一定是最佳途徑,但深度學習不等于大模型的預訓練,還在繼續發展。為了應對 GPT 改進放緩的挑戰,業界正在轉向改進預訓練后的模型,這可能會產生不同類型的 Scaling Law。即使預訓練技術不再有重大突破,人工智能仍然有很大的發展空間,可以探索新的實現機器智能的途徑,也可以在現有基礎上創新個人消費產品和企業產品。
五是以數據為中心和以模型為中心都有出路。曾經擔任過百度公司首席科學家的吳恩達認為,在過去十年中,人工智能最大的轉變是向深度學習轉變。而在未來十年,人工智能將轉向以數據為中心。他指出,現在更有效的方法是固定神經網絡架構,尋找改善數據的方法,從“大數據”轉向“好數據”。與之不同的是,圖靈獎得主楊立昆則認為,基于自監督的語言模型無法獲得關于真實世界的知識。我們需要學習一個具備常識推理與預測能力的世界模型,這才是 AI 大模型未來的理想道路。
六是必須從原理上改進機器學習算法,才能用廣域分布式計算做大模型預訓練。大模型的訓練對算力需求最為旺盛。目前,大模型訓練通常采用相對集中的集群系統(一兩千米的園區以內),而非異地分布式計算。這是因為訓練過程中需要頻繁地交換模型參數和梯度信息,實現反向傳播的延遲通常需要控制在毫秒級別甚至更低。我國在西部建設的智算中心,如果要訓練超大規模的模型,單個集群的計算能力要足夠強。如果仍采用反向傳播算法,靠距離遙遠的多個小智算中心分布式計算來訓練大模型,未必是可行的出路。
七是人工智能基礎設施的投入和實際收入之間,存在巨大差距。在美國,算力規模決定企業勝負仍是主流理念。微軟、谷歌、Meta、亞馬遜等巨頭都在投入數百億美元建設新的數據中心,為訓練模型提供更大的算力。最近,馬斯克創建的xAI公司僅用122天就建成10萬張H100 GPU卡的AI集群,未來還要構建更大規模的智能超算中心。美國龍頭企業堅信,誰能率先建成全球最大的AI訓練系統,誰就能掌握市場的主導權。然而,投資界普遍認為,AI的預期收入和基建投入之間,存在6000億美元缺口。巨大的算力投入是否能帶來與之匹配的回報,仍是一個未知數。算力不是收入,而是成本,要把算力的投入變成實實在在的收入,必須為終端用戶提供真正的價值。人工智能是惠及各行各業的智能技術,長期而言,智能技術帶來的收入增長肯定遠遠超過6000億美元。目前人工智能處在技術成熟曲線的期望膨脹期,我們面對的問題是如何度過未來的泡沫化谷底期,盡快走向實質生產的高峰期。
八是AI加速芯片將進入多芯片競爭的“XPU”時代。GPU不一定是人工智能的最優算力芯片,越來越多的專用芯片正在不斷涌現。例如,谷歌 TPU(張量處理單元)發明者之一Jonathan Ross 創立的 Groq公司,推出了ASIC芯片LPU(語言處理器),其推理性能是英偉達 GPU的10倍,成本僅為其十分之一。美國新興芯片創業公司 Etched發布的首款 ASIC AI芯片 ——Sohu,將 Transformer 架構嵌入芯片內部,性能是英偉達B200的10倍。華為昇騰 920 芯片也引發了業內對國產AI加速芯片的期待。Nvidia的GUGPU芯片通用性較強,CUDA生態對用戶有一定的吸引力,可能會在市場上延續相當長的時間。但GPU芯片一片難求的局面已在改變。針對一類AI應用的專用芯片也可能成為主流。
九是超算和智算正在實現“歷史性的匯合”。超算和智算之間的界限正變得越來越模糊,本質上它們是同類。超級計算和以深度學習為代表的智能計算已逐步融合,CPU在智算中將發揮越來越大的作用。一個案例是中國科學院大學等單位的研究人員聯合開發的T-MAC算法,實現了矩陣乘不要做乘法,只需查表,CPU推理速度超過AI專用加速器。中科曙光公司牽頭的超算互聯網今年 4 月上線以來,已鏈接 280 家服務商,為上百個行業 1000 多個應用場景提供算力服務。這一舉措為國家先進算力提供了堅實的基礎。
十是數據工廠將是未來的大產業。Scale AI 作為一家人工智能數據標注企業,已實現近10億美元的年度收入。數據工廠貌似勞動力密集的低端產業,但數據標注等服務是人工智能產業鏈中不可或缺的環節,為人工智能的發展提供了高質量的數據支持,大有可為。螞蟻數科發布的新一代數據標注產品,向企業客戶提供 AI 驅動的全流程數據服務,為人工智能的發展注入了新的活力。
智能計算技術的困惑與挑戰
隨后,李國杰院士以其淵博的學識和深刻的洞察力,又從多個重要方面為我們深入且系統地分析了現代智能計算技術所面臨的困惑與挑戰。這些困惑與挑戰是橫亙在智能計算技術發展道路上的一道道難關,亟待我們去攻克和突破。李國杰院士的分析為我們清晰地勾勒出了當前智能計算技術領域的復雜形勢,也為相關領域的研究人員和從業者提供了寶貴的思考方向和研究路徑。
一是人工智能還有很長的路要走。幾千年來,人類探索的基本科學問題包括“天問”、“物問”、“命問”和“腦問”。其中,關于人的智慧從何而來的“腦問” 是最難攻克的科學問題。目前,人工智能的基礎理論并沒有取得根本性的突破,仍處在伽利略時代。人工智能在工程上取得了巨大成功,但在理論層面上,我們還知之甚少。要真正進入智能時代,還要走很長的路。
二是發展人工智能需要突破圖靈計算的局限。圖靈機存在很多限制,如所有輸入的信息必須是現成的,計算過程中與輸入源不能交互,機器必須按照有限的確定性規則運行等。目前數字計算機的每一步具體操作是按照圖靈計算做的,但機器學習整個過程合起來已經不是圖靈計算。這其中可能隱含著許多深層次的奧妙,需要我們進一步探索和研究。揭開大模型的黑盒子可能也要在計算模型上打開缺口。
三是突破還原論的復雜性極限。智能化科研是一次認識論的革命,它挑戰的是還原論“信仰”。圣塔菲研究所所長大衛?克拉考爾撰文,嘗試從理論層面實現復雜性科學與機器學習的統一。這一挑戰將推動我們對人工智能的認識從簡單的還原論向更加復雜的系統論轉變,為人工智能的發展提供新的理論基礎。目前許多學者懷疑大模型有理解和推理能力,是基于還原論的思維邏輯,突破還原論的框框,可能會發現一片新天地。
四是要突破大語言模型的本質性局限。大語言模型采用類似心理學研究的描述性推理,靠樣本的統計相似性猜測答案,難以保證正確性。這些問題是神經網絡模型的“本性” 所決定的,無法用技術手段徹底解決。這一局限性提醒我們,在使用大語言模型時,需要保持謹慎,并結合人類的判斷和思考,以提高結果的準確性和可靠性。
五是實現 AI 的統計優勢與人類的理論驅動的結合。AI通過處理海量數據,提取模式并基于概率分布進行預測,本質上局限于對已有知識的模仿,而非對新知識的原創性探索。人類認知的本質是 “理論驅動”,能夠在數據缺乏甚至矛盾的情況下,基于理論、假設和想象力形成前瞻性的信念,并通過實驗加以驗證。如何實現AI的統計優勢與人類的理論能力的結合,是下一階段智能研究的重要方向。只有在明確AI的局限性并發揮人類獨特優勢的基礎上,才能真正邁向智能技術的黃金時代。
六是不要追求絕對的無條件的通用人工智能。人工智能是對人類智能某一個方面的再現,在科學技術領域,所謂“通用”一定是相對的,有一定的條件或范圍。大模型追求的AGI是行為表現和解決所有人能解決的問題,只是十余種“通用”目標的一種 。我們要認識人工智能的局限性,不能盲目追求天下通吃的人工智能,重點還是要根據實際需求,在相對通用的人工智能技術基礎上落地到各個行業,讓一定范圍內的人工智能技術見到實效。
七是低精度計算可能不是AI計算的主要優勢。最近的實驗發現,模型訓練和推理時使用的精度,是影響成本和性能的重要因素。訓練所需的 token 越多,所需的精度就越高,這對 GPU 的大規模應用可能會產生影響。這一發現提醒我們,在選擇計算精度時,需要綜合考慮成本和性能的平衡,以實現最優的計算效果。
智能計算技術引領未來
最后,李國杰院士指出,人工智能技術是迎接新時代的顛覆性技術,我們一定要高度重視,不能因為擔心失控而錯過發展機遇。另一方面,我們也要認識到人工智能還處在初級階段,要下深功夫解決基礎的理論問題,才能真正進入智能時代。我們要做理智的人工智能促進派,不要做觀潮派,更不要做促退派。
在當前這個充滿機遇與挑戰的時代,智能計算技術的發展既需要我們積極探索創新,又需要我們冷靜思考面臨的困惑與挑戰。我們相信,在眾多科學家和工程師的共同努力下,智能計算技術將不斷取得新的突破,為人類社會進入智能時代做出更大的貢獻。
總之,智能計算技術的發展前景廣闊,但也面臨著諸多挑戰。我們需要在技術創新、理論研究和應用實踐等方面不斷努力,推動智能計算技術健康發展,引領科技邁向智能時代。(即播 左朝勝 王祥明 王義海)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.