設置星標 關注,從此你的世界多點科學~
對科技巨頭而言,目前阻礙AI探索征程的核心問題并非AI有可能掌控人類,而在于它愛出錯的天性。是的,以OpenAI的ChatGPT、谷歌的Gemini和Meta的Llama為代表的大語言模型(LLM)始終無法克服產生錯誤信息的傾向,而且這個問題似乎就是不可能克服的。
行業將AI的此類缺陷被稱作“機器幻覺”。其中最著名的案例當屬2023年美國法學教授喬納森·特利(Jonathan Turley)被ChatGPT誣陷性騷擾的事件。
面對自家LLM的誤報,OpenAI的解決方案竟是通過編程讓ChatGPT不能就涉及特利教授的問題作出回應。從某種意義上說,這算是“解決不了問題就解決提出問題的人”。這種處理方式顯然既不公正也令人不滿,這種在事后針對個案打補丁的做法顯然也解決不了真正的問題。
另一方面,AI會在許多話題上延續甚至放大現實世界的偏見與謬誤,例如西方社會普遍的刻板印象問題和西方中心主義。而面對大規模錯誤信息的傳播,這些系統完全缺乏問責機制,因為人們根本無從追溯模型生成錯誤結論的源頭。
上述問題曾在2023年OpenAI發布大語言模型領域最新范式GPT-4后引發激烈辯論。如今爭論降溫了,但幻覺難題不曾改觀。
2024年,歐盟以迅雷不及掩耳之勢通過《人工智能法案》(AI Act),試圖搶占該領域監管主導權。但該法案過度依賴企業自律,并未真正觸及問題核心。大型科技公司仍在全球范圍向億萬用戶投放大語言模型,在缺乏有效審查的情況下持續收集用戶數據。
最新測試表明,即便最先進的LLM也存在不可靠性,然而頭部AI企業目前依然拒絕為錯誤擔責。
更令人憂心的是,大語言模型傳播錯誤信息與復制偏見的傾向,絕非漸進式改良所能解決。隨著代理式人工智能(agentic AI)時代來臨,用戶很快就能指派LLM完成諸如度假預訂或月度賬單優化之類的任務,屆時潛在風險必成倍增長。
這個問題有沒有解決的可能?有人認為,新興的神經符號人工智能(Neurosymbolic AI)有望解決傳統大語言模型的幻覺問題,同時大幅減少訓練LLM所需的數據量。
那么,何為神經符號AI?其運作原理又如何呢?
大語言模型的癥結
現階段的大語言模型采用深度學習技術,通過分析海量文本數據,運用高級統計方法推斷模式,從而確定應答中每個后續詞語的選擇。每個LLM及其學會的所有模式,都被存儲于大型數據中心,也就是神經網絡的強大計算機集群中。
這些模型通過思維鏈(chain-of-thought)過程進行推理。它們基于從訓練數據里看到的模式,生成多步驟應答——模仿人類邏輯推導結論的過程。
不可否認,大語言模型是工程學上的偉大成就。它們在文本摘要和翻譯方面表現驚人;對于很多勤勉而善于糾錯的工作者來說,LLM可顯著提升其工作效率。不過由于ChatGPT們的結論始終基于概率推算而非人類式的理解,模型始終存在極大的誤導風險。
當前常見的解決方案是采用“人在環中”(human-in-the-loop)模式,即確保人類始終掌握AI決策的最終決定權。但將責任轉給人類使用者治標不治本,人類也依然會頻繁被錯誤信息誤導。
另一方面,如今大語言模型的升級迭代要求無比巨大的訓練數據量,大到我們不得不投喂很多由AI而非人類自己生成的合成數據。這類數據會復制并放大原始數據里的既有錯誤,導致新模型繼承舊模型的缺陷。
結果就是,為消除缺陷,我們要花大力氣在訓練后對模型再作編程以提高其準確性,即所謂的“訓練后模型對齊”(post-hoc model alignment)——這方面的成本可以說正急劇攀升。
隨著模型思維鏈的步驟越發繁多,程序員越發難以找到問題根源,糾錯工作自然越發困難。
而神經符號AI的創新之處在于,它結合了神經網絡的預測學習與人類所依憑的用于可靠推理的形式化規則。這些規則主要包括以下三類:
邏輯規則,例如“如果下雨,室外物體通常都會被淋濕”這樣的“若a則b”
數學規則,例如“若a=b且b=c,則a=c”
文字、圖表、符號等元素的約定含義
其中部分規則將直接植入系統,另一些則通過模型分析訓練數據時的“知識抽取”過程自主推導獲得。
這種技術將創造“永無幻覺”的AI系統——通過將知識組織成清晰、可復用的模塊來實現更快速高效的學習。例如,當AI確立“下雨時室外物體會被淋濕”的規則后,就無需存儲每個可能被淋濕的物體的具體案例,因為該規則可自動適用于任何新物體,即便是AI從未見過的對象。
在模型開發過程中,神經符號AI還會通過“神經符號循環”(neurosymbolic cycle)將學習與形式化推理相結合。具體流程是:經過一定程度訓練的AI先從數據中抽取規則,將整合后的知識回注神經網絡,然后作下一步數據訓練。
這樣神經符號AI相較傳統技術具備三方面優勢:
能效大幅提升,AI無需存儲海量原始數據
問責機制更為完善,用戶能清楚地掌控AI的決策路徑與優化過程
公平性得以展現,人類可強制系統遵守預設規則,如“AI決策結果不得與個人種族或性別相關聯”
第三波浪潮
人工智能的第一波浪潮是1980年代的符號人工智能(symbolic AI),其核心是讓計算機學習形式化規則以處理新信息。2010年代,深度學習掀起第二波浪潮。眼下,神經符號AI正被越來越多人視為第三輪革命。
將神經符號的原理作細分領域的AI應用最為可行,因為應用場景越垂直越特化,其規則越能被明確定義。這也就不難解釋為什么,我們最早在以下兩個谷歌公司的案例中看到神經符號AI的突破:能預測蛋白質結構進而助力藥物研發的AlphaFold以及解決復雜的幾何問題的AlphaGeometry。
在更通用的AI領域,中國企業深度求索的DeepSeek模型采用的“蒸餾”學習技術也是朝神經符號AI方向邁出的一大步。當然,要實現神經符號AI在通用模型上的全面應用,學界需開展更多探究以完善模型識別通用規則和抽取知識的能力。
目前尚不清楚大語言模型的開發者們已取得多少神經符號方向上的進展。他們聲稱正致力于教會模型更聰明地思考,但他們對于通過海量數據實現規模擴張的執著也不曾消退。
事實上,若想持續推動人工智能演進,人類必須開發具備以下能力的系統:
僅憑少量案例即可適應新場景
能驗證自身的理解
能實現多任務并行與知識復用遷移,提升數據利用效率
能以復雜方式進行可靠推理
當上述設想成為現實,設計精良的數字技術甚至有望作為人類監管的替代選項,因為制衡機制被植入了系統架構中,并可能形成行業標準。神經符號AI的浪潮或許剛剛開啟,前路漫長,但有跡可循。
資料來源:
《世界科學》雜志版在售中 歡迎訂閱
月刊定價
15元/期
全年訂閱價
180元
點擊左側圖片或以下方訂閱方式選購
方式一:
掃描二維碼,“雜志鋪”訂閱有折扣~
方式二:
全國各地郵局訂閱 郵發代號:4-263
方式三:
機構訂閱,請撥打
021-53300839;
021-53300838
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.