采訪嘉賓|尹辰軒,北銀金科高級算法專家
編輯|羅燕珊
大模型時代,金融行業依然站在技術革新的前沿。而在智能投顧這一高度合規、專業性極強的場景中,大模型的落地不僅是技術挑戰,更是業務安全的嚴峻考驗。面對挑戰,北銀金科采用了“大小模型協同”的架構思路,嘗試在性能、準確性與合規之間找到更優平衡。
“大模型投顧落地的最大技術挑戰,在于如何在高合規門檻的業務中避免幻覺和誤答。”北銀金科高級算法專家尹辰軒表示,金融業務不像通用問答那樣容錯率高,一旦輸出帶有承諾收益或判斷錯誤的內容,不僅影響用戶決策,更可能帶來法律風險。
在這種背景下,大小模型協同成為一條更為穩妥的路徑。一方面,它限制了大模型的職責范圍,主要負責任務擴寫與流程編排,核心內容交由小模型完成;另一方面,也提升了整體的性價比——在更低算力消耗下,實現更穩定、深入的回答效果。
展望未來,尹辰軒認為,AI 應用架構會逐漸趨于“語言理解 + 工具調用”的組合形態,大小模型協同也只是更大趨勢的一部分。
關于“大小模型協同”的相關思路及其在金融領域的應用情況,尹辰軒近日在接受 InfoQ 采訪時做了簡要闡述。更多實踐細節他將在6 月 27~28 日于北京舉行的AICon 人工智能開發與應用大會中進行系統性分享,敬請期待:
https://aicon.infoq.cn/2025/beijing/presentation/6515
InfoQ:在您看來,大模型落地投顧領域最大的技術挑戰是什么?為什么“大小模型協同”是一個更現實的解決路徑?
尹辰軒:我認為大模型投顧落地的最大技術挑戰在于如何在高合規門檻的投顧業務中避免幻覺和誤答。
投顧業務的合規門檻高,專業性強,直接應用 L0 級的大模型存在較大的合規風險。很多大模型服務商本身在此類問題上也為了規避法律風險而泛泛而談。大小模型協同在這個問題上有兩個優勢:
1)限制了大模型回答的范圍
大模型的主要工作不再是產生完整的答案,而是對用戶的問題進行擴寫、搭建回答框架、分配投顧任務、實現答案融合,深度的投顧內容輸出交給專精小模型來實現,有效降低了幻覺和誤答的概率。
2)提高的大模型在回答深度 / 算力消耗的比率
小模型專精于某個特定用途,具有反應快、回答穩定的特定,無需大模型再梳理邏輯鏈進行更深度的思考,只需要大模型根據任務調用對應小模型即可,大大提高回答深度 / 算力消耗的比率。
InfoQ:您提到“大模型與基礎模型解耦”是這套架構的亮點,能否簡單透露下談談它是如何實現的?這在行業級應用中有怎樣的意義?
尹辰軒:這套架構不是指大模型與基礎模型解耦,基礎模型本身就是大模型,我的意思是,根據 Agent 流程編排,每個環節需要的大小模型各自都是解耦的,可快速替換的。
比如在資產配置場景下,對用戶的問題擴寫,不必使用諸如 DS671B 這種通用的大參數模型,可以結合各類投顧報告或策略研報專訓一個 3B 或者 7B 的模型,即可以很快速的根據資產配置類問題擴寫出一套回答框架。在這之后,該框架下即可拆分出不同的投顧任務,每個投顧任務要匹配哪個小模型,此時也可以專門訓練一個參數量較小的模型進行意圖識別,從而精準的調用到對應的小模型。
在整個流程中,每個環節的小參數 LLM 或傳統小模型都是模塊化可替換的,同時,隨著基礎模型本身的進步,這些基于基礎模型專訓出來的小模型也會進步,從而形成加速成長的效果。
由于 LLM 的更新換代非常快,將應用全部依賴于基礎模型會導致行業級應用在成長過程中過度依賴基礎模型,且一旦切換基礎模型會導致這些應用不穩定。將基礎模型與應用層進行更明細的解耦,對于應用穩定性、成長性和私密性都至關重要。
InfoQ:關于大模型在金融場景中容易產生幻覺、跑偏回答的顧慮,咱們團隊是怎么解決這一問題的?是否有實測效果可以分享?
尹辰軒:主要有三個手段:
在 Agent 流程搭建中,投顧任務分配環節采用大小模型的映射方式,不僅基于一套專精的檢索模型去尋找對應的投顧量化模型尋求答案,還要基于詞向量匹配的傳統手段進行保底;
在產品設計中,考慮場景分類,比如將選股、配置、財富體檢、持倉分析等場景區分開,節省掉大模型分辨不同場景的環節,直接明確調對應的 Agent 要解決什么問題,提高命中率;
通過在知識庫中約束回答范圍、內容和黑名單詞匯,避免不合規的表述,如承諾收益、確定性表達等。
InfoQ:您提到小模型引擎的“可擴展性”是另一大優勢。從您的實踐看,這種架構是否能支持投顧以外的金融細分領域,如保險、財富管理等?
尹辰軒:當然可以,我們認為,小模型不僅僅是投顧小模型,在智能投研領域,復雜的小模型千千萬萬,我們在 AI 之前的時代積累下來的算法模型仍然具有極大的價值。每個小模型都是獨立解耦的,在特定問題上實現高效、精準的計算。不過在擴展過程中,需要對這個小模型建立特征向量,以便大模型在任務分配環節能夠更為精準的識別調用——可擴展性的前提是,維護一套小模型引擎索引。
InfoQ:目前這套方案是否已經在實際業務中嘗試落地?有沒有讓您印象深刻的使用場景或反饋?
尹辰軒:已經在公司內部落地,且部分功能已經在母行落地。有兩個場景讓我印象比較深刻,一個是算法層面,一個是產品層面。
算法層面,我們對比了大小模型協同方案的投顧回答、DeepSeek 671B 的回答以及 Qwen72B 的回答,無論是回答深度還是合規性上,大小模型協同的方案實現了全量由于 DS 和 Qwen 的回答內容。不僅如此,隨著切換基礎模型,大小模型協同的方案也實現了無縫銜接,能夠基礎模型較差時回答的專業性保底,切換到更強大的基礎模型后回答的專業性上限極高。
產品層面,我們認為交互模式,我們認為,文字、圖片和表格并不是當前 AI 在 Chat 體驗下的最優實踐。純粹的聊天形式,雖然體現了互動性,但也一定提高了用戶的記憶成本。我們將一些傳統頁面進行了改造適配,實現了在聊天過程中用可操作頁面的形式,將更多的信息集中在一個回答中,可以對回答的頁面內容進行二次操作和互動,這個體驗得到了非常良好的反饋。
InfoQ:面對快速演進的大模型生態,您認為未來金融行業的 AI 應用架構會走向怎樣的形態?這場演講最希望為聽眾帶來哪些啟發?
尹辰軒:我認為現在已經體現了一種趨勢,即LLM+API 將實現大模型進入所有的互聯網生態,Agent 在整個 AI 架構的商業實現上會越來越重要。
大小模型協同,其實在實際落地中,仍然是 LLM+API。如果僅限于問答,LLM+API 基本上就足夠了,如果再加上操作,那么還需要 LLM+API+RPA。
從歷史的經驗上看,人類發展出的新的技術絕大多數情況下并非直接顛覆舊的技術,而是在舊技術的齒輪上加上另一個新技術的齒輪。多模態的圖片生成會讓 PS 消失嗎?我不這么看,PS 已經積累了足夠多的功能,那么與其訓練一套和 PS 功能一樣強大的多模態模型,不如通過 LLM+API+RPA 調用 PS,這也許是性價比更高的方案。
我認為,未來 AI 的架構,更多的會是基于大模型本身的語言理解能力將不同的模型或工具通過 API 串起來,作為我們人類的另一個身外大腦,為我們服務。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.