在大語言模型(LLMs)檢索增強生成(RAG)技術(shù)快速迭代的今天,一個根本性難題始終存在困擾 RAG 的可信生成:當模型參數(shù)記憶與外部檢索知識沖突時,如何實現(xiàn)知識依賴的精準調(diào)控?
目前方法只能依賴大模型自身判斷知識可信度,這超過了模型能力的范圍;并且現(xiàn)有的對齊技術(shù)都是單邊提升模型的知識偏好,無法有效的實現(xiàn)知識依賴的雙向控制。
然而現(xiàn)實場景中,大模型使用者應(yīng)該根據(jù)具體的 RAG 部署場景(如模型先進性、檢索質(zhì)量等)來靈活調(diào)控模型更多的相信檢索上下文還是自己的參數(shù)知識,從而得到更可靠的模型生成。
中科院計算所聯(lián)合新加坡國立大學(xué)、加州大學(xué)默塞德分校團隊提出創(chuàng)新解決方案CK-PLUG,一個功能強大但隨查隨用的知識依賴調(diào)控技術(shù),僅通過一個參數(shù) token-level 地精準控制語言模型在生成過程中對內(nèi)外部知識的依賴程度。
CK-PLUG 能夠在模型生成時自動檢測并調(diào)整知識沖突,使得模型能夠在不同的 RAG 場景下靈活應(yīng)對,并在準確性和流暢性之間找到最佳平衡。
CK-PLUG 的提出為大語言模型的知識依賴控制技術(shù)提供了重要支持,推動了 LLM 向更加智能、可調(diào)節(jié)的知識生成方向發(fā)展。
論文標題: Parameters vs. Context: Fine-Grained Control of Knowledge Reliance in Language Models 論文鏈接: https://arxiv.org/pdf/2503.15888 代碼鏈接: https://github.com/byronBBL/CK-PLUG一、引言
圖1. LLM 很難在參數(shù)化知識和上下文知識之間確定優(yōu)先級,尤其是在面對過時的參數(shù)或誤導(dǎo)性的上下文時,這降低了現(xiàn)實場景中的可靠性
檢索增強生成(Retrieval-Augmented Generation, RAG)作為大語言模型(LLMs)應(yīng)用的關(guān)鍵技術(shù),通過結(jié)合外部知識與語言模型的生成能力,顯著提高了文本生成的準確性。然而,外部上下文與模型內(nèi)部知識之間的沖突問題嚴重影響了生成結(jié)果的可靠性,常導(dǎo)致事實矛盾或邏輯謬誤。
當前技術(shù)面臨的核心挑戰(zhàn)在于知識依賴的不可控性:依賴模型內(nèi)部知識難以有效處理知識更新緩慢的問題,而過于依賴檢索上下文又容易受到低質(zhì)量信息的干擾。如圖 1 所示,當模型知識庫過時但檢索質(zhì)量高時,應(yīng)傾向采納外部知識;反之,在檢索結(jié)果存在大量噪聲時,則應(yīng)優(yōu)先依靠模型內(nèi)部知識。
現(xiàn)有方法(如通過對齊技術(shù)實現(xiàn)單一維度的 factuality、faithfulness 優(yōu)化)通常缺乏靈活、雙向的動態(tài)知識依賴控制能力,嚴重限制了 RAG 系統(tǒng)在實際應(yīng)用中的表現(xiàn)。
為此,我們提出了 CK-PLUG,一種在推理階段進行知識依賴動態(tài)控制的有效方法,其創(chuàng)新點包括:
置信增益度量(Confidence-Gain):通過衡量插入外部上下文后參數(shù)感知令牌的信息增益,量化模型參數(shù)知識與外部上下文之間的一致性,從而有效檢測知識沖突。
知識可控調(diào)制機制:基于可調(diào)參數(shù) 對參數(shù)依賴與上下文依賴的預(yù)測分布進行精細的加權(quán)融合,實現(xiàn)對知識偏好的靈活動態(tài)控制。
自適應(yīng)平衡策略:引入基于熵的自動化置信評估模塊,自適應(yīng)選擇最佳的知識依賴策略,無需手動調(diào)參,有效降低系統(tǒng)部署難度。
具體而言,CK-PLUG 通過Confidence-Gain指標準確檢測知識沖突,保留具有正置信度增益(表明參數(shù)知識與外部知識一致)的令牌,并對負置信度增益(參數(shù)與外部知識沖突)的令牌動態(tài)調(diào)整預(yù)測策略。
對于后者,CK-PLUG 利用可調(diào)參數(shù) 實現(xiàn)了參數(shù)感知與上下文感知概率分布的精細配比融合。同時,CK-PLUG 還提供了無需人工干預(yù)的自適應(yīng)模式,通過熵值置信評估實現(xiàn)內(nèi)部知識和外部上下文的自動平衡。
在實際的 RAG 任務(wù)評測中,CK-PLUG 表現(xiàn)出明顯的優(yōu)勢:在手動的 控制下,該框架在具有反事實檢索上下文的 QA 任務(wù)的記憶召回(MR)中實現(xiàn)了大幅度的調(diào)整。
例如,在 LLaMA3-8B-instruct上,CK-PLUG 將 MR 從 9.89% 調(diào)制到 71.93%,明顯區(qū)別于 42.09% 的基線 MR。在自主模式( -free)下,CK-PLUG 則能在六個不同的 RAG 下游任務(wù)中持續(xù)實現(xiàn)性能的穩(wěn)定提升。
此外,我們通過深入的解釋性分析進一步闡明了 CK-PLUG 實現(xiàn)有效知識依賴控制的內(nèi)在機制。綜上所述,CK-PLUG 為推動大模型在知識可控性和可信生成能力方面的實際應(yīng)用,提供了一種更具普適性和實用性的方案。
二、基于置信增益的沖突檢測
作者首先提出了一種知識沖突檢測機制,作為 CK-PLUG 激活控制的開關(guān)。該機制可以有效識別模型參數(shù)知識與檢索到的外部上下文之間存在潛在沖突的令牌,以進行針對性的干預(yù),避免全局調(diào)整導(dǎo)致的生成質(zhì)量崩潰。
首先作者定義兩種預(yù)測概率分布:
參數(shù)化分布:僅基于輸入問題 的模型預(yù)測概率,反映模型內(nèi)部知識。
上下文增強分布:結(jié)合問題 與檢索上下文 的預(yù)測概率,融合內(nèi)外知識。
基于上述定義,圖 2 可以很好反映插入不同上下文后關(guān)鍵 token 預(yù)測概率分布的熵變化:
沖突上下文:增加熵值,概率分布更無序,模型對答案更不確定。
支持上下文:顯著降低熵值,模型因內(nèi)外知識一致而更自信。
圖2. 在納入沖突或支持上下文后,知識敏感令牌的概率分布熵的變化
基于定義置信增益(CG)為上述兩種分布的熵之差,衡量上下文引入后模型置信度的變化:
CG > 0表示外部上下文增強模型置信度(支持性知識);CG < 0(或低于閾值)則意味外部上下文引發(fā)潛在沖突,導(dǎo)致置信度下降(沖突性知識)。圖 3 展示了兩種類型的沖突檢測實例。
圖3. 在 LLaMA3-8B 上對兩種類型的沖突上下文下生成的令牌的置信度增益的說明,證明了在檢測潛在知識沖突方面的有效性 三、CK-PLUG:參數(shù)和上下文的依賴調(diào)制
CK-PLUG 在下一令牌預(yù)測階段,對于檢測到有潛在沖突的 token 通過調(diào)制參數(shù)感知與上下文感知的概率分布,實現(xiàn)精細的知識依賴控制,圖 4 清晰的展示 CK-PLUG 的框架。
圖4. CK-PLUG 控制 LLM 輸出中知識依賴的實例。在令牌生成過程中,它檢測潛在的沖突并調(diào)節(jié)沖突令牌的概率分布。調(diào)制首先計算上下文感知分布,然后通過基于調(diào)優(yōu)參數(shù)的加權(quán)和將其與參數(shù)感知分布集成。
首先,定義參數(shù)感知的對數(shù)概率分布為:
而上下文感知的概率分布則通過從整體對數(shù)概率分布中剝離參數(shù)貢獻來獲得:
如圖 4 所示,CK-PLUG 的核心思想是通過調(diào)制上述兩個分布的權(quán)重,針對可能存在知識沖突的令牌進行干預(yù)。具體計算公式如下:
其中,置信增益(CG)用于指示外部上下文是否引入了知識沖突。調(diào)制函數(shù) 定義為:
其中 為自適應(yīng)合理性約束:
通過可調(diào)超參數(shù) ,用戶可實現(xiàn)靈活的知識依賴調(diào)控。增大 使模型更依賴參數(shù)知識,減小 則更傾向于檢索上下文知識,從而有效處理知識沖突問題。
此外,CK-PLUG 還提供了一種自適應(yīng)模式,基于熵值自動平衡參數(shù)與上下文依賴,無需手動設(shè)置 ,顯著增強了系統(tǒng)的實用性和可信度。具體實現(xiàn)為通過基于熵的困惑度來自動化配置 :
四、實驗
作者在廣泛的注入反事實上下文的 RAG 任務(wù)(NQ、ConFIQA、MQuAKE)以及通用的 RAG 任務(wù)(NQ、HotpotQA、FEVER、T-REX、ELI5、WOW)上分別全面地評估了 CK-PLUG 對 LLMs 的知識依賴調(diào)控和自適應(yīng)增強能力。
除此之外,作者設(shè)計知識捕獲算法進行了深入的可解釋研究,部分任務(wù)表現(xiàn)和解釋分析的實驗結(jié)果如下表所示。更多結(jié)果煩請移步我們的文章或代碼。
表1. CK-PLUG 在各注入反事實上下文的數(shù)據(jù)集上的知識依賴調(diào)控效果
圖5. CK-PLUG 在關(guān)鍵知識 token 上的解釋性分析展示
來源:公眾號【PaperWeekly】
llustration From IconScout By IconScout Store
-The End-
本周上新!
掃碼觀看!
“AI技術(shù)流”原創(chuàng)投稿計劃
TechBeat是由將門創(chuàng)投建立的AI學(xué)習(xí)社區(qū)(www.techbeat.net)。社區(qū)上線500+期talk視頻,3000+篇技術(shù)干貨文章,方向覆蓋CV/NLP/ML/Robotis等;每月定期舉辦頂會及其他線上交流活動,不定期舉辦技術(shù)人線下聚會交流活動。我們正在努力成為AI人才喜愛的高質(zhì)量、知識型交流平臺,希望為AI人才打造更專業(yè)的服務(wù)和體驗,加速并陪伴其成長。
投稿內(nèi)容
// 最新技術(shù)解讀/系統(tǒng)性知識分享 //
// 前沿資訊解說/心得經(jīng)歷講述 //
投稿須知
稿件需要為原創(chuàng)文章,并標明作者信息。
我們會選擇部分在深度技術(shù)解析及科研心得方向,對用戶啟發(fā)更大的文章,做原創(chuàng)性內(nèi)容獎勵
投稿方式
發(fā)送郵件到
melodybai@thejiangmen.com
或添加工作人員微信(yellowsubbj)投稿,溝通投稿詳情;還可以關(guān)注“將門創(chuàng)投”公眾號,后臺回復(fù)“投稿”二字,獲得投稿說明。
關(guān)于我“門”
將門是一家以專注于數(shù)智核心科技領(lǐng)域的新型創(chuàng)投機構(gòu),也是北京市標桿型孵化器。 公司致力于通過連接技術(shù)與商業(yè),發(fā)掘和培育具有全球影響力的科技創(chuàng)新企業(yè),推動企業(yè)創(chuàng)新發(fā)展與產(chǎn)業(yè)升級。
將門成立于2015年底,創(chuàng)始團隊由微軟創(chuàng)投在中國的創(chuàng)始團隊原班人馬構(gòu)建而成,曾為微軟優(yōu)選和深度孵化了126家創(chuàng)新的技術(shù)型創(chuàng)業(yè)公司。
如果您是技術(shù)領(lǐng)域的初創(chuàng)企業(yè),不僅想獲得投資,還希望獲得一系列持續(xù)性、有價值的投后服務(wù),歡迎發(fā)送或者推薦項目給我“門”:
bp@thejiangmen.com
點擊右上角,把文章分享到朋友圈
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.