99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

RAG原作者:我們?nèi)匀恍枰猂AG(并且永遠(yuǎn)需要)

0
分享至

來(lái)源 | 思考機(jī)器 作者 |Douwe Kiela

本文作者 Douwe Kiela,RAG 論文(Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks)作者之一。

以下為全文:

每隔幾個(gè)月,人工智能領(lǐng)域就會(huì)經(jīng)歷類似的模式。一個(gè)具有更大上下文窗口的新模型問(wèn)世,社交媒體上便會(huì)充斥著“RAG 已死”的宣言。Meta 最近的突破再次引發(fā)了這場(chǎng)討論——Llama 4 Scout 驚人的 1000 萬(wàn)(理論上)token 上下文窗口代表著一次真正的飛躍。

但這些論斷——無(wú)論是針對(duì)上下文窗口的突破、微調(diào)技術(shù)的進(jìn)步,還是模型上下文協(xié)議(MCP)的出現(xiàn)——都誤解了 RAG 的目的,以及為何它在人工智能領(lǐng)域?qū)⒂肋h(yuǎn)占有一席之地。

RAG的初衷

五年前,我在 Meta 基礎(chǔ)人工智能研究中心(FAIR,前身為 Facebook 人工智能研究中心)的團(tuán)隊(duì)提出了 RAG(Retrieval-Augmented Generation,檢索增強(qiáng)生成)的概念。RAG 的目標(biāo)是利用外部知識(shí)來(lái)增強(qiáng)模型,創(chuàng)造一種結(jié)合了參數(shù)化記憶和非參數(shù)化記憶的兩全其美的解決方案。

簡(jiǎn)單來(lái)說(shuō),RAG 通過(guò)檢索語(yǔ)言模型未經(jīng)訓(xùn)練的數(shù)據(jù)源中的相關(guān)信息,并將其注入模型的上下文中,從而擴(kuò)展了語(yǔ)言模型的知識(shí)庫(kù)。

這種方法旨在解決生成式語(yǔ)言模型的許多固有缺陷:

  • 無(wú)法訪問(wèn)私有(企業(yè)內(nèi)部)數(shù)據(jù)模型通常基于公共數(shù)據(jù)進(jìn)行訓(xùn)練,但往往需要那些不斷變化和擴(kuò)展的專有信息。

  • 過(guò)時(shí)的參數(shù)知識(shí)即使模型頻繁更新,其訓(xùn)練數(shù)據(jù)截止日期與當(dāng)前時(shí)間之間總會(huì)存在差距。

  • 幻覺(jué)和歸因問(wèn)題模型經(jīng)常編造聽(tīng)起來(lái)合理但錯(cuò)誤的信息。RAG 通過(guò)將回答基于真實(shí)來(lái)源,并提供引文讓用戶核實(shí)信息,解決了這個(gè)問(wèn)題。

聽(tīng)起來(lái)耳熟嗎?現(xiàn)在已經(jīng)不是 2020 年了,但這些同樣的問(wèn)題至今依然存在。甚至可以說(shuō),隨著組織推動(dòng) AI 系統(tǒng)處理日益復(fù)雜和關(guān)鍵的任務(wù),這些問(wèn)題變得更加突出了。核心挑戰(zhàn)依然是:我們?nèi)绾螌?qiáng)大的生成式模型與公司所依賴的海量知識(shí)庫(kù)連接起來(lái)?

為什么我們?nèi)匀恍枰猂AG(并且永遠(yuǎn)需要)

高效而精確的檢索在人工智能中將始終扮演重要角色。這一點(diǎn)在一個(gè)廣為流傳的 LinkedIn 帖子中得到了很好的闡述,但我將重申為什么我們不能僅僅將所有數(shù)據(jù)加載到模型的上下文中:自首個(gè)具備大上下文窗口的 LLM 問(wèn)世以來(lái),RAG 就一直面臨“消亡”的論調(diào)。

該 LinkedIn 帖子:

一些值得注意的 RAG“死亡宣告”包括:

  • 2023 年 5 月:Anthropic 的 Claude,上下文窗口達(dá) 10 萬(wàn) token

  • 2024 年 2 月:Google 的 Gemini 1.5,上下文窗口達(dá) 100 萬(wàn) token

  • 2025 年 3 月:模型上下文協(xié)議(Model Context Protocol)讓你能直接與你的數(shù)據(jù)對(duì)話 (注:原文日期可能是筆誤)

但現(xiàn)實(shí)情況是:

即使擁有高達(dá) 200 萬(wàn) token 這樣驚人的上下文窗口,當(dāng)前的長(zhǎng)上下文 LLM 也只能處理演示性質(zhì)的數(shù)據(jù)集(toy datasets)。
例如,100 萬(wàn) token 的上下文窗口(大致)相當(dāng)于約 1500 頁(yè)文檔。
這對(duì)于演示來(lái)說(shuō)很亮眼,但對(duì)于生產(chǎn)級(jí)別的應(yīng)用而言是不足夠的。

不過(guò),讓我們假設(shè)我們擁有一個(gè)無(wú)限 token 的上下文窗口:

  • 可擴(kuò)展性與成本:處理數(shù)百萬(wàn) token 速度緩慢,且在計(jì)算和財(cái)務(wù)上都代價(jià)高昂。即使計(jì)算成本在下降,延遲對(duì)于應(yīng)用程序來(lái)說(shuō)也可能是一個(gè)大問(wèn)題。

  • 性能下降:LLM 仍然受困于“中間丟失”(lost in the middle)的問(wèn)題。這意味著它們無(wú)法有效利用長(zhǎng)文本中間部分的信息。通過(guò)剔除不相關(guān)文檔并避免“大海撈針”的情況,您將獲得更好的結(jié)果。

  • 數(shù)據(jù)隱私:將 所有 數(shù)據(jù)提供給基礎(chǔ)模型可能引發(fā)嚴(yán)重的數(shù)據(jù)隱私問(wèn)題。尤其是在醫(yī)療保健或金融服務(wù)等受到嚴(yán)格監(jiān)管的行業(yè),您需要對(duì)數(shù)據(jù)強(qiáng)制執(zhí)行基于角色的訪問(wèn)控制。

底線是:您同時(shí)需要長(zhǎng)上下文 LLM 和 RAG。

但既然“RAG”這個(gè)術(shù)語(yǔ)似乎如此具有爭(zhēng)議性,那我們不妨這樣說(shuō):
我們不必非得稱之為 RAG。
我們可以就叫它檢索 (retrieval)
或者叫上下文篩選 (context curation)

無(wú)論您決定怎么稱呼它,能夠控制進(jìn)入上下文窗口的數(shù)據(jù)質(zhì)量,將決定最終生成輸出的質(zhì)量。

畢竟,垃圾進(jìn),垃圾出。

  • 可擴(kuò)展性– 您的企業(yè)知識(shí)庫(kù)是以 TB 或 PB 來(lái)衡量的,而不是 token。即使有 1000 萬(wàn) token 的上下文窗口,您仍然只能看到可用信息的極小一部分。這就是為什么檢索技術(shù)的創(chuàng)新一直快速發(fā)展,混合搜索、查詢轉(zhuǎn)換、自我反思、主動(dòng)檢索以及對(duì)結(jié)構(gòu)化數(shù)據(jù)的支持等方面的進(jìn)步,都在幫助您在知識(shí)庫(kù)中找到正確的信息。

  • 準(zhǔn)確性– 有效的上下文窗口與產(chǎn)品發(fā)布時(shí)宣傳的大相徑庭。研究一致表明,模型在遠(yuǎn)未達(dá)到其官方極限時(shí)性能就會(huì)下降。在實(shí)際測(cè)試中,同樣的模式也會(huì)出現(xiàn),模型難以準(zhǔn)確引用深埋在其上下文中的信息。這種“上下文懸崖”意味著僅僅將更多內(nèi)容塞入窗口并不會(huì)帶來(lái)更好的結(jié)果。


  • 延遲– 將所有內(nèi)容加載到模型上下文中會(huì)導(dǎo)致響應(yīng)時(shí)間顯著變慢。對(duì)于面向用戶的應(yīng)用程序,這會(huì)造成糟糕的用戶體驗(yàn),人們會(huì)在得到答案前就放棄交互。基于檢索的方法可以通過(guò)僅添加最相關(guān)的信息來(lái)提供更快的響應(yīng)。

  • 效率– 你會(huì)在需要回答一個(gè)簡(jiǎn)單問(wèn)題時(shí)去讀完整本教科書(shū)嗎?當(dāng)然不會(huì)!RAG 提供了相當(dāng)于直接翻到相關(guān)頁(yè)面的能力。處理更多 token 不僅更慢,而且極其低效,并且比使用 RAG 精準(zhǔn)定位所需信息要昂貴得多。

警惕錯(cuò)誤的二分法

在谷歌搜索“RAG vs”,你會(huì)看到一長(zhǎng)串建議的查詢補(bǔ)全——“長(zhǎng)上下文”、“微調(diào)”、“MCP”。這種框架設(shè)定制造了一種人為的選擇,并沒(méi)有反映這些技術(shù)實(shí)際上如何協(xié)同工作的最佳方式。


實(shí)際上,這些概念沒(méi)有一個(gè)是相互排斥的,甚至不是相互沖突的——它們都以互補(bǔ)的方式幫助解決前沿模型的局限性:

  • RAG提供了訪問(wèn)模型知識(shí)庫(kù)之外信息的途徑

  • 微調(diào)改善了信息處理和應(yīng)用的方式

  • 更長(zhǎng)的上下文允許檢索更多信息供模型推理

  • MCP簡(jiǎn)化了 Agent 與 RAG 系統(tǒng)(及其他工具)的集成

我們?cè)谏a(chǎn)環(huán)境中看到的最復(fù)雜的 AI 系統(tǒng)結(jié)合了這些方法,根據(jù)各自的優(yōu)勢(shì)來(lái)使用每種工具,而不是宣布某一個(gè)獲勝并將其他工具拋棄。

正如一位 Twitter 用戶最近所說(shuō):“聲稱大型 LLM 上下文窗口取代了 RAG,就像說(shuō)因?yàn)橛凶銐虻膬?nèi)存(RAM)就不需要硬盤一樣。”正是如此!你的電腦有磁盤、內(nèi)存和網(wǎng)卡是有原因的。它們服務(wù)于不同的目的,并作為一個(gè)系統(tǒng)協(xié)同工作。RAG、微調(diào)和大型上下文窗口在 AI 中也是如此。


結(jié)論

我們不需要在 RAG 與長(zhǎng)上下文窗口、微調(diào)或 MCP 之間做出選擇。真正能創(chuàng)造價(jià)值的 AI 解決方案不會(huì)固守單一方法;它們會(huì)根據(jù)要解決的具體問(wèn)題混合搭配使用工具。

但下一次宣稱“RAG 已死”的論調(diào)出現(xiàn)只是時(shí)間問(wèn)題,所以,如果你將來(lái)想引用這篇文章,可以在 isragdeadyet.com 找到它。這個(gè)網(wǎng)站將作為一個(gè)活生生的證明,展現(xiàn)檢索在 AI 系統(tǒng)中持久的重要性,并且每當(dāng)下一波“RAG 已死”的帖子不可避免地出現(xiàn)時(shí),它都會(huì)更新。

如果你的系統(tǒng)無(wú)法利用你的專有數(shù)據(jù),持續(xù)提供過(guò)時(shí)信息,或者缺乏你所需的專業(yè)知識(shí),那么讓我們談?wù)劇N覀儤?gòu)建了一個(gè)將智能檢索與前沿 LLM 相結(jié)合的系統(tǒng),來(lái)解決這些長(zhǎng)期存在的難題。因?yàn)橹匾牟皇悄姆N技術(shù)在某場(chǎng)人為的競(jìng)賽中獲勝,而是構(gòu)建能夠真正解決實(shí)際問(wèn)題的方案。”

原文鏈接: https://contextual.ai/blog/is-rag-dead-yet/

最后推薦一個(gè)我正在學(xué)習(xí)的DeepSeek應(yīng)用開(kāi)發(fā)課

本課程將會(huì)涉及當(dāng)前業(yè)界最主流的 AI 應(yīng)用開(kāi)發(fā)思想、套路、工具以及框架,設(shè)計(jì)的實(shí)戰(zhàn)項(xiàng)目也會(huì)聚焦 DeepSeek 模型的某個(gè)特點(diǎn)。對(duì)于 AI 開(kāi)發(fā)老鳥(niǎo),可以與時(shí)俱進(jìn),查漏補(bǔ)缺,掌握業(yè)界前沿的開(kāi)發(fā)思想和工具;而對(duì)于 AI 開(kāi)發(fā)新手,則可以繞過(guò)過(guò)去幾年我摸爬滾打的彎路,借力 DeepSeek,快速入門 AI 應(yīng)用開(kāi)發(fā)領(lǐng)域。





特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
你上下行速度多少!工信部:1000Mbps及以上接入速率的固網(wǎng)寬帶接入達(dá)2.23億戶

你上下行速度多少!工信部:1000Mbps及以上接入速率的固網(wǎng)寬帶接入達(dá)2.23億戶

快科技
2025-06-25 16:18:11
63歲吳鎮(zhèn)宇新造型太棒了,沒(méi)有老人味還越來(lái)越年輕,至少年輕20歲

63歲吳鎮(zhèn)宇新造型太棒了,沒(méi)有老人味還越來(lái)越年輕,至少年輕20歲

TVB的四小花
2025-06-16 02:57:47
杜蘭特?cái)y手威少加盟火箭,掘金甩約基奇,火箭重組沖冠局

杜蘭特?cái)y手威少加盟火箭,掘金甩約基奇,火箭重組沖冠局

秘密清風(fēng)
2025-06-27 14:01:20
李湘和16歲女兒回國(guó),直奔商場(chǎng)買鞋買衣服,王詩(shī)齡不化妝很清純

李湘和16歲女兒回國(guó),直奔商場(chǎng)買鞋買衣服,王詩(shī)齡不化妝很清純

檸檬有娛樂(lè)
2025-06-27 10:13:46
追求標(biāo)準(zhǔn)答案危害無(wú)窮

追求標(biāo)準(zhǔn)答案危害無(wú)窮

水寒說(shuō)語(yǔ)文
2025-06-26 17:30:16
黃一鳴自曝:王思聰每次約她,車費(fèi)都給10萬(wàn),來(lái)給5萬(wàn),回再給5萬(wàn)

黃一鳴自曝:王思聰每次約她,車費(fèi)都給10萬(wàn),來(lái)給5萬(wàn),回再給5萬(wàn)

漢史趣聞
2025-06-24 10:07:59
楊瀚森自評(píng)現(xiàn)役模板:同為16順位申京 吃煎餅調(diào)侃和周琦夢(mèng)幻聯(lián)動(dòng)

楊瀚森自評(píng)現(xiàn)役模板:同為16順位申京 吃煎餅調(diào)侃和周琦夢(mèng)幻聯(lián)動(dòng)

醉臥浮生
2025-06-27 15:48:22
財(cái)政部:截至5月末全國(guó)地方政府債務(wù)余額512475億元

財(cái)政部:截至5月末全國(guó)地方政府債務(wù)余額512475億元

澎湃新聞
2025-06-27 10:36:06
艱難抉擇!湖北一高二考生被屏蔽,走還是不走?家長(zhǎng)和學(xué)校犯難了

艱難抉擇!湖北一高二考生被屏蔽,走還是不走?家長(zhǎng)和學(xué)校犯難了

火山詩(shī)話
2025-06-26 06:42:34
當(dāng)年為什么查辦褚時(shí)健?

當(dāng)年為什么查辦褚時(shí)健?

顧史
2025-06-09 20:26:22
又一個(gè)經(jīng)濟(jì)奇跡——孟加拉國(guó)

又一個(gè)經(jīng)濟(jì)奇跡——孟加拉國(guó)

古老板的老巢
2025-06-24 23:41:45
博伊爾斯女友社媒曬照慶祝男友被猛龍選中:哦嘿呀

博伊爾斯女友社媒曬照慶祝男友被猛龍選中:哦嘿呀

懂球帝
2025-06-27 08:40:19
洪森惱羞成怒,竟曝光英拉秘事,佩通坦絕地反擊,泰專機(jī)直飛中國(guó)

洪森惱羞成怒,竟曝光英拉秘事,佩通坦絕地反擊,泰專機(jī)直飛中國(guó)

嘆知
2025-06-23 10:34:33
中國(guó)游戲超越日本!來(lái)自日本玩家の認(rèn)可!IGN日本高度評(píng)價(jià)《歸唐》!甘肅文旅廳宣布支持開(kāi)發(fā)組古跡掃描

中國(guó)游戲超越日本!來(lái)自日本玩家の認(rèn)可!IGN日本高度評(píng)價(jià)《歸唐》!甘肅文旅廳宣布支持開(kāi)發(fā)組古跡掃描

Steam社區(qū)
2025-06-26 11:57:21
絕了!碘伏才是隱藏的省錢刺客!我居然白白燒了五年冤枉錢!

絕了!碘伏才是隱藏的省錢刺客!我居然白白燒了五年冤枉錢!

墻頭草
2025-04-01 12:00:11
昔日女神成方圓老了!兩段婚姻失敗無(wú)子女,對(duì)愛(ài)失望選擇單身

昔日女神成方圓老了!兩段婚姻失敗無(wú)子女,對(duì)愛(ài)失望選擇單身

一盅情懷
2025-06-27 15:54:59
1小時(shí)賣了578億!小米YU7大定28.9萬(wàn)輛遠(yuǎn)超SU7,小米ADR暴漲12%,雷軍連喊三個(gè)“安全”

1小時(shí)賣了578億!小米YU7大定28.9萬(wàn)輛遠(yuǎn)超SU7,小米ADR暴漲12%,雷軍連喊三個(gè)“安全”

金融界
2025-06-26 23:50:34
塵埃落定,重返巴薩??jī)?nèi)馬爾官宣,1年合同,年薪1500萬(wàn)

塵埃落定,重返巴薩??jī)?nèi)馬爾官宣,1年合同,年薪1500萬(wàn)

東球弟
2025-06-27 12:34:08
笑暈!江蘇衛(wèi)視又逮著常州一個(gè)勁嚯嚯!這回“遭殃”的你卻想不到

笑暈!江蘇衛(wèi)視又逮著常州一個(gè)勁嚯嚯!這回“遭殃”的你卻想不到

深析古今
2025-06-27 17:14:39
萬(wàn)萬(wàn)沒(méi)想到!拒給馬筱梅做婚紗,緬懷大S的蘭玉,竟是他的前女友

萬(wàn)萬(wàn)沒(méi)想到!拒給馬筱梅做婚紗,緬懷大S的蘭玉,竟是他的前女友

史行途
2025-06-27 15:07:11
2025-06-27 21:44:49
機(jī)器學(xué)習(xí)與Python社區(qū) incentive-icons
機(jī)器學(xué)習(xí)與Python社區(qū)
機(jī)器學(xué)習(xí)算法與Python
3014文章數(shù) 11024關(guān)注度
往期回顧 全部

科技要聞

雷軍:小米汽車成功沒(méi)靠營(yíng)銷,靠的是能力

頭條要聞

美國(guó)打擊伊朗核設(shè)施后 美軍一將領(lǐng)進(jìn)入特朗普核心圈

頭條要聞

美國(guó)打擊伊朗核設(shè)施后 美軍一將領(lǐng)進(jìn)入特朗普核心圈

體育要聞

曼城“庫(kù)里”連線,送尤文晚安好夢(mèng)

娛樂(lè)要聞

炸裂!榜一大姐深夜怒錘頂流

財(cái)經(jīng)要聞

合新鐵路建設(shè)材料以次充好 多家單位被罰

汽車要聞

配置升級(jí)/貴賓座椅 全新GL8陸上公務(wù)艙售22.99萬(wàn)

態(tài)度原創(chuàng)

家居
時(shí)尚
教育
本地
藝術(shù)

家居要聞

明亮寬敞 空間合理安排

到了夏天,中年女人穿過(guò)膝裙不配運(yùn)動(dòng)鞋,才能美得優(yōu)雅又得體

教育要聞

昌平感知覺(jué)統(tǒng)合培訓(xùn)班結(jié)業(yè)式暨鞏華中心小學(xué)一體化生態(tài)課間研討會(huì)

本地新聞

被貴妃帶火的“唐代頂流”,如今怎么不火了

藝術(shù)要聞

故宮珍藏的墨跡《十七帖》,比拓本更精良,這才是地道的魏晉寫法

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版 主站蜘蛛池模板: 汤阴县| 佛学| 宁陵县| 武夷山市| 广宗县| 明溪县| 乐至县| 九龙城区| 井研县| 金秀| 宜兴市| 临沂市| 都江堰市| 台中市| 堆龙德庆县| 宁化县| 吕梁市| 苏尼特右旗| 玉环县| 上虞市| 依兰县| 本溪市| 肥乡县| 紫阳县| 都江堰市| 平度市| 南城县| 朝阳区| 秦安县| 合水县| 通江县| 高淳县| 浪卡子县| 大余县| 太谷县| 波密县| 潮州市| 九龙县| 睢宁县| 资中县| 乌拉特中旗|